Entscheidungen in der Bayes-Statistik und Sequentialanalyse bei unscharfer Information

Am Beispiel unscharfer Stichproben von Poisson-verteilten stochastischen Größen und unscharfer A-posteriori-Gamma-Verteilungen


Doktorarbeit / Dissertation, 2006

441 Seiten, Note: 1,0


Leseprobe


Entscheidungen in der
Bayes-Statistik und
Sequentialanalyse bei unscharfer
Information
Am Beispiel unscharfer Stichproben von
Poisson-verteilten stochastischen Gr¨
oßen
und unscharfer
A-posteriori-Gammaverteilungen
Dissertation
zur Erlangung des akademischen Grades einer
Doktorin der Naturwissenschaften
an der Fakult¨at f¨
ur Mathematik, Informatik und Physik
Leopold-Franzens-Universit¨at Innsbruck
Dissertationsgebiet: Mathematik
Eingereicht von:
Mag. Mag. Petra Comploj
Innsbruck
Betreuer:
O. Univ.-Prof. Dipl.-Ing. Dr. Reinhard Viertl
Institut f¨
ur Statistik und Wahrscheinlichkeitstheorie
Fakult¨at f¨
ur Mathematik und Geoinformation
Technische Universit¨at Wien
September 2006


Inhaltsverzeichnis
Inhaltsverzeichnis
I
Abbildungsverzeichnis
IV
1
Einleitung
1
2
Motivation und begleitendes Beispiel
7
2.1
Problemstellung des begleitenden Beispiels . . . . . . . . . . . . . . . .
7
2.2
Stochastische Modellierung . . . . . . . . . . . . . . . . . . . . . . . . .
8
2.3
Problematik der Unsch¨
arfe . . . . . . . . . . . . . . . . . . . . . . . . .
10
3 Unscharfe Mengen oder Fuzzy-Mengen
14
3.1
Definition von Fuzzy-Mengen
. . . . . . . . . . . . . . . . . . . . . . .
14
3.1.1
Fuzzy-Mengen und ihre Zugeh¨
origkeitsfunktion
. . . . . . . . .
14
3.1.2
Die -Schnitte von Fuzzy-Mengen . . . . . . . . . . . . . . . . .
16
3.1.3
Wichtige Fuzzy-Mengen und deren Darstellung . . . . . . . . . .
17
3.2
Rechnen mit Fuzzy-Mengen . . . . . . . . . . . . . . . . . . . . . . . .
19
3.2.1
Mengenarithmetik und Cartesisches Produkt f¨
ur Fuzzy-Mengen
19
3.2.2
Das Extensionsprinzip . . . . . . . . . . . . . . . . . . . . . . .
21
3.2.3
Unscharfe Funktionen
. . . . . . . . . . . . . . . . . . . . . . .
24
3.2.4
Reelle Fuzzy-Mengen-R¨
aume und topologische Eigenschaften . .
29
3.2.5
Folgen, Reihen und Konvergenz von Fuzzy-Mengen . . . . . . .
32
3.2.6
Ordnungsrelationen und Rangordnungsverfahren f¨
ur Fuzzy-Mengen 34
3.2.7
Defuzzifikation von Fuzzy-Mengen . . . . . . . . . . . . . . . . .
40
3.3
Konstruktion von Fuzzy-Mengen . . . . . . . . . . . . . . . . . . . . . .
43
3.3.1
Unscharfe Zugeh¨
origkeit durch physikalische Eigenschaften und
charakteristische Funktion unscharfer Randpunkte . . . . . . . .
44
3.3.2
Unscharfe Z¨
ahlung von unscharfen Ereignissen . . . . . . . . . .
48
3.3.3
Unsch¨
arfe aufgrund subjektiver Einsch¨
atzung
. . . . . . . . . .
51
4 Unscharfe stochastische Modellierung
56
4.1
Fuzzy-Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . .
58
4.1.1
Zufallsvariablen und zuf¨
allige Mengen . . . . . . . . . . . . . . .
58
4.1.2
Definition von Fuzzy-Zufallsvariablen . . . . . . . . . . . . . . .
61
4.2
Fuzzy-Zufallsvariablen und ihre unscharfe Wahrscheinlichkeitsverteilung
66
4.2.1
Die unscharfe Verteilung von Fuzzy-Zufallsvariablen . . . . . . .
66
4.2.2
Unscharfe parametrische Verteilungen von Fuzzy-Zufallsvariablen
76
I

II
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
4.3
Mehrdimensionale Gebilde aus Fuzzy-Zufallsvariablen . . . . . . . . . .
85
4.3.1
Fuzzy-Zufallsvektoren . . . . . . . . . . . . . . . . . . . . . . . .
85
4.3.2
Folgen von Fuzzy-Zufallsvariablen . . . . . . . . . . . . . . . . .
87
4.3.3
Unscharfe stochastische Prozesse
. . . . . . . . . . . . . . . . .
94
4.3.4
Unscharfe Stichproben . . . . . . . . . . . . . . . . . . . . . . .
97
5
Klassische Inferenzstatistik f¨
ur unscharfe Daten
104
5.1
Statistiken, Entscheidungsregeln und ihre unscharfen Erweiterungen . . 105
5.2
Wichtige Grenzwerts¨
atze der Statistik unter Unsch¨
arfe . . . . . . . . . 107
5.2.1
Starkes Gesetz der großen Zahlen f¨
ur Fuzzy-Zufallsvariablen . . 107
5.2.2
Schwaches Gesetz der großen Zahlen f¨
ur Fuzzy-Zufallsvariablen . 109
5.2.3
Bernoulli's Gesetz der großen Zahlen f¨
ur unscharfe Daten . . . . 110
5.2.4
Die empirische Verteilungsfunktion und der Fundamentalsatz der
Statistik f¨
ur unscharfe Daten
. . . . . . . . . . . . . . . . . . . 112
5.3
Punktsch¨
atzung f¨
ur unscharfe Verteilungsparameter . . . . . . . . . . . 115
5.4
Sch¨
atzung unscharfer Konfidenzbereiche
. . . . . . . . . . . . . . . . . 122
5.5
Statistische Tests mit unscharfen Daten . . . . . . . . . . . . . . . . . . 127
5.5.1
Hypothesen und Testfunktionen unter Unsch¨
arfe . . . . . . . . . 127
5.5.2
Unscharfe Teststatistiken und Vergleich mit kritischen Werten . 134
5.5.3
Unscharfe Inklusion in unscharfen Konfidenzintervallen . . . . . 139
5.5.4
Unscharfe Wahrscheinlichkeitswerte . . . . . . . . . . . . . . . . 143
5.5.5
Weitere Ans¨
atze f¨
ur Unsch¨
arfe bei statistischen Tests . . . . . . 149
6 Bayes'scher Ansatz und Bayes'sche Analyse f¨
ur unscharfe Daten
151
6.1
Fuzzy A-posteriori-Verteilungen . . . . . . . . . . . . . . . . . . . . . . 152
6.1.1
Bayes-Theorem f¨
ur unscharfe Stichproben
. . . . . . . . . . . . 152
6.1.2
Unscharfe suffiziente Statistiken . . . . . . . . . . . . . . . . . . 161
6.1.3
Unscharfe konjugierte Verteilungsfamilien . . . . . . . . . . . . . 165
6.1.4
Unscharfe A-priori-Verteilungen . . . . . . . . . . . . . . . . . . 173
6.2
Unscharfe Pr¨
adiktivverteilungen . . . . . . . . . . . . . . . . . . . . . . 189
6.3
Unscharfe A-posteriori-Bayes-Punktsch¨
atzer . . . . . . . . . . . . . . . 197
6.3.1
Fuzzy-A-posteriori-Erwartungswert-Sch¨
atzer . . . . . . . . . . . 198
6.3.2
Fuzzy-A-posteriori-Median-Sch¨
atzer . . . . . . . . . . . . . . . . 201
6.3.3
Fuzzy-A-posteriori-Modus-Sch¨
atzer . . . . . . . . . . . . . . . . 205
6.4
Unscharfe HPD-Bereiche . . . . . . . . . . . . . . . . . . . . . . . . . . 208
6.5
Unscharfe A-posteriori-Wahrscheinlichkeiten von statistischen Hypothesen211
7 Unscharfe Bayes-Entscheidungen unter Verlustbetrachtung
219
7.1
Unscharfe Entscheidungen und Verluste aufgrund unscharfer Daten . . 220
7.2
Unscharfe Bayes-Entscheidungsfunktionen und unscharfe Bayes-Entschei-
dungen aufgrund unscharfer Daten . . . . . . . . . . . . . . . . . . . . 221
7.3
Fuzzy-Bayes-Punktsch¨
atzungen . . . . . . . . . . . . . . . . . . . . . . 231
7.3.1
Fuzzy-Bayes-Punktsch¨
atzung bei quadratischer Verlustfunktion
231
7.3.2
Fuzzy-Bayes-Punktsch¨
atzung bei linearer Verlustfunktion . . . . 234
7.4
Fuzzy-Bayes-Bereichsch¨
atzungen . . . . . . . . . . . . . . . . . . . . . . 239
7.5
Fuzzy-Bayes-Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243

INHALTSVERZEICHNIS
III
8
Sequentielle statistische Entscheidungen unter Unsch¨
arfe
248
8.1
Sequentielle statistische Entscheidungen f¨
ur unscharfe Daten . . . . . . 249
8.1.1
Sequentielle statistische Entscheidungsverfahren . . . . . . . . . 250
8.1.2
Unscharfe Entscheidungen und unscharfe Stoppzeiten . . . . . . 252
8.1.3
Scharfe Stoppzeiten und scharfe Abbruchregeln f¨
ur unscharfe Daten256
8.1.4
Vereinfachte scharfe Stoppzeiten f¨
ur unscharfe Daten . . . . . . 269
8.2
Sequentielle Bayes'sche Entscheidungen f¨
ur unscharfe Daten . . . . . . 274
8.3
Verk¨
urzte sequentielle Bayes-Entscheidungsverfahren f¨
ur unscharfe Daten 281
8.3.1
Verk¨
urzte sequentielle Bayes-Verfahren . . . . . . . . . . . . . . 281
8.3.2
Verk¨
urzte sequentielle Bayes-Verfahren f¨
ur unscharfe Daten . . . 291
8.3.3
Verk¨
urztes sequentielles Punktsch¨
atzverfahren f¨
ur unscharfe Daten300
8.4
Modifizierte verk¨
urzte sequentielle Bayes-Entscheidungsverfahren f¨
ur un-
scharfe Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
8.4.1
Modifizierte verk¨
urzte sequentielle Bayes-Verfahren . . . . . . . 314
8.4.2
Modifizierte verk¨
urzte sequentielle Bayes-Verfahren f¨
ur unscharfe
Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
8.4.3
Modifiziertes verk¨
urztes sequentielles Punktsch¨
atzverfahren f¨
ur
unscharfe Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
8.5
Vorausschauende sequentielle Bayes-Verfahren und modifizierte voraus-
schauende sequentielle Bayes-Verfahren f¨
ur unscharfe Daten
. . . . . . 331
8.5.1
Vorausschauende und modifizierte vorausschauende sequentielle
Bayes-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
8.5.2
Vorausschauende und modifizierte vorausschauende sequentielle
Bayes-Verfahren f¨
ur unscharfe Daten . . . . . . . . . . . . . . . 334
8.5.3
Vorausschauendes und modifiziertes vorausschauendes sequenti-
elles Punktsch¨
atzverfahren f¨
ur unscharfe Daten
. . . . . . . . . 339
8.6
Der unscharfe sequentielle Likelihood-Quotienten-Test (Fuzzy-SPRT) . 354
8.6.1
Der SPRT als klassisches sequentielles Testverfahren
. . . . . . 356
8.6.2
Der SPRT als Bayes'sches sequentielles Testverfahren . . . . . . 361
8.6.3
Der Fuzzy-SPRT als klassisches sequentielles Testverfahren f¨
ur
unscharfe Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
8.6.4
Der Fuzzy-SPRT als Bayes'sches sequentielles Testverfahren f¨
ur
unscharfe Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
9 Zusammenfassung und Ausblick
385
9.1
Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
9.2
Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 388
9.2.1
Trends und Verteilungsmodelle f¨
ur Naturkatastrophen . . . . . . 388
9.2.2
Unscharfe Verluste . . . . . . . . . . . . . . . . . . . . . . . . . 389
9.2.3
Implikationen f¨
ur weitere Forschungsarbeit . . . . . . . . . . . . 392
Literaturverzeichnis
VII
Symbolverzeichnis
XXXVIII

Abbildungsverzeichnis
2.1
Hoch- und Niedrigwasserst¨
ande am Pegel Cuxhaven 1999 . . . . . . . .
10
2.2
Sturmflut Pegelkurven Cuxhaven . . . . . . . . . . . . . . . . . . . . .
11
2.3
Flutwelle (Tsunami) . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
3.1
Fuzzy-Menge und gew¨
ohnliche Menge . . . . . . . . . . . . . . . . . . .
15
3.2
-Schnitte von ~
A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
3.3
Grautonbild einer zweidimensionalen Fuzzy-Menge . . . . . . . . . . . .
22
3.4
Flutwelle und ihr oberer Rand . . . . . . . . . . . . . . . . . . . . . . .
44
3.5
Grautonbild bzw. Fuzzy-Menge der auf die H¨
ohe projizierten Flutwelle
46
3.6
Unscharfe H¨
ohe einer Flutwelle nach der Steigungsmethode . . . . . . .
47
3.7
Unscharfe H¨
ohe einer Flutwelle nach der Komplementmethode . . . . .
48
3.8
Unscharfe H¨
ohe einer Flutwelle und kritische H¨
ohe
. . . . . . . . . . .
49
3.9
Unscharfe Einordnung einer Flutwelle unscharfer H¨
ohe . . . . . . . . .
50
4.1
Fuzzy-Schar von Poisson-Wahrscheinlichkeitsfunktionen . . . . . . . . .
79
4.2
Fuzzifizierende Poisson-Wahrscheinlichkeitsfunktion: -Niveaukurven
. . . .
81
4.3
Unscharfe Poisson-Verteilungsfunktion
. . . . . . . . . . . . . . . . . .
82
5.1
Unscharfe empirische Verteilungsfunktion . . . . . . . . . . . . . . . . . 113
5.2
Unscharfer gesch¨
atzter Verteilungsparameter und konvexe H¨
ulle . . . . 119
5.3
Unscharfes Konfidenzintervall . . . . . . . . . . . . . . . . . . . . . . . 128
5.4
Unscharfe Teststatistik und unscharfer kritischer Wert . . . . . . . . . . 137
5.5
Klassische Hypothese und unscharfes Konfidenzintervall . . . . . . . . . 141
5.6
Unscharfer Wahrscheinlichkeitswert . . . . . . . . . . . . . . . . . . . . 147
6.1
Fuzzy-Schar von A-posteriori-Gammadichtefunktionen
. . . . . . . . . 169
6.2
-Niveaukurven der konvex-fuzzifizierenden A-posteriori-Gammadichte
171
6.3
-Niveaukurven der fuzzifizierenden A-posteriori-Gammadichte . . . . . 173
6.4
Fuzzy-Schar von A-priori-Gammadichtefunktionen . . . . . . . . . . . . 180
6.5
-Niveaukurven der konvex-fuzzifizierenden A-priori-Gammadichte . . . 182
6.6
-Niveaukurven der fuzzifizierenden A-priori-Gammadichte . . . . . . . 183
6.7
Fuzzy-A-posteriori-Bayes-Erwartungswert-Sch¨
atzer und konvexe H¨
ulle . 201
6.8
Fuzzy-HPD-Intervall . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
6.9
Fuzzy-A-posteriori-Wahrscheinlichkeitenquotient und konvexe H¨
ulle . . 218
7.1
Lineare Fuzzy-Verlustfunktion (Fuzzy-Extension)
. . . . . . . . . . . . 221
7.2
Fuzzy-Bayes-Punktsch¨
atzung bei linearer Verlustfunktion . . . . . . . . 239
7.3
Fuzzy-Bayes-Intervallsch¨
atzung bei linearer Verlustfunktion . . . . . . . 243
IV

ABBILDUNGSVERZEICHNIS
V
7.4
Fuzzy-Bayes-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
8.1
Stoppzeitsituation bei unscharfen Daten
. . . . . . . . . . . . . . . . . 255
8.2
Teilbereiche des Stichprobenraums
. . . . . . . . . . . . . . . . . . . . 258
8.3
Stoppzeit nach der Tr¨
agertangentialmethode . . . . . . . . . . . . . . . 260
8.4
Stoppzeit nach der Tr¨
agerinklusionsmethode . . . . . . . . . . . . . . . 261
8.5
Stoppzeit nach der Kerntangentialmethode . . . . . . . . . . . . . . . . 262
8.6
Stoppzeit nach der Kerninklusionsmethode . . . . . . . . . . . . . . . . 263
8.7
Stoppzeit nach der -Niveautangentialmethode
. . . . . . . . . . . . . 264
8.8
Stoppzeit nach der -Niveauinklusionsmethode . . . . . . . . . . . . . . 265
8.9
Stoppzeit nach der Kardinalit¨
atsmethode . . . . . . . . . . . . . . . . . 266
8.10 Stoppzeit nach der vereinfachten Kardinalit¨
atsmethode . . . . . . . . . 273
8.11 Fuzzy-Risikovergleich beim verk¨
urzten sequentiellen Verfahren . . . . . 313
8.12 Fuzzy-Risikovergleich beim modifizierten verk¨
urzten Verfahren . . . . . 330
8.13 Fuzzy-Risikovergleich beim vorausschauenden sequentiellen Verfahren . 351
8.14 Fuzzy-Risikovergleich beim modifizierten vorausschauenden Verfahren . 353
8.15 Ausgangssituation beim Bayes'schen SPRT . . . . . . . . . . . . . . . . 367
8.16 Situation beim Fuzzy-SPRT nach n Beobachtungen . . . . . . . . . . . 370
8.17 Vorgangsweise beim Fuzzy-SPRT . . . . . . . . . . . . . . . . . . . . . 383
9.1
Anzahl großer Naturkatastrophen in Deutschland . . . . . . . . . . . . 389
9.2
Anzahl der Flutkatastrophen weltweit . . . . . . . . . . . . . . . . . . . 390
9.3
Rasterkarte der Werteverteilung in der Gemeinde Timmendorfer Strand 391


Kapitel 1
Einleitung
Sowohl im t¨
aglichen Leben, als auch in verschiedenen Bereichen der Wissenschaft (Tech-
nik, Naturwissenschaften, Sozialwissenschaften und ¨
Okonomie) geh¨
ort die Bew¨
altigung
von unterschiedlichsten Formen der Ungewissheit bei Entscheidungsproblemen unter-
schiedlichster Art zu den t¨
aglichen Aufgaben. Bei der Erfassung der Probleme in Model-
len, die dann mathematisch gel¨
ost werden sollen wird in der klassischen Mathematik
meist so vorgegangen, dass Exaktheit der auszuwertenden Daten angenommen und
Unsch¨
arfe im Allgemeinen gleich einem Sch¨
onheitsfehler weggelassen wird. Meist ist
Variabilit¨
at, also stochastische Unsicherheit, die einzige in klassischen mathematischen
Modellen einzige ber¨
ucksichtigte Form der Unbestimmtheit, und diese wird mit Hilfe
von wahrscheinlichkeitstheoretischen Ans¨
atzen in den Modellen verarbeitet. Vereinfa-
chungen und Abstraktionen bei der Generierung von Modellen sind durchaus legitim,
denn ein Modell kann und soll niemals die Realit¨
at in ihrer Gesamtheit erfassen, an-
sonsten ist das Modell sinnlos. In der Modelltheorie wird ein Problem so vereinfacht,
dass es mit vertretbarem Aufwand einfach zu l¨
osen ist. In Modellen wird Komplexit¨
at
reduziert: von allem, was vorerst nicht relevant ist, wird abstrahiert, um die relevan-
ten Aspekte besser analysieren zu k¨
onnen. Dennoch kann diese Vernachl¨
assigung von
Unsch¨
arfe durchaus zu ungenauen und unvollst¨
andigen Ergebnissen f¨
uhren. "Vage Fak-
ten", die sich aufgrund von Unsch¨
arfe nur schwer fixieren lassen, k¨
onnen f¨
ur die L¨
osung
von Entscheidungsproblemen aber oft von Bedeutung sein und d¨
urfen daher im Modell
nicht einfach weggelassen werden.
1
Daher ist es wichtig, ein Modell bereitzustellen,
welches die Modellannahme der Exaktheit der Daten fallen l¨
asst und das Verhalten
der Modellvariablen unter der Pr¨
amisse der Unsch¨
arfe untersucht. Statistiker haben
sich in Zukunft auf die Analyse von Daten zu konzentrieren, die Realit¨
at beschrei-
ben, um die Anwendbarkeit der entwickelten Methoden auf Entscheidungsprobleme zu
gew¨
ahrleisten und der Gefahr, den Anschluss an die Realit¨
at zu verlieren, zu entgehen.
2
In den letzten Jahrzehnten des 20. Jahrhunderts wurden Ans¨
atze zur differenzierte-
ren Analyse unterschiedlicher Dimensionen des Begriffes Unbestimmtheit entwickelt.
3
Der erste Schritt zu einer Distanzierung von der idealisierenden Sichtweise ist die Inter-
vallmodellierung, bei welcher geringf¨
ugige Abweichungen vom exakten Wert zugelassen
sind, d.h. anstatt eines exakten Wertes a wird ein Intervall [a
-
, a
+
] angegeben. Ein Mo-
1
Vgl. Schneeweiß (1991), S. 40.
2
Vgl. Viertl (2002b), S. 242.
3
Vgl. Viertl (2002a), S. 105.
1

2
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
dell zur Kombination von Wahrscheinlichkeit und als Intervall dargestellter Unsch¨
arfe
wird von Dempster und Shafer vorgeschlagen.
4
An der Intervallmodellierung l¨
asst sich
jedoch kritisieren, dass jeder Wert innerhalb der scharfen Intervallgrenzen denselben
Akzeptanzgrad besitzt. Alternative Konzepte sind erforderlich.
Bereits zu Beginn der 1950er Jahre wurde von K. Menger der Begriff des "ensemble
flou" f¨
ur eine neue Idee zur mathematischen Erfassung von Unsch¨
arfe als einer von der
stochastischen Unsicherheit verschiedenen Art der Unbestimmtheit verwendet.
5
Mitte
der 1960er Jahre ver¨
offentlichte L.A. Zadeh seinen Artikel ¨
uber das Konzept der "fuzzy
sets", welcher oft aufgrund seines Bekanntheitsgrades als Ursprung der Theorie der un-
scharfen Mengen oder Fuzzy-Mengen angesehen wird.
6
Der Unterschied zwischen einer
Fuzzy-Menge ~
A und einer gew¨
ohnlichen Menge A besteht darin, dass zwischen einem
Element x und einer gew¨
ohnlichen Menge A im Sinne der klassischen Cantor'schen
Mengenlehre nur die Beziehungen x
A und x / A erlaubt sind, w¨ahrend bei einer
Fuzzy-Menge ~
A eine graduelle Zugeh¨
origkeit m¨
oglich ist. Diese graduelle Zugeh¨
origkeit
wird mittels einer Zugeh¨
origkeitsfunktion
~
A
(.) mit Funktionswerten in [0, 1] beschrie-
ben.
Zadehs Konzept fand zun¨
achst bei Mathematikern und Technikern in Europa und
in den U.S.A. nur wenig Anklang. Es besch¨
aftigten sich zwar zahlreiche Forscher mit
Fuzzy-Mengen und entwickelten Fuzzifikationen von einigen Theorien aus der Mathe-
matik, doch man zweifelte allgemein an der Anwendbarkeit der Theorie der Fuzzy-
Mengen in Bereichen wie k¨
unstliche Intelligenz oder Regelungstechnik. Erste Meldun-
gen ¨
uber erfolgreiche Anwendung von Fuzzy-Techniken kamen um 1990 aus Japan, so
wurde "fuzzy" in Japan 1990 zum Wort des Jahres gew¨
ahlt. Trotz der anf¨
anglichen
Skepsis hat sich in der Zwischenzeit eine umfassenden Theorie entwickelt.
7
Zahlreiche Methoden f¨
ur die Konstruktion von Zugeh¨
origkeitsfunktionen unscharfer
Mengen wurden entworfen. Viele Gebiete der Mathematik wurden so verallgemeinert,
dass sie auf Fuzzy-Mengen anwendbar sind. Ausgangspunkt f¨
ur diese Verallgemeine-
rung bilden die Definition von elementaren Mengenoperationen (Durchschnitt, Ver-
einigung, Komplement) f¨
ur Fuzzy-Mengen und die Extension elementarer arithmeti-
scher Operationen (Addition, Subtraktion, Multiplikation, Division) auf Fuzzy-Zahlen,
welche ihrerseits eine Verallgemeinerung der Minkowski-Operationen f¨
ur gew¨
ohnli-
che Mengen darstellt. Auf Fuzzy-Mengen ausgedehnt wurden unter anderem die Ge-
biete Toplogie
8
, Gruppentheorie
9
, Graphentheorie
10
, Vektorr¨
aume
11
, Optimierung
12
,
Spieltheorie
13
und Differentialgleichungen, dabei insbesondere die Methode der finiten
4
Vgl. Dempster (1967), Shafer (1976), Shafer (1987), vgl. auch Comploj (1994), S. 181 ff.
5
Menger (1951).
6
Zadeh (1965).
7
Einen ¨
Uberblick ¨
uber die grundlegende Ideen und Entwicklung der Fuzzy-Theorie bringen die
Artikel in Seising [Ed.] (1999), S. 1-181.
8
Lowen (1976), Wong (1975).
9
Rosenfeld (1971).
10
Rosenfeld (1975), Lessmann / M¨
uhl¨
ogger / Oberguggenberger (1994).
11
Katsaras / Liu (1977), Biswas (1991).
12
Zimmermann (1991), Rommelfanger (1992), Ram´ik (1992), Inguichi / Ichihasi / Kume (1993),
Hauke (1998), Wagner (2003).
13
Ragade (1976), Butnariu (1978), Zimmermann (1991).

KAPITEL 1 EINLEITUNG
3
Elemente
14
. Unter den "fuzzifizierten" Gebieten der Mathematik besondere Bedeutung
erlangt hat die Fuzzy-Logik. Fuzzy-Logik f¨
allt in den Bereich der mehrwertigen Logik,
welche neben den Wahrheitswerten
{wahr, falsch} bzw. {0, 1} das gesamte Intervall
[0, 1] als Menge der m¨
oglichen Wahrheitswerte zul¨
asst. Basierend auf Fuzzy-Logik wur-
den unter Anwendung modernster Computer-Technologie Fuzzy-Systeme konstruiert,
die insbesondere in Japan Anwendung fanden in Gebieten wie k¨
unstliche Intelligenz
(Expertensysteme) oder Regelungstechnik (Kraftfahrzeuge, Kameras). Zum Gebiet der
Fuzzy-Logik gibt es umfangreiche Literatur.
15
Unsch¨
arfe kann auch in die Wahrscheinlichkeitstheorie einfließen.
16
Dies kann auf
drei Arten geschehen. Ein Ansatz, der scharfe Wahrscheinlichkeiten f¨
ur Fuzzy-Mengen
definiert, wurde von Zadeh
17
S. 422 ff., entworfen und von vielen Autoren
18
aufgegriffen
und weiterentwickelt. Unterschiedliche Modelle f¨
ur Wahrscheinlichkeiten, bei denen die
Unsch¨
arfe von Ereignissen sich auf ihre Wahrscheinlichkeit ¨
ubertr¨
agt, wurden ebenfalls
von zahlreichen Autoren
19
entwickelt. Dazu kommen noch M¨
oglichkeiten der Definition
von unscharfen Wahrscheinlichkeiten f¨
ur klassische Ereignisse.
20
Ein weiteres Anwendungsgebiet der Fuzzy-Mengentheorie ist die Modellierung von
Unsch¨
arfe in der Statistik.
21
Unscharfe schließende Statistik wurde ausf¨
uhrlich in den
Monographien von Kruse und Meyer
22
und von Viertl
23
und einigen Aufs¨
atzen von
Kruse und von Viertl behandelt.
24
Die hier besprochenen Teilgebiete sind unscharfe
Sch¨
atzung von Parametern und unscharfe Sch¨
atzung nicht-parametrischer Verteilun-
gen, sowie unscharfe Konfidenzbereiche und statistische Tests bei Unsch¨
arfe. Auch
Ans¨
atze f¨
ur die unscharfe Verallgemeinerung der Bayes-Statistik wurden bereits in den
14
Oberguggenberger (1997), Fetz (1997), Oberguggenberger / Pittschmann (1998), Fetz / J¨
ager
et al. (1999), Fetz / Oberguggenberger / Pittschmann (2000), Oberguggenberger / Russo (2001),
Oberguggenberger (2003b), M¨
oller / Beer / Graf / Sickert (2002), Sickert / Graf / Beer / M¨
oller
(2003), M¨
oller / Beer (2004), S. 135 ff.
15
Einige der deutschsprachigen Werke zur Fuzzy-Logik sind Rommelfanger (1988), B¨
ohme (1993),
Kruse / Gebhardt / Klawonn (1993), Schulte (1993), Traeger (1993), Gottwald (1993). Kurzeinf¨
uhrung
bieten Gottwald (1999), S. 185 ff., Klement / Mesiar / Pap (1999), S. 205 ff., und Oberguggenberger
(2003a).
16
Eine ausf¨
uhrliche Zusammenstellung der unterschiedlichen Methoden zur Kombination von Fuz-
ziness und Wahrscheinlichkeit findet sich bei Comploj (2002), S. 93 ff.
17
Vgl. Zadeh (1968).
18
Z.B. Nov´
ak (1989), S. 89 f., Dubois / Prade (1992a), S. 141 ff., Bandemer / Gottwald (1993), S.
160 ff., Rommelfanger (1994), S. 58, Casals / Gil (1986), S. 371 ff., Casals / Salas (1988), S. 314 ff.,
Casals (1993), S. 189 ff., Casals / Gil (1994), S.283 ff., Taheri / Behboodian (1999), S. 3 ff., Taheri /
Behboodian (2001), S. 39 ff., Taheri / Behboodian (2002), S. 527 ff. Torabi / Behboodian (2005), S.
25 ff.
19
Etwa Yager (1979), S. 114 ff., Dubois / Prade (1992a), S. 143 f., Klement (1982), S. 211 ff., Yager
(1982), S. 275 f., Yager (1984a), S. 276 ff., und Yager (1984b), S. 3 ff.
20
Etwa Dubois / Prade (1992a), S. 145., Bandemer / Gottwald (1993), S. 171 f.
21
Eine Zusammenfassung wichtiger Beitr¨
age zur unscharfen Statistik bietet Taheri (2003), S. 239 ff.
22
Kruse / Meyer (1987).
23
Viertl (1996), Viertl / Hareter (2006).
24
Die wichtigsten grundlegenden Ideen werden in Borgelt / Gebhardt / Kruse (1999), S. 370 ff.,
bzw. Viertl (1999b), S. 244 ff., dargelegt.

4
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
1990ern von Viertl
25
pr¨
asentiert und in j¨
ungerer Zeit von Viertl und Hareter
26
weiter-
entwickelt.
Auf der Basis der Fuzzy-Mengen-Theorie l¨
asst sich auch die multivariate Daten-
analyse auf unscharfe Daten verallgemeinern. Unscharfe Datenanalyse wurde insbe-
sondere in der Monographie von Bandemer und N¨
ather
27
und etlichen Aufs¨
atzen
28
behandelt. Die Ans¨
atze der unscharfen Datenanalyse
29
sind aber eher L¨
osungen f¨
ur
bestimmte Probleme als durchgehende Konzepte.
30
Unterschiedliche Ans¨
atze gibt es
etwa f¨
ur die Einbeziehung unscharfer Daten in die Regressionsanalyse
31
oder unscharfe
Clusteranalyse.
32
Die vorliegende Arbeit entstand im Wesentlichen bereits im Jahre 1995 in Fortset-
zung meiner 1994 abgeschlossenen Diplomarbeit aus Mathematik, welche sich mit der
Modellierung von unscharfen Daten f¨
ur die statistische Analyse besch¨
aftigt.
33
Zahlrei-
che R¨
uckschl¨
age beruflicher und privater Natur zwangen mich immer wieder zur Un-
terbrechung des Vorhabens. Ein Teil des erarbeiteten Materials konnte im Jahre 2002
ur die Diplomarbeit aus Betriebswirtschaftslehre, die sich mit der Ber¨
ucksichtigung
von unscharfen Daten bei risikobehafteten Unternehmensentscheidungen befasst,
34
ver-
wendet werden. Im ¨
Ubrigen wartete das Manuskript aber im Keller, bis im Zuge eines
Zusammentreffens mit meinem Betreuer Univ.-Prof. Dr. Reinhard Viertl von der Tech-
nischen Universit¨
at Wien anl¨
asslich seines Gastvortrages in Innsbruck im Mai 2003
schließlich der Entschluss fiel, die begonnene Arbeit wieder aufzunehmen.
Die Arbeit versteht sich als Beitrag zur Entscheidungsunterst¨
utzung beim kom-
binierten Vorliegen von Variabilit¨
at, also stochastischer Unsicherheit, und Unsch¨
arfe,
also Datenunsicherheit. Insbesondere werden Methoden zur Findung von verlustmini-
mierenden Entscheidungen der Bayes-Statistik bei unscharfer Dateininformation sowie
oglichkeiten zur (notwendigerweise scharfen) Entscheidung ¨
uber Fortsetzung oder
Abbruch einer Beobachtungsserie mit unscharfen Daten bei sequentiellen Entschei-
25
Vgl. Viertl (1990), S. 168 ff. (erste Auflage zu Viertl (2003), erschienen unter dem Titel:
"Einf¨
uhrung in die Stochastik - mit Elementen der Bayes-Statistik und Ans¨
atzen f¨
ur die Analyse
unscharfer Daten"), Viertl / Hule (1991), S. 115 ff., Viertl (1992), S. 127 ff., Viertl (1996), S. 133 ff.
26
Vgl. Viertl (2003), Viertl / Hareter (2004a), S. 263 ff., Viertl / Hareter (2006), S. 87 ff.
27
Vgl. Bandemer / N¨
ather (1992).
28
Vor allem die Aufs¨
atze bei Bandemer [Ed.] (1988) und Bandemer [Ed.] (1990), eine Zusammen-
fassung einiger Basisideen bringt Bandemer (1999), S. 251 ff.
29
Etwa Bandemer / Otto (1988), Bandemer / Kraut / Vogt (1988), Bandemer / Kudra (1988),
Albrecht / N¨
ather (1988), Schmerling / Bandemer (1988), N¨
ather / Welle (1990), N¨
ather (1999).
30
Vgl. Comploj (1994), S. 163.
31
Vgl. etwa Diamond (1988), Bandemer / N¨
ather (1988), Sakawa / Yano (1992), die Aufs¨tze in
Kacprzyk/Fedrizzi [Eds.] (1992), Redden / Woodall (1996), Chang / Lee (1996), Diamond / K¨
orner
(1997), K¨
orner / N¨
ather (1998), Yen / Ghoshray / Roig (1999), Buckley / Feuring (2000), Wang /
Tsaur (2000), W¨
unsche / N¨
ather (2002), Tran / Duckstein (2002a), Wu (2003b), Wu (2003c).
32
Etwa Bandemer (1990), Bandemer / N¨
ather (1992), Bandemer / Gottwald (1993), Yeh / Bang
(1975), Rosenfeld (1975), Sandbrink (1997), Yang / Shih (2002), Tao (2003), M¨
oller / Beer (2004),
S. 273 ff., Rao / Srinivas (2006), einige Grundideen werden bei Runkler (1999) vorgestellt. In der
unscharfen Clusteranalyse werden Fuzzy-Methoden h¨
aufig als Alternative zu stochastischen Methoden
gesehen.
33
Comploj (1994).
34
Comploj (2002).

KAPITEL 1 EINLEITUNG
5
dungen vorgestellt.
35
Um den Bezug zur realen Datensituation hervorzuheben wer-
den s¨
amtliche Analysen am Beispiel einer durchgehenden Fallstudie pr¨
asentiert. Die
Fragestellung des begleitenden Beispiels stammt aus dem Naturkatastrophenrisikoma-
nagement, ein Teil der Arbeit ist der Modellierung der unscharfen Zahlen aufgrund
der vorliegenden realen Datensituation gewidmet. Weitere interessante Aspekte erge-
ben sich aus der Analyse der unscharfen Poisson- bzw. Gammaverteilung, die f¨
ur das
begleitende Beispiel gew¨
ahlt wurde.
Mein besonderer Dank gilt meinem Betreuer Herrn Prof. Dr. Reinhard Viertl vom
Institut f¨
ur Statistik und Wahrscheinlichkeitstheorie an der Technischen Universit¨
at
Wien, der mir durch die Betreuung der Arbeit und seine Geduld die M¨
oglichkeit gab,
diese Arbeit zu vollenden. Er war es auch, der in dem im Wintersemester 1992/93 am
Institut f¨
ur Statistik in Innsbruck abgehaltenen Seminar ¨
uber "Statistische Analyse mit
unscharfen Daten" mein Interesse f¨
ur dieses Thema weckte, und der mir die M¨
oglichkeit
gab, bereits im August 1993 an dem Kongress zum Thema "Statistics with Non-precise
Data" in Innsbruck teilzunehmen und dabei erstmals Forscher, die sich mit dem Thema
befassen, kennen zu lernen. Auch danke ich ihm f¨
ur die Zur-Verf¨
ugung-Stellung von
Literatur, die mir ansonsten nicht zug¨
anglich gewesen w¨
are.
Mein fortgesetzter Dank gilt Prof. Dr. Norbert Netzer vom Institut f¨
ur Mathematik
an der Universit¨
at Innsbruck f¨
ur die Betreuung meiner Mathematik-Diplomarbeit von
1994, sowie Prof. Dr. Gilg Seeber am Institut f¨
ur Statistik an der Universit¨
at Innsbruck,
ur die Betreuung meiner betriebswirtschaftlichen Diplomarbeit. Ferner gilt mein Dank
Prof. Dr. Gerhard Marinell und Ass.-Prof. Dr. Christian Traweger vom Institut f¨
ur
Statistik an der Universit¨
at Innsbruck, da ich im Rahmen des Akademikertrainings
an diesem Institut mein besonderes Interesse f¨
ur Statistik entdeckte, sowie Prof. Dr.
Rudolf Kruse von der Fakult¨
at f¨
ur Informatik an der Universit¨
at Magdeburg und Prof.
Dr. Hans Bandemer vom Fachbereich Mathematik an der Technischen Universit¨
at-
Bergakademie Freiberg / Sachsen, die mir wertvolle Literatur f¨
ur meine Diplomarbeit
aus Mathematik zukommen ließen.
Nach den Vorschriften des Studienplans zum Doktorat der Naturwissenschaften
wurden Teile der Arbeit ¨
offentlich vorgestellt. So durfte ich beim 16. Internationa-
len Kongress der ¨
Osterreichischen Mathematischen Gesellschaft und der Jahrestagung
der Deutschen Mathematiker-Vereinigung von 15.-23. September 2005 an der Alpen-
Adria Universit¨
at Klagenfurt in der Sektion "Wahrscheinlichkeitstheorie und Statistik"
am 23.09.2005 einen Vortrag zum Thema "Sequentielle Statistische Entscheidungsver-
fahren bei unscharfer Information" halten. Mein besonderer Dank gilt dabei zuerst
Prof. Dr. Manfred Borovcnik vom Institut f¨
ur Mathematik der Universit¨
at Klagenfurt
ur die nachtr¨
agliche Aufnahme des versp¨
atet angek¨
undigten Vortrags ins Programm.
Prof. Dr. Reinhard Viertl danke ich f¨
ur die M¨
oglichkeit einer außerplanm¨
aßigen Kurz-
pr¨
asentation des Vortrags im Rahmen des Minisymposions ¨
uber "Unscharfe Daten und
Fuzzy-Modelle" am 15.09.2005, wo es gelang, Interesse f¨
ur meinen Vortrag zu wecken,
und wo ich wieder die Gelegenheit hatte, Wissenschafter kennen zu lernen. So danke
35
Alternative Ans¨
atze zur Erweiterung von sequentiellen Bayes-Verfahren (insbesondere Bayes-
Tests), werden bei Casals / Salas (1988), S. 314 ff., bzw. Casals / Gil (1994), S. 283 ff., gezeigt,
eine Erweiterung des Sequential Probability Ratio Tests wird bei Torabi / Behboodian (2005), S. 25
ff., vorgestellt.

6
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ich Prof. Dr. Erich Peter Klement vom Institut f¨
ur Wissensbasierte Mathematische
Systeme an der Johannes Kepler Universit¨
at Linz f¨
ur sein Interesse an meiner Ar-
beit. Prof. Dr. Michael Oberguggenberger vom Institut f¨
ur Technische Mathematik,
Geometrie und Bauinformatik der Universit¨
at Innsbruck danke ich f¨
ur die Zusage der
Zweitbegutachtung der Dissertation und f¨
ur sein Interesse an meinem Vortrag. Mein
besonderer Dank gilt Herrn Prof. Dr. J¨
urgen Pilz vom Institut f¨
ur Mathematik der
Universit¨
at Klagenfurt f¨
ur den Vorsitz w¨
ahrend meines Vortrags und die anregende
Diskussion im Anschluss an den Vortrag. Ferner danke ich Prof. Dr. J¨
urgen Franz vom
Institut f¨
ur Mathematische Stochastik an der Technischen Universti¨
at Dresden f¨
ur sein
Interesse an meiner Arbeit und die ¨
Uberlassung von interessanter Literatur. Prof. Dr.
Lothar Heinrich vom Institut f¨
ur Mathematik an der Universit¨
at Augsburg danke ich
ur die Anregungen w¨
ahrend der Diskussion im Anschluss an meinen Vortrag und f¨
ur
den Hinweis auf die M¨
oglichkeit bei den Stochastik-Tagen erneut vorzutragen.
So durfte ich im Rahmen der Frankfurter Stochastik-Tage 2006 bei der 7th German
Open Conference on Probability and Statistics vom 14.-17. M¨
arz 2006 an der Goethe
Universit¨
at Frankfurt am Main einen weiteren Vortag halten, und zwar zum Thema
"The Fuzzy Number of Critically High Flood-Waves per Time Period - a Fuzzy Poisson
Process" am 17.03.2006 in der "Offenen Sektion". Mein Dank gilt Herrn Dr. Ralph
Neininger vom Institut f¨
ur Mathematische Statistik an der Unversit¨
at Frankfurt f¨
ur
die Annahme des Vortrags in der "Offenen Sektion" und den Vorsitz w¨
ahrend des
Vortrags.
Auf weitere M¨
oglichkeiten f¨
ur Vortr¨
age freue ich mich.

Kapitel 2
Motivation und begleitendes
Beispiel
2.1
Problemstellung des begleitenden Beispiels
Ein ¨
uberflutungsgef¨
ahrdetes K¨
ustengebiet soll gegen Hochwassersch¨
aden optimal ge-
sch¨
utzt werden, damit Hochw¨
asser nicht zu Katastrophen f¨
uhren. Hochwasser ist zwar
per se ein extremes Naturereignis, ein extremes Naturereignis allein ist jedoch noch
nicht als Naturkatastrophe zu bezeichnen. Erst wenn Menschen durch das Naturer-
eignis Schaden erleiden, kann von einer Katastrophe gesprochen werden. Nach Ehret
und B´
ardossy
1
wird ein extremes Naturereignis zur Katastrophe, wenn menschliche
Besitzt¨
umer Schaden erleiden.
Um zu verhindern, dass aus einer ¨
Uberschwemmung eine Katastrophe wird, k¨
onnen
unterschiedliche Maßnahmen des Hochwasserschutzes ergriffen werden. Hochwasser-
schutzmaßnahmen k¨
onnen in vier Teilbereiche gegliedert werden:
2
- Raumordnerische Maßnahmen bestehen darin, dem Hochwasser aus dem Weg zu
gehen und ¨
uberflutungsgef¨
ahrdete Gebiete zu meiden.
- Baulicher Hochwasserschutz zielt darauf ab, Teile einer Hochwasserwelle abzu-
halten und von sch¨
utzenswerten Objekten fernzuhalten.
- Organisatorische Maßnahmen dienen dazu, im Falle von Hochwasser rechtzeitig
zu warnen, um den Einwohnern des ¨
Uberflutungsgebietes ausreichend Zeit zu
geben, sich und ihr Hab und Gut in Sicherheit zu bringen.
- Risikovorsorge besteht in einem ausreichenden Versicherungsschutz f¨
ur den Fall
eines eingetretenen Schadens.
Alle Maßnahmen stehen im Spannungsfeld zwischen maximalem Schutz, ¨
Okonomie und
¨
Okologie. Der ¨
okologische Aspekt fordert vor allem die gr¨
oßtm¨
ogliche Naturbelassenheit
der Landschaft. Der ¨
okonomische Aspekt beinhaltet vor allem die Aufgabe, erwartete
Sch¨
aden und Kosten f¨
ur Schutzmaßnahmen gemeinsam zu minimieren.
1
Vgl. Ehret / B´
ardossy (2003), S. 54.
2
Vgl. Ehret / B´
ardossy (2003), S. 54 ff., Mertsch (2004), S. 40 ff.
7

8
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Das Kernproblem l¨
asst sich somit auf die wichtige Frage der Anzahl der Flut-
wellen kritischer H¨
ohe im Jahr verdichten. Um eine Aussage ¨
uber diese wesentliche
Gr¨
oße treffen zu k¨
onnen, muss ein geeignetes mathematisches Modell gefunden wer-
den. Ausgehend von diesem Modell sollen dann alle damit verbundenen Entscheidun-
gen getroffen werden. Diese Anzahl soll so bestimmt werden, dass der Verlust aus einer
Fehleinsch¨
atzung m¨
oglichst gering ist.
Dar¨
uber hinaus soll der Beobachtungszeitraum m¨
oglichst kurz sein, da durch jedes
Jahr, in dem die Schutzmaßnahme noch nicht eingef¨
uhrt ist, aufgrund der Suboptima-
lit¨
at des Zustands vor der Beobachtung wirtschaftliche Verluste entstehen, sei es durch
die Nichtnutzung des Gebietes, sei es durch unzureichenden baulichen Schutz, sei es
durch zu geringen Versicherungsschutz oder ¨
uberh¨
ohte Versicherungspr¨
amien.
2.2
Stochastische Modellierung
Um ein Modell aufzustellen, welches zur Beschreibung unseres Problems geeignet ist,
ussen zur Reduktion der Komplexit¨
at einige Annahmen getroffen werden.
- Die Sturmfluten, welche die ¨
Uberschwemmungen verursachen, werden als punk-
tuelle Ereignisse angesehen.
3
Im Modell wird daher von einer Gef¨
ahrdung durch
Flutwellen gesprochen.
- Das Ausmaß der Gefahr h¨
angt ausschließlich von der Anzahl der Flutwellen in
einer Beobachtungsperiode, deren H¨
ohe einen vorgegebenen kritischen Wert ¨
uber-
schreitet, ab.
4
- Es wird davon ausgegangen, dass kein aufsteigender oder absteigender Trend
hinsichtlich der interessierenden Variablen vorliegt. Die durchschnittliche Anzahl
der Flutwellen kritischer H¨
ohe in gleich langen Zeitintervallen wird also als ein
im Lauf der Zeit als konstanter Wert angesehen.
5
Da beim vorliegenden Problem die zuf¨
allig in einem Zeitintervall eintretenden Er-
eignisse gez¨
ahlt werden, kann der Sachverhalt durch einen Poisson-Prozess beschrieben
werden. Der Poisson-Prozess wird h¨
aufig mit einem Z¨
ahlprozess identifiziert, der ¨
uber
die Zeit verteilte, zu zuf¨
alligen Zeitpunkten eintretende Ereignisse z¨
ahlt. Ein Poisson-
Prozess liegt dann vor, wenn die folgenden Bedingungen erf¨
ullt sind:
6
3
Diese Sichtweise, Naturkatastrophen als punktuelle Ereignisse zu sehen und ihre H¨
aufigkeit zu
ahlen ist eine in der Naturkatastrophenforschung h¨
aufig ge¨
ubte Praxis. Vgl. etwa die Z¨
ahlungen der
Katastrophenereignisse bei Nussbaumer / Winkler (1996), S. 3 f., oder die Z¨
ahlung der Hochwasse-
rereignisse bei Mudelsee / B¨
orngen / Tetzlaff / Feck-Yao (2002), S. 103 ff.
4
Vernachl¨
assigt wird bei dieser Methode die tats¨
achliche H¨
ohe der Flut. Diese wird ebenfalls in
vielen Untersuchungen betrachtet, etwa: Homagk (2002), S. 23 ff., M¨
uller / Navarra (2002), S. 34 ff.
oder Markau / Reese (2002), S. 82.
5
Mit m¨
oglichen Trends bei Naturkatastrophen und insbesondere bei ¨
Uberschwemmungen besch¨
afti-
gen sich unter anderem Nussbaumer / Winkler (1998), S. 3 ff., Berz (2002), S. 253 ff. Vgl. auch die
abschließenden Bemerkungen zu Trends in Abschnitt 9.2.
6
Vgl. etwa Viertl (2003), S. 117 f., Grimmett / Strizaker (1992), S. 228 f.

KAPITEL 2 MOTIVATION UND BEGLEITENDES BEISPIEL
9
(i) Die Anzahlen der in disjunkten Zeitintervallen eintretenden Ereignisse sind von-
einander unabh¨
angige Zufallsvariablen.
7
Die Zufallsvariablen (X
t
)
t
[0,)
ahlen
die bis zum Zeitpunkt t eingetretenen Ereignisse. (Nachwirkungsfreiheit)
(ii) Die Zufallsvariablen Y
[t
0
,t
0
+t)
, welche die Anzahl der zuf¨
alligen Ereignisse im In-
tervall [t
0
, t
0
+ t) f¨
ur beliebiges t
0
> 0 z¨
ahlen, haben die gleiche Verteilung, wie
X
t
= Y
[0,t)
(Translationsivarianz)
(iii) Die Wahrscheinlichkeit des Eintretens eines Ereignisses in einem kleinen Zeitin-
tervall t ist im Wesentlichen proportional zur L¨
ange des Zeitintervalls, d.h. es
gibt eine Konstante > 0, so dass gilt
lim
t
0
P (
{X
t+t
= x + 1
|X
t
= x
})
t
=
(Proportionali¨
at im Kleinen)
(iv) Die Wahrscheinlichkeit des Eintretens mehrerer Ereignisse w¨
ahrend eines infini-
tesimal kleinen Zeitintervalls t ist vernachl¨
assigbar klein, d.h.
lim
t
0
P (
{X
t+t
x + 2|X
t
= x
})
t
= 0
(Koinzidenzfreiheit)
ist die konstante durchschnittliche Zahl der Ereignisse bzw. die konstante Ereignis-
zuwachsrate und heißt Intensit¨
at des Prozesses.
Die Wahrscheinlichkeitsverteilung der Anzahl der Flutwellen kritischer H¨
ohe wird
daher beschrieben durch
p(x
|) =
x
· e
-
x!
· 1
IN
0
(x),
ist die (hier als konstant angenommene) durchschnittliche Anzahl der Flutwellen
kritischer H¨
ohe im Jahr.
Es ist nun zu ¨
uberpr¨
ufen, inwiefern die Beschr¨
ankung auf punktuelle, durch Flutwel-
len ausgel¨
oste ¨
Uberschwemmungen eine Einschr¨
ankung darstellt, und ob das interessie-
rende Problem mit diesem Modell noch ausreichend beschrieben wird. Die Abbildung
2.1 zeigt die gemessenen Hoch- und Niedrigwasserh¨
ohen am Pegel Cuxhaven im Jah-
re 1999.
8
Es zeigt sich deutlich, dass extreme Hochwasserst¨
ande punktuelle Ereignisse
sind. (Hier stechen vor allem die Hochw¨
asser am 5. Februar und am 3. Dezember ins
Auge.) Eine Betrachtung der Entwicklung des Pegelstandes in den letzten 24 Stunden
vor und in den ersten 24 Stunden nach dem H¨
ochststand zeigt ebenfalls, dass extre-
mes Hochwasser an Meeresk¨
usten durchaus als punktuelles Ereignis aufgefasst werden
kann.
9
Im Folgenden wird daher stets von der H¨
aufigkeit von "Flutwellen" die Rede
sein.
7
Eine exakte mathematische Definition des Begriffs der Zufallsvariablen folgt in Abschnitt 4.1.1.
Vorerst soll eine Zufallsvariable lediglich eine Gr¨
oße sein, die mit berechenbarer Wahrscheinlichkeit
bestimmte Werte annimmt.
8
Quelle: M¨
uller / Navarra (2002), S. 37.
9
Quelle: M¨
uller / Navarra (2002), S. 40.

10
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Abbildung 2.1: Hoch- und Niedrigwasserst¨
ande am Pegel Cuxhaven 1999
2.3
Problematik der Unsch¨
arfe
Eine genauere Betrachtung des Problems zeigt, dass die zu l¨
osende Fragestellung durch
das Modell noch nicht exakt beschrieben wird, da keine Kriterien daf¨
ur vorliegen,
wie die H¨
ohe einer Flutwelle zu messen ist. W¨
ahrend in den unteren Bereichen noch
große Wassermassen und hoher Druck gemessen werden, werden Wassermenge und
Druck nach oben hin immer geringer. Die Abbildung 2.3, welche eine Flutwelle zeigt,
10
macht dies deutlich. Eine Flutwelle hat keinen nach oben hin scharf abgegrenzten Rand,
sondern geht von unten nach oben hin bei immer geringer werdenden Wassermengen
¨
uber in immer d¨
unner werdenden Spr¨
uhnebel. Auch diese Unsch¨
arfe soll im Modell
ber¨
ucksichtigt werden.
Ein Vorschlag, der von Gegnern der Fuzzy-Set-Theorie immer wieder zur Mo-
dellierung von Unsch¨
arfesachverhalten vorgeschlagen wird, ist die Beschreibung von
Unsch¨
arfe mit Hilfe wahrscheinlichkeitstheoretischer Modelle. Dieser Vorschlag ist ab-
zulehnen, da Unsch¨
arfe nicht die Wahrscheinlichkeitsverteilung einer Zufallsvariablen
ist. Da diese Diskussion nicht Gegenstand der vorliegenden Arbeit ist, folgt nur eine
kurze Darstellung der wichtigsten Unterschiede zwischen Unsch¨
arfe und Wahrschein-
10
Zwecks besserer Anschaulichkeit wurde hier das Bild eines Tsunamis gew¨
ahlt.
Quelle: Grade 7 Natural Disasters Project, Tsunami - The Big Wave,
http://www.germantown.k12.il.us/html/tsunami.html

KAPITEL 2 MOTIVATION UND BEGLEITENDES BEISPIEL
11
Abbildung 2.2: Sturmflut Pegelkurven Cuxhaven
lichkeit.
11
Zur Sch¨
atzung der Wahrscheinlichkeiten von Zufallsvariablen sind immer mehrere
Beobachtungen erforderlich, deren relative H¨
aufigkeiten dann als Sch¨
atzwerte f¨
ur die
Wahrscheinlichkeiten angegeben werden. Unsch¨
arfe ist dagegen eine jeder einzelnen
Beobachtung von kontinuierlichen Gr¨
oßen innewohnende Eigenschaft, welche bereits
bei einer einzelnen Beobachtung modelliert werden kann bzw. f¨
ur jede einzelne Beob-
achtung gesondert zu erfolgen hat. Der obere Rand einer jeden einzelnen Flutwelle ist
unscharf.
Zufallsvariablen haben die Eigenschaft, dass sie einem Gesetz der großen Zahlen
folgen (vgl. Abschnitt 5.2), was bedeutet, dass der Mittelwert aus Realisationen ei-
ner Stichprobe einer Zufallsvariablen bei immer gr¨
oßer werdendem Stichprobenumfang
gegen einen festen Wert konvergiert. Anders verhalten sich unscharfe Sachverhalte,
auch der Grenzwert von unendlich vielen unscharfen Beobachtungen ist unscharf. Die
Unsch¨
arfe verringert sich bei zunehmendem Stichprobenumfang nicht. Auch bei Be-
obachtung von unendlich vielen Flutwellen wird ihr oberer Rand niemals durch eine
scharfe Grenzziehung gekennzeichnet sein, der fließende ¨
Ubergang ist unabh¨
angig von
der Anzahl der Beobachtungen.
Von der Wahrscheinlichkeit des Eintritts eines Ereignisses kann nur ex ante gespro-
chen werden, ex post herrscht dagegen Sicherheit ¨
uber den Eintritt des Ereignisses.
Unsch¨
arfe besteht dagegen sowohl ex ante, als auch bei ex post Betrachtung. Es be-
11
Vgl. auch Comploj (2002), S. 11 f., Viertl / Hareter (2006), S. 4 f.
Weitere Gedanken zu unscharfer Information finden sich bei Zimmermann (1999), S. 287 ff., Viertl
(2002a), S. 105 ff.

12
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Abbildung 2.3: Flutwelle (Tsunami)
steht nicht nur vor dem Eintreffen der Flutwelle unscharfe Erwartung ¨
uber ihre H¨
ohe,
auch im Nachhinein ist die gemessene H¨
ohe der Flutwelle unscharf.
Insgesamt l¨
asst sich sagen, dass Unsch¨
arfe eine Form der Unbestimmtheit ist, welche
sich nicht durch statistische Variation erkl¨
aren l¨
asst, sondern deren Ursachen anderer
Natur sind. Etwa im Fall der Flutwellen liegt ein naturwissenschaftlich-technisches
Ph¨
anomen zugrunde, ebenso sind etwa die Lebensdauer einer Batterie
12
oder eines
biologischen Organismus
13
oder die Wirkungsdauer eines Medikaments
14
unscharfe
Gr¨
oßen. Auch subjektives menschliches Empfinden wird h¨
aufig als unscharfe Gr¨
oße
beschrieben.
15
Wichtig ist, dass bei der Modellierung der Unsch¨
arfe diese als gewichtete Bandbrei-
te erfasst und als solche weiteren Analysen zug¨
anglich gemacht wird. Wie eben darge-
stellt, ist Unsch¨
arfe keine Wahrscheinlichkeit. Grunds¨
atzlich ist die Modellierung von
Unsch¨
arfe mit Hilfe wahrscheinlichkeitstheoretischer Modelle zwar dennoch m¨
oglich,
aber nicht zu empfehlen, da die strikte Axiomatik, welche zur Beschreibung stochasti-
scher Sachverhalte erforderlich ist, zu sehr komplizierten Modellen f¨
uhrt, was einerseits
den Rechenaufwand unn¨
otig erh¨
oht und andererseits als Fehlerquelle einzustufen ist. Es
ist nicht einzusehen, wozu ein hochkompliziertes Modell zur Beschreibung eines Sach-
12
Vgl. Comploj (1994), S. 10 u. S. 70 ff., Hwang (2000), S. 239 ff.
13
Vgl. Viertl (1992), S. 122 f., Viertl (1996), S. 23 ff., Viertl (1997), S. 547 f., Viertl (2002d), S. 199
f.
14
Vgl. Viertl / Hareter (2006), S. 4.
15
Vgl. Viertl / Hareter (2006), S. 3, R¨
odder / Zimmermann (1977), S. 2, Rommelfanger (1994), S.
4 f. Zahlreiche Beipiele f¨
ur unscharfe Daten im Zusammenhang mit Nachhaltigkeitsindikatoren f¨
uhrt
Viertl (2001a), S. 2 f., an.

KAPITEL 2 MOTIVATION UND BEGLEITENDES BEISPIEL
13
verhaltes eingesetzt werden soll, welcher ebenso gut durch ein wesentlich einfacheres
Modell beschrieben wird.
16
Als weiteres Argument gegen eine Modellierung der Unsch¨
arfe mit probabilistischen
Modellen ist das oftmals gemeinsame Auftreten von Unsch¨
arfe und Zuf¨
alligkeit bei ei-
nem einzigen Sachverhalt.
17
Die Modellierung von unterschiedlichen Ph¨
anomenen in
einem Modell durch denselben Ansatz kann zu Verwechslungen und irref¨
uhrenden Er-
gebnissen f¨
uhren.
18
Auch bei der Fragestellung des vorliegenden Beispiels ist einerseits
die Anzahl der Flutwellen eine stochastische Gr¨
oße, andererseits ist die H¨
ohe der Flut-
wellen eine unscharfe Gr¨
oße. In der vorliegenden Arbeiten kommt daher ein Modell zur
Anwendung, welches beide Ph¨
anomene getrennt ber¨
ucksichtigt. Damit wird versucht,
die wesentlichen Fragen zu dem Problem zu beantworten.
16
Vgl. Nauck / Kruse (1997), S. 3, Hauke (1998), S. 73.
17
Vgl. Kutterer (2002), S. 96 ff.
Bei M¨
oller / Graf / Beer / Sickert (2001), S. 2 f., M¨
oller / Graf / Beer (2003), S. 1568 f., und M¨
oller
/ Beer (2004), S. 6 ff., wird unterschieden zwischen Zuf¨
alligkeit (randomness), Unsch¨
arfe (fuzziness)
und unscharfer Zuf¨
alligkeit (fuzzy randomness).
18
Vgl. Comploj (2002), S. 12.

Kapitel 3
Unscharfe Mengen oder
Fuzzy-Mengen
In Abschnitt 2.3 wurde auf das Problem der Unsch¨
arfe bei der mathematischen For-
mulierung von zahlreichen mittels formaler Methoden l¨
osbarer Fragestellungen hinge-
wiesen. Im der vorliegenden Arbeit wird der Ansatz der Modellierung von Unsch¨
arfe
mit Hilfe von Fuzzy-Mengen verwendet. Im folgenden Kapitel soll ein ¨
Uberblick ¨
uber
die wichtigsten Grundbegriffe und Rechenregeln f¨
ur Fuzzy-Mengen vorgestellt und eine
Modellierung f¨
ur das Ausgangsproblem aus Kapitel 2 vorgeschlagen werden, auf welche
sich dann der Rest der Arbeit beziehen wird.
3.1
Definition von Fuzzy-Mengen
3.1.1
Fuzzy-Mengen und ihre Zugeh¨
origkeitsfunktion
Eine gew¨
ohnliche (scharf abgegrenzte) Menge ist als Teilmenge einer gegebenen Grund-
menge durch ihre Indikatorfunktion (charakteristische Funktion) eindeutig charakteri-
siert. Ist also U eine beliebige Grundmenge (auch Universum genannt), dann ist f¨
ur
A
U die Abbildung
1
A
: U
{0, 1}
x
1
A
(x) =
1 f¨
ur x
A
0 f¨
ur x /
A
die Indikatorfunktion von A.
Die Idee der unscharfen Mengen geht davon aus, neben Zugeh¨
origkeitswerten aus
{0, 1} weitere Werte aus [0, 1] als graduelle Zugeh¨origkeitswerte zuzulassen. Eine solche
unscharfe Menge soll mit ~
A bezeichnet werden.
Definition: Ist U eine Grundmenge (Universum),
(i) dann heißt
~
A :=
{(x,
~
A
(x))
|x U} ,
~
A
(x)
[0, 1]
(3.1)
14

KAPITEL 3 FUZZY-MENGEN
15
unscharfe (Teil-)Menge oder Fuzzy-(Teil-)Menge oder Fuzzy Set von U.
1
(ii) Die Abbildung
~
A
: U
[0, 1]
x
~
A
(x)
(3.2)
heißt Zugeh¨
origkeitsfunktion (charakteristische Funktion) von ~
A.
(iii)
F(U) bezeichnet die Menge aller Fuzzy-(Teil-)Mengen von U.
Bemerkung: F¨
ur die Potenzmenge
P(U) von U gilt: P(U) F(U) mit
A =
{(x, 1
A
(x))
|x U}, 1
A
(x)
{0, 1} f¨ur A P(U).
Abbildung 3.1: Fuzzy-Menge und gew¨
ohnliche Menge
Definition: Gegeben ist ~
A
F(U) mit Zugeh¨origkeitsfunktion
~
A
(.).
(i) Die folgende Teilmenge von U
supp( ~
A) :=
{x U|
~
A
(x) > 0
}
(3.3)
heißt Tr¨
ager von ~
A.
(ii) Die Gr¨
oße
hgt( ~
A) := sup
{
~
A
(x)
|x U}
(3.4)
heißt H¨
ohe von ~
A.
(iii) Ist ~
A eine Fuzzy-Menge mit hgt( ~
A)=1, dann heißt die folgende Teilmenge von U
ker( ~
A) :=
{x U|
~
A
(x) = 1
}
(3.5)
Kern von ~
A.
1
Zadeh (1965), S. 339, bringt in seiner Urschrift ¨
uber Fuzzy-Mengen keine mathematisch exakte
Definition, sondern gibt lediglich an, dass Fuzzy-Mengen durch ihre Zugeh¨
origkeitfunktion eindeutig
bestimmt sind. Dieser Formulierung schließen sich Viertl (vgl. etwa Viertl (1996), S. 7, Viertl (2002c),
S. 354, Viertl (2003), S. 10, Viertl / Hareter (2006), S. 8) an. Doch finden sich in der Literatur
mehrere Definitionsvarianten. Die hier verwendete Definition der Fuzzy-Menge durch den Graphen
der Zugeh¨
origkeitsfunktion ist die h¨
aufigste (z.B. Zimmermann (1991), S. 11 f., Zimmermann (1993),
S. 11, Bandemer / N¨
ather (1992), S. 10, Rommelfanger (1994), S. 8, Comploj (1994), S. 9, Comploj
(2002), S. 13, Mißler-Behr / Lechner (1996), S. 3, Wu (1998), S. 111, Hauke (1998), S. 18, M¨
oller /
Beer (2004), S. 19 f.). Andere (z.B. Kruse / Meyer (1987), S. 10, Kruse / Gebhardt / Klawonn (1993),
S. 10, Oberguggenberger / Pitschmann (1998) S. 184) definieren die Zugeh¨
origkeitsfunktion als die
unscharfe Menge.

16
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(iv) Die Gr¨
oße
card( ~
A) :=
x
U
~
A
(x)
falls U abz¨
ahlbare Menge
U
~
A
(x)dx falls U ¨
uberabz¨
ahlbare Menge
(3.6)
heißt Kardinalit¨
at von ~
A.
3.1.2
Die -Schnitte von Fuzzy-Mengen
Das in der Literatur allgemein verwendete Konzept der Schnitte geht davon aus,
dass man alle jene Elemente der Grundmenge U betrachten m¨
ochte, die mindestens
den Zugeh¨
origkeitsgrad
(0, 1] zur unscharfen Menge ~A haben.
Definition: Ist ~
A
F(U) mit Zugeh¨origkeitsfunktion
~
A
(.),
(0, 1], dann heißt
A
=:
{x U|
~
A
(x)
}
(3.7)
der -Schnitt von ~
A (zum Niveau ). Oft schreibt man auch A
statt A
. Die -
Schnitte heißen auch -Niveaumengen.
Graphisch erh¨
alt man den -Schnitt von ~
A, indem man in der H¨
ohe eine Waag-
rechte (parallel zur Abszisse) zieht und jenen Teil des Graphen von
~
A
(.), der oberhalb
der -Geraden liegt, auf die x-Achse projiziert.
Abbildung 3.2: -Schnitte von ~
A
Definition: Ist ~
A
F(U) mit Zugeh¨origkeitsfunktion
~
A
(.), dann heißt
(i) die Teilmenge von U
A
>
:=
{x U|
~
A
(x) >
}
(3.8)
der strikte -Schnitt von ~
A f¨
ur
[0, 1), und
(ii) die Teilmenge von U
A
=
:=
{x U|
~
A
(x) =
}
(3.9)
die Menge der -Komponenten von ~
A f¨
ur
(0, 1].

KAPITEL 3 FUZZY-MENGEN
17
(iii) Die Randpunkte a
und a
der -Schnitte sind definiert durch
a
= min
{x U|
~
A
(x)
}
(3.10)
a
= max
{x U|
~
A
(x)
}.
(3.11)
Bemerkung: <
A
A
Der folgende Satz (Repr¨
asentationssatz, Darstellungssatz)
2
garantiert, dass sich je-
de Fuzzy-Menge eindeutig durch ihre -Schnitte charakterisieren l¨
asst, und dass ihre
Zugeh¨
origkeitsfunktion eindeutig aus ihren -Schnitten rekonstruiert werden kann.
Satz: Ist ~
A
F(U) mit Zugeh¨origkeitsfunktion
~
A
(.) und -Schnitten
{A
|(0, 1]},
dann gilt f¨
ur x
U
~
A
(x) = sup
(0,1]
{min {, 1
A
(x)
}} = sup { · 1
A
(x)
| (0, 1]} .
(3.12)
Definition: Ein Mengensystem, das (3.12) erf¨
ullt, heißt Mengenrepr¨
asentation von ~
A.
Insbesondere sind das System der -Schnitte A
| (0, 1] von ~A und das System
der strikten -Schnitte
{A
>
| [0, 1]} von ~A Mengenrepr¨asentationen von ~A.
3.1.3
Wichtige Fuzzy-Mengen und deren Darstellung
In den folgenden Untersuchungen werden einige spezielle Klassen von unscharfen Men-
gen vorgestellt, die in Bezug auf mathematische Operationen besonders g¨
unstige Ei-
genschaften aufweisen. F¨
ur solche bequem handhabbare Fuzzy-Mengen gibt es meist
auch vereinfachte Darstellungsformen.
Definition: Ist U eine Grundmenge, ~
A
F(U) mit Zugeh¨origkeitsfunktion
~
A
(.), dann
werden die folgenden Bezeichnungen eingef¨
uhrt:
(i)
~
A heißt normal oder normiert :
hgt(~A) = 1
(3.13)
(ii)
~
A heißt subnormal :
hgt(~A) < 1
Bemerkung: hgt( ~
A) = 0
~A =
(iii)
~
A heißt konvex oder fuzzy-konvex
:
x
1
, x
2
, x
3
U: x
1
x
2
x
3
~
A
(x
2
)
min {
~
A
(x
1
),
~
A
(x
3
)
}
x
1
, x
2
U, [0, 1]:
~
A
(x
1
+ (1
- )x
2
min {
~
A
(x
1
),
~
A
(x
2
)
}
(3.14)
(iv)
~
A heißt unimodal :
!x
0
U :
~
A
(x
0
) = hgt( ~
A)
(3.15)
2
Der Beweis findet sich unter anderem bei Comploj (1994), S. 13, vgl. auch Viertl (1996), S. 10,
Viertl / Hareter (2006), S. 13, Kruse / Meyer (1987), S. 10 ff., Kruse / Gebhardt / Klawonn (1993),
S. 35 f.

18
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(v)
Eine Fuzzy-Menge heißt Fuzzy-Singleton, wenn ihr Tr¨
ager nur aus einem
einzigen Element besteht:
~
A = (x,
~
A
(x))
(3.16)
Ein scharfes Element x
U ist ein normiertes Fuzzy-Singleton mit
~
A
(x) = 1.
ur eine nicht-konvexe Fuzzy-Menge ~
A
F(U) mit Zugeh¨origkeitsfunktion
~
A
(.) und
-Schnitten A
,
(0, 1], kann die konvexe H¨ulle co ~A definiert werden durch die
Zugeh¨
origkeitsfunktion
co ~
A
(x) := sup
(0,1]
{ · 1
co A
(x)
} ,
(3.17)
wobei
co A
:=
{x U|x
1
A
,
x
2
A
,
[0, 1] : x = x
1
+ (1
- )x
2
} .
(3.18)
Die Definition (3.18) ist gerade die Definition der konvexen H¨
ulle einer gew¨
ohnlichen
(scharfen) Teilmenge von U.
Betrachtet man speziell IR als Grundmenge, so erh¨
alt man folgende interessanten
unscharfen Mengen:
3
(i) ~
A
F(IR) mit
~
A
(.) heißt unscharfes Intervall oder Fuzzy-Intervall
:
~A ist normal und konvex nach (3.13) und (3.14)
(ii) ~
A
F(IR) mit
~
A
(.) heißt unscharfe Zahl oder Fuzzy-Zahl
:
~A ist normal, konvex und unimodal nach (3.13), (3.14) und (3.15)
Speziell f¨
ur diskrete Grundmengen (z.B. IN, ZZ) gibt es die folgende g¨
unstige Re-
pr¨
asentationsform (Niveautabelle) f¨
ur Fuzzy-Mengen mit supp( ~
A) =
{x
1
, x
2
, ..., x
i
, ..., x
n
}:
~
A =
~
A
(x
1
)
~
A
(x
2
)
...
~
A
(x
i
)
...
~
A
(x
n
)
x
1
x
2
...
x
i
...
x
n
(3.19)
3
Die Unterscheidung wird insbesondere bei Dubois / Prade (1992a), S. 21, Nov´
ak (1989), S. 91,
Bandemer / N¨
ather (1992), S. 20 f., Bandemer / Gottwald (1993), S. 60, Hauke (1998), S. 39 f.
getroffen, bei Comploj (1994), S. 14, ¨
ubernommen wurde sie von diesen Autoren ¨
ubernommen. Bei
Kaufmann / Gupta (1991), S. 43 findet sich lediglich die Einteilung in unimodale und nicht-unimodale
Fuzzy-Zahlen, bei Kruse / Meyer (1987), S. 10, Kruse / Gebhardt / Klawonn (1993), S. 33, oder Bo-
djanova (2003), S. 241 ff., etwa wird ¨
uberhaupt nicht zwischen unimodalen und nicht-unimodalen
Fuzzy-Mengen unterschieden. Viertl (vgl. Viertl (1996), S. 7 ff., Viertl (1997), S. 543, Viertl (2001a),
S. 2, Viertl / Hareter (2006), S. 10.) bezeichnet Fuzzy-Mengen, welche durch unscharfe Messungen
von unscharfen Beobachtungen zustande kommen, allgemein als unscharfe Zahlen, und ihre Zugeh¨
orig-
keitsfunktion als charakterisierende Funktion, w¨
ahrend als unscharfes Intervall eine unscharfe Menge
bezeichnet wird, die den unscharfen Bereich, der von zwei unscharfen Zahlen (im Viertl'schen Sinn)
begrenzt wird, umfasst (vgl. Viertl (1996), S. 112).

KAPITEL 3 FUZZY-MENGEN
19
3.2
Rechnen mit Fuzzy-Mengen
3.2.1
Mengenarithmetik und Cartesisches Produkt f¨
ur
Fuzzy-Mengen
Die Basisverkn¨
upfungen in der Mengenlehre, Durchschnitt, Vereinigung, Komplement
und Teilmengenbeziehung, k¨
onnen in verallgemeinerter Form auf Fuzzy-Mengen ange-
wendet werden. F¨
ur reelle Fuzzy-Mengen kann durch Verallgemeinerung des Cartesi-
schen Produkts auch der Begriff des Fuzzy-Vektors eingef¨
uhrt werden.
Definition:
4
Gegeben sind zwei unscharfe Mengen ~
A und ~
B, definiert durch ihre Zu-
geh¨
origkeitsfunktionen
~
A
(.) und
~
B
(.) auf einem allgemeinen Universum U.
(i) Der Durchschnitt ~
A
~B von ~A und ~B ist gegeben durch
~
A
~B
(x) := min
{
~
A
(x),
~
B
(x)
}
x U.
(3.20)
Allgemein kann der Durchschnitt von Fuzzy-Mengen mit Hilfe beliebiger so ge-
nannter t-Normen definiert werden.
5
Die in (3.20) beschriebene t-Norm heißt
Minimumnorm. Eine weitere wichtige t-Norm, welche zwar in den Ans¨
atzen der
vorliegenden Arbeit nicht verwendet wird, die aber von Bedeutung ist f¨
ur zahlrei-
che alternative Ans¨
atze, die hier auch beschrieben werden, ist die Produktnorm
oder algebraische Norm
~
A
alg
~
B
(x) :=
~
A
(x)
·
~
B
(x)
x U.
(3.21)
(ii) Die Vereinigung ~
A
~B von ~A und ~B ist gegeben durch
~
A
~B
(x) := max
{
~
A
(x),
~
B
(x)
}
x U.
(3.22)
Die Vereinigung von Fuzzy-Mengen kann prinzipiell mit jeder t-Conorm gebildet
werden.
6
Die t-Conorm (3.22) heißt Maximumconorm.
4
Diese Definition orientiert sich an den urspr¨
unglich von Zadeh (1965), S. 340 f., eingef¨
uhrten Defi-
nitionen von Durchschnitt, Vereinigung und Komplement von Fuzzy-Mengen, da diese f¨
ur die weiteren
Berechnungen in dieser Arbeit die g¨
unstigsten Eigenschaften aufweisen. Ausf¨
uhrliche Zusammenstel-
lungen von t-Normen und t-Conormen findet sich unter anderem bei Kruse / Gebhardt / Klawonn
(1993), S.23ff., Bandemer / N¨
ather (1992), S. 15 ff., Bandemer / Gottwald (1993), S. 43 ff., Comploj
(1994), S. 18 ff., Hauke (1998), S. 49 ff., Gottwald (1999), S. 185 ff., Klement / Mesiar / Pap (1999),
S. 205 ff., Klement / Mesiar / Pap (2000).
5
Eine t-Norm
ist eine Funktion
: [0, 1]
× [0, 1] [0, 1] ist mit
(i)
(a, 1) = a (neutrales Element)
(ii)
a
b (a, c) (b, c) (Monotonie)
(iii)
(a, b) =
(b, a) (Kommutativit¨
at)
(iv)
(a,
(b, c)) =
( (a, b), c) (Assoziativit¨
at)
ur a, b, c
[0, 1].
6
Eine t-Conorm
ist eine Funktion [0, 1] × [0, 1] [0, 1] mit
(i)
(a, 0) = a (neutrales Element)
(ii)
a
b (a, c) (b, c) (Monotonie)
(iii)
(a, b) = (b, a) (Kommutativit¨at)
(iv)
(a, (b, c)) = ((a, b), c) (Assoziativit¨at)
ur a, b, c
[0, 1].

20
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(iii) Das Komplement ~
A
C
von ~
A ist gegeben durch
~
A
C
(x) := 1
-
~
A
(x)
x U.
(3.23)
Allgemein kann das Komplement einer Fuzzy-Menge mit Hilfe jeder Negation
gebildet werden.
7
(iv) ~
A heißt Teilmenge von ~
B, wenn f¨
ur die Zugeh¨
origkeitsfunktionen gilt:
~
A
(x)
~
B
(x)
x U.
(3.24)
Um allgemein Fuzzy-Mengen h¨
oherer Dimension und speziell Fuzzy-Vektoren kon-
struieren zu k¨
onnen, wird zun¨
achst das Konzept der zylindrischen Extension zu erl¨
autert.
Im Anschluss wird das Cartesische Produkt aus zwei Fuzzy-Mengen als der Durch-
schnitt zweier zylindrischer Extensionen definiert.
8
Definition: Auf den Grundmengen U
1
und U
2
sind die Fuzzy-Mengen ~
A
1
F(U
1
) mit
Zugeh¨
origkeitsfunktion
~
A
1
(.), ~
A
2
F(U
2
) mit Zugeh¨
origkeitsfunktion
~
A
2
(.) gegeben.
(i) Die Menge ~
A
1
× U
2
heißt zylindrische Extension oder Zylindererweiterung von
~
A nach U
1
× U
2
:
(x
1
, x
2
)
U
1
× U
2
:
~
A
1
× U
2
(x
1
, x
2
) =
~
A
1
(x
1
).
(3.25)
Umgekehrt erh¨
alt man die Zylindererweiterung U
1
×
~A
2
von ~
A
2
nach U
1
durch
U
1
×
~
A
2
(x
1
, x
2
) =
~
A
2
(x
2
).
(ii) ~
A
1
~A
2
heißt unscharfes Cartesisches Produkt aus ~
A
1
und ~
A
2
:
~A
1
~A
2
= ~
A
1
× U
2
U
1
×
~A
2
(x
1
, x
2
)
U
1
× U
2
(3.26)
mit
~
A
1
~
A
2
(x
1
, x
2
) = min
~
A
1
(x
1
),
~
A
2
(x
2
) .
(3.27)
Bemerkung:
(i) Nicht jede mehrdimensionale Fuzzy-Menge ist Cartesisches Produkt aus eindi-
mensionalen Fuzzy-Mengen.
7
Eine Negation ist eine Abbildung n : [0, 1]
[0, 1] mit
(i)
n(0) = 1, n(1) = 0
(ii)
a
b n(a) n(b) (Monotonie)
ur a, b
[0, 1].
¨
Uber Negationen werden auch Beziehungen zwischen t-Normen und t-Conormen hergestellt. Eine t-
Conorm
wird als die zur t-Norm
bez¨
uglich der Negation n duale t-Conorm bezeichnet, wenn
(a, b) = n( (n(a), n(b)))
gilt.
8
Siehe auch Bandemer / N¨
ather (1992), S. 21 ff.

KAPITEL 3 FUZZY-MENGEN
21
(ii) Auch mit Hilfe anderer t-Normen ist eine Kombination von mehreren unschar-
fen Zahlen zu einem unscharfen Vektor m¨
oglich.
9
Allerdings hat die Minumum-
Kombinationsregel die g¨
unstigsten Eigenschaften f¨
ur weitere Rechenoperationen,
so erm¨
oglicht nur sie eine einfache Berechung der -Schnitte des Fuzzy-Vektors.
10
Definition: Eine Fuzzy-Menge ~
A
F(IR
n
) mit Zugeh¨
origkeitsfunktion
~
A
(...) heißt
unscharfer Vektor (Fuzzy-Vektor) auf IR
n
:
~A ist normal (3.13), konvex (3.14) und
unimodal (3.15).
11
Bemerkung: Manchmal werden unscharfe Vektoren auch als unscharfe Punkte be-
zeichnet.
Eine sehr wichtige Form von unscharfen Vektoren ist das Cartesische Produkt aus
unscharfen Zahlen. Schreibweise:
~
A = ~
A
1
~A
2
... ~A
n
:
~
A
(x
1
, ..., x
n
) = min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(x
1
, ..., x
n
)
U
1
× ... × U
n
.
(3.28)
Zweidimensionale Fuzzy-Mengen werden graphisch h¨
aufig als Grautonbilder darge-
stellt.
12
Der Kern ist schwarz und die verschiedenen Graut¨
one geben die verschiede-
nen Zugeh¨
origkeitsgrade wieder. Sie k¨
onnen als "R¨
ontgenbilder" der dreidimensionalen
Darstellung von zweidimensionalen Fuzzy-Mengen interpretiert werden. Die ¨
Uberset-
zung erfolgt nach folgenden Regeln:
x ist schwarz
~
A
(x) = 1
x ist weiß
~
A
(x) = 0
x
1
ist heller grau als x
2
~
A
(x
1
) <
~
A
(x
2
)
Die Abbildung 3.3 zeigt ein Grautonbild, welches eine zweidimensionale Fuzzy-Menge
repr¨
asentiert.
3.2.2
Das Extensionsprinzip
ur gew¨
ohnliche (scharfe) Mengen sind arithmetische Operationen ¨
uber die so genann-
ten Minkowski-Operationen definiert. F¨
ur eine bin¨
are Operation
auf einer Grund-
menge U, ist f¨
ur zwei (scharfe) Teilmengen A und B von U:
A
B :=
{a b|a A b B}
9
Vgl. etwa Viertl (1992), S. 124, Viertl (1996), S. 33 f., Viertl (1997), S. 551, Viertl (2002c), S. 356
f., Viertl (2003), S. 11 f., Viertl (2004), S. 654, Viertl / Hareter (2006), S. 26 f.
10
Vgl. Viertl / Hareter (2006), S. 29. Die Berechnung der -Schnitte von Fuzzy-Vektoren, die mit
der Produktregel kominiert wurden, wird bei R¨
omer / Kandel (1995), S. 5 ff., gezeigt.
11
In der Literatur gibt es mehrere Definitionen von unscharfen Vektoren, so fordert etwa Viertl (vgl.
etwa Viertl (2001b), S. 20, Viertl (2002c), S. 355 f., Viertl / Hareter (2004b), S. 44, Viertl / Hareter
(2006), S. 23) nicht die Eigenschaft der Unimodalti¨
at.
12
Vgl. Kraut (1992), S. 116 ff.

22
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Abbildung 3.3: Grautonbild einer zweidimensionalen Fuzzy-Menge
ur eine n-stellige Operation
: U
n
V, (a
1
, ..., a
n
)
(a
1
, ..., a
n
) und n Teilmengen
A
1
, ..., , A
n
U, n 1 lautet die Minkowski-Operation:
(A
1
, ..., A
)
=
{ (a
1
, ..., a
n
)
|a
1
A
1
, ..., a
n
A
n
}
=
{ (a
1
, ..., a
n
)
|(a
1
, ..., a
n
)
A
1
× ... × A
n
}
Die Verallgemeinerung der Minkovski-Operationen auf unscharfe Mengen f¨
uhrt zum
Extensionsprinzip:
Zun¨
achst ist : U
V, a b = (a), eine einstellige Abbildung der Grundmenge
U in die Grundmenge V. Anstelle des scharfen Elementes a
U ist eine unscharfe
Teilmenge ~
A von U gegeben. Ist (.) injektiv, so ist es naheliegend, als Zugeh¨
origkeits-
funktion des Bildes ~
B = ( ~
A) jene des Urbildes heranzuziehen:
~
B
(y) =
-1
( ~
B)
(
-1
(y)) =
~
A
(x)
(3.29)
sofern
-1
(
{y}) = ist, ansonsten wird
~
B
(y) = 0 gesetzt.
13
Die Schreibweise (.)
wird bei Anwendung einer Operation (.) auf eine scharfe oder auf eine unscharfe
Menge gebraucht.
Bei einer nicht-injektiven Abbildung (.) wird als unscharfes Urbild eines jeden
Fuzzy-Singletons (y,
~
B
(y)) die Vereinigung nach (3.22) aller Fuzzy-Singletons betrach-
tet, f¨
ur die (x) = y gilt. Da nicht immer ein Maximum existiert, gibt man allgemeiner
das Supremum der Zugeh¨
origkeitsgrade als Zugeh¨
origkeitsgrad der Vereinigung an, man
spricht daher auch von der sup-Vereinigung. Man erh¨
alt also:
~
B = ( ~
A)
(3.30)
13
Der Fall
-1
(
{y}) = wird in der Literatur nur von Viertl ber¨ucksichtigt (vgl. etwa Viertl
(1997), S. 554, Viertl (2001a), S. 4, Viertl (2002a), S. 357, Viertl (2004), S. 652, Viertl / Hareter
(2004a), S. 23, Viertl / Hareter (2004b), S. 45, Viertl / Hareter (2004c), S. 732, Viertl / Hareter
(2006), S. 31). In der vorliegenden Arbeit wird in weiterer Folge auf diesen Fall auch nicht mehr
weiter eingegangen.

KAPITEL 3 FUZZY-MENGEN
23
mit
~
B
(y) =
( ~
A)
(y) =
sup
{
~
A
(x)
|x U: (x) = y} falls
-1
(
{y})=
0
falls
-1
(
{y})=
y V. (3.31)
Ist allgemein (.) eine n-stellige Operation, so bedeutet dies, dass mit n-dimensionalen
Fuzzy-Mengen bzw. Fuzzy-Vektoren operiert wird. Man bildet also zun¨
achst das Car-
tesische Produkt (3.28) aus den entsprechenden eindimensionalen Fuzzy-Mengen und
wendet dann (.) auf die unscharfen Einzelpunkte der entstandenen n-dimensionalen
Fuzzy-Menge an und bildet schließlich die sup-Vereinigung (3.31) aus den unscharfen
Bildpunkten. So erh¨
alt man das Extensionsprinzip oder Erweiterungsprinzip:
Definition: Ist : U
n
V, (x
1
, ..., x
n
)
y = (x
1
, .., x
n
) eine Funktion, dann wird
(.) zu : (
F(U))
n
F(V), (~A
1
, ..., ~
A
n
)
~B = (~A
1
, ..., ~
A
n
) erweitert durch:
~
B
(y) =
( ~
A
1
,..., ~
A
n
)
(y)
=
sup
(x1,...xn)supp( ~
A1)×...×supp( ~
An):
(x1,...,xn)=y
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
falls
-1
(
{y})=
0
falls
-1
(
{y})=
y V.
(3.32)
Die durch (3.32) definierte Funktion (.) heißt die Extension oder Erweiterung von
(.). Man spricht auch von erweiterten Minkowski-Operationen.
Insbesondere erh¨
alt man durch Anwendung des Extensionsprinzips die vier Grund-
rechnungsarten auf
F(IR):
~
A
~B :
~
A
~B
(y) =
sup
x1supp( ~
A),x2supp(~
B):
x1+x2=y
min
{
~
A
(x
1
),
~
B
(x
2
)
}
y V,
~
A
~
B :
~
A
~
B
(y) =
sup
x1supp( ~
A),x2supp(~
B):
x1-x2=y
min
{
~
A
(x
1
),
~
B
(x
2
)
}
y V,
~
A
~
B :
~
A
~
B
(y) =
sup
x1supp( ~
A),x2supp(~
B):
x1·x2=y
min
{
~
A
(x
1
),
~
B
(x
2
)
}
y V,
~
A
~
B :
~
A
~
B
(y) =
sup
x1supp( ~
A),x2supp(~
B)
\0:
x1/x2=y
min
{
~
A
(x
1
),
~
B
(x
2
)
}
y V.
Eine starke Vereinfachung der Arithmetik mit unscharfen Mengen bringt der folgen-
de Satz, der die Reduzierbarkeit der Operationen mit Fuzzy-Mengen auf Operationen
mit ihren -Schnitten reduziert.
Satz:
14
Sind ~
A
1
, ..., ~
A
n
F(IR) mit Zugeh¨origkeitsfunktionen
~
A
1
(.), ...,
~
A
n
(.), und ist
(.) eine Abbildung : IR
n
IR, (x
1
, ..., x
n
)
y = (x
1
, ..., x
n
) mit der Extension
: (
F(IR))
n
F(IR), (~A
1
, ..., ~
A
n
)
~B = (~A
1
, ..., ~
A
n
), dann gilt:
(i)
[0, 1):
B
>
=
A
1
>
, ..., A
n
>
(3.33)
14
Beweis siehe Kruse / Gebhardt / Klawonn (1993), S. 36 ff., Comploj (1994), S. 35, Viertl / Hareter
(2006), S. 32 f.

24
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(ii)
(0, 1]:
B
A
1
, ..., A
n
(3.34)
Wenn das Supremum in der betreffenden Fuzzy-Mengen-Operation (.) ange-
nommen wird, also wenn sup = max, dann gilt auch in (3.34) die Identit¨
at statt
der Inklusion. Insbesondere wird das Supremum angenommen, wenn (.) stetig
ist.
3.2.3
Unscharfe Funktionen
Je nach Auftreten der Unsch¨
arfe innerhalb einer Funktion muss unterschieden werden
zwischen Fuzzy-Extensionen von Funktionen, fuzzifizierende Funktionen und Fuzzy-
Scharen von Funktionen.
15
Bei Fuzzy-Extensionen von Funktionen handelt es sich um Funktionen, die selbst
nicht unscharf sind, sondern die die Unsch¨
arfe ihrer Argumente tragen.
Definition: Zu einer gegebenen scharfe Funktion f : U
V, x y = f(x) und einer
unscharfe Menge ~
X
F(U) mit
~
X
(.) heißt
f :
F(U) F(V)
~
X
~Y = f (~X)
(3.35)
die Fuzzy-Extension oder unscharfe Extension von f , falls
f ( ~
X)
(y) =
sup
x
U: y=f(x)
~
X
(x)
y V.
(3.36)
ur die strikten -Schnitte gilt gem¨
aß (3.33) und (3.34) f¨
ur
[0, 1):
f (X)
>
= f (X
) = f (
{x|x X
>
}) = {f(x)|x X
>
}
(3.37)
ur stetiges f gilt auch f¨
ur die -Schnitte f¨
ur
(0, 1]:
f (X)
= f (X
)
(3.38)
Im Gegensatz zu den Fuzzy-Extensionen hat man es bei fuzzifizierenden Funktionen
mit Funktionen zu tun, die scharfe Argumente x
U auf unscharfe Mengen abbilden.
Definition: Eine Funktion
~
f : U
F(V)
x
~Y = ~
f (x)
(3.39)
15
Vgl. auch Dubois / Prade (1992a), S. 64 ff., Bandemer / N¨
ather (1992), S. 40 ff., Bandemer /
Gottwald (1993), S. 36 ff., Comploj (1994), S. 42 ff. Viertl (vgl. Viertl (1996), S. 37 ff., Viertl (1997),
S. 554 ff., Viertl / Hareter (2004a), S. 264 ff.) unterscheiden zwischen Funktionen von unscharfen Va-
riablen und Funktionen mit unscharfen Werten. M¨
oller / Beer (2004), S. 41 ff., unterscheiden zwischen
scharfen Abbildungen von unscharfen Variablen, unscharfen Abbildungen von scharfen Variablen und
unscharfen Abbildungen von unscharfen Variablen. Unscharfe Scharen werden als Repr¨
asentationsform
ur unscharfe Funktionen mit unscharfen Parametern angesehen.

KAPITEL 3 FUZZY-MENGEN
25
mit Zugeh¨
origkeitsfunktion
~
Y
(y) =
~
f (x)
(y)
(3.40)
y V heißt fuzzifizierende Funktion.
Eine fuzzifizierende Funktion ist h¨
aufig durch unscharfe Funktionsparameter gegeben:
Sind ~
A
1
F(U
1
), ..., ~
A
n
F(U
n
) mit
~
A
1
(.), ...,
~
A
n
(.) und
~
f (x) = ~
f (x
|~A
1
, ..., ~
A
n
),
(3.41)
dann sind ~
A
1
, ..., ~
A
n
die fuzzifizierenden Funktionsparameter.
ur die Zugeh¨
origkeitsfunktion
~
f (x)
(.) gilt f¨
ur festes x:
~
f (x)
(y) =
sup
a1supp( ~
A1),...,ansupp( ~
An):
f (x|a1,...,an)=y
min
~
A
1
(a
1
), ...,
~
A
n
(a
n
)
y V.
(3.42)
ur Analysen wichtig sind die (scharfen) -Niveaukurven f
(.), also die -Komponenten
der fuzzifizierenden Funktion, die definiert sind durch:
y = f
(x) :
~
f (x)
(y) =
(3.43)
Wenn scharfe Zahlen auf unscharfe Zahlen oder auf unscharfe Intervalle abgebildet
werden, erh¨
alt man zwei Funktionen f
(.) und f
(.) mit f
(x)
f
(x)
x U f¨ur
(0, 1) und im Fall eines unimodalen unscharfen Bildes f¨ur alle x U eine Funktion
f
1
(x) = f
1
(x) = f
1
(x)
x U f¨ur = 1.
16
s F¨
ur die -Niveaukurven der durch
fuzzifizierende Parameter charakterisierten unscharfen Funktion ~
f (.) = ~
f (.
|~A
1
, ..., ~
A
n
)
erh¨
alt man f¨
ur x
U:
f
(x) = f
(x
|~A
1
, ..., ~
A
n
) =
inf
a
1
A
1
,...,a
n
A
n
f (x
|a
1
, ..., a
n
)
f
(x) = f
(x
|~A
1
, ..., ~
A
n
) =
sup
a
1
A
1
,...,a
n
A
n
f (x
|a
1
, ..., a
n
)
(3.44)
ur die strikten -Schnitte erh¨
alt man f¨
ur
[0, 1) f¨ur x U:
f(x)
>
= f
>
(x) = f
>
(x
|~A
1
, ..., ~
A
n
) = f(x
|A
1
>
, ..., A
n
>
)
= f (x
|a
1
, ..., a
n
) a
1
A
1
>
, ..., a
n
A
n
>
(3.45)
und im Fall, dass f (.) stetig ist, auch f¨
ur die -Schnitte f¨
ur
(0, 1] f¨ur x U:
f(x)
= f
(x) = f
(x
|~A
1
, ..., ~
A
n
) = f(x
|A
1
, ..., A
n
)
= f (x
|a
1
, ..., a
n
) a
1
A
1
, ..., a
n
A
n
(3.46)
Bemerkung: Fuzzifizierende Funktionen k¨
onnen auch auf unscharfe Argumente ~
X an-
gewendet werden. Man erh¨
alt dann die Fuzzy-Extension der fuzzifizierenden Funktion.
Den dritten Typ von unscharfen Funktionen stellen unscharfe Funktionenscharen
dar. Bezeichnet man mit V
U
:=
{f(.)|f : U V} die Menge aller klassischen Funktio-
nen von U nach V, so kann eine Fuzzy-Schar von Funktionen, die mit
~~
f (.) bezeichnet
16
Bei M¨
oller / Beer (2004), S. 45, wird diese Funktion als Trendfunktion bezeichnet.

26
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
werden soll, als unscharfe Menge ¨
uber V
U
interpretiert werden.
~~
f (.)
F(V
U
) hat die
Zugeh¨
origkeitsfunktion
~~
f (.)
:
V
U
[0, 1]
f (.)
~~
f (.)
(f (.)),
(3.47)
wobei
x U:
~~
f (.)
(f (.)) (x) :=
~~
f (x)
(f (x))
(3.48)
Die einzelnen Funktionen innerhalb der Fuzzy-Schar, auch Trajektorien gennannt,
17
onnen entweder unterschiedliche Funktionstypen sein oder durch unscharfe Funktions-
parameter gegeben sein. Wird eine unscharfe Funktionenschar aufgrund ihrer unschar-
fen Funktionsparameter ~
A
1
, ..., ~
A
n
definiert, so wird jede unscharfe Menge ~
A
i
als Ver-
einigung ~
A
i
=
a
i
supp( ~
A
i
)
a
i
,
~
A
i
(a
i
) , i = 1, ..., n, von Fuzzy-Singletons im Sinne von
(3.16) aufgefasst. F¨
ur jeden scharfen Vektor
a = (a
1
, ..., a
n
)
supp(~A
1
)
×...×supp(~A
n
)
ergibt sich eine scharfe Funktion f (x) = f (x
|a
1
, ..., a
n
) = f (x
|a) Daraus erh¨alt man
wiederum eine Fuzzy-Funktionenschar. Als Zugeh¨
origkeitsgrad
~~
f (.)
(f (.)) der Funktion
f (.) zur Schar
~~
f (.) =
~~
f (.
|~A
1
, ..., ~
A
n
) wird der des Vektors
a zum Cartesischen Produkt
~
A
1
... ~A
n
der unscharfen Parameter definiert:
~~
f (.)
(f (.)) =
~~
f (.
| ~
A
1
,..., ~
A
n
)
(f (.
|a))
:=
~
A
1
... ~
A
n
(a
1
, ..., a
n
) = min
~
A
1
(a
1
), ...,
~
A
n
(a
n
)
(3.49)
In Fuzzy-Scharen von Funktionen kann f¨
ur f (.), g(.)
supp(
~~
f (.))
V
U
ur x
U gelten
f (x) = g(x), aber
~~
f (.)
(f (.)) =
~~
f (.)
(g(.)). Gem¨
aß (3.42) kann man aus der unscharfen
Funktionenschar
~~
f (.) die von der Funktionenschar induzierte fuzzifizierende Funktion
~
f (.) ableiten:
~
f (x)
(y) :=
sup
f (.)supp(
~
~
f (.)):
f (x)=y
~~
f
(f )
y V
(3.50)
bzw., wenn die Fuzzy-Schar aufgrund unscharfer Parameter definiert wurde:
~
f (x)
(y) :=
sup
a
supp( ~
A1...otimes ~
An):
f (x|
a
)=y
~~
f (x
| ~
A
1
,..., ~
A
n
)
(f (x
|a))
=
sup
a1supp( ~
A1),...,ansupp( ~
An):
f (x|a1,...,an)=y
min
~
A
1
(a
1
), ...,
~
A
n
(a
n
)
y V
(3.51)
ur die von der Fuzzy-Funktionenschar
~~
f (.) induzierte fuzzifizierende Funktion ~
f (.)
onnen wiederum die -Niveaukurven f
(.) und f
(.),
(0, 1] von ~
f (.) bestimmt
werden durch:
f
(x) =
inf
f
supp(
~~
f ):
~~
f (f )
f (x)
f
(x) =
sup
f
supp(
~~
f ):
~~
f (f )
f (x)
(3.52)
Der folgende Satz stellt eine wichtige Vereinfachung bei der Formulierung der -
Niveaukurven von stetigen monotonen Funktionen dar.
17
Vgl. M¨
oller / Beer (2004), S. 43.

KAPITEL 3 FUZZY-MENGEN
27
Satz: Ist f : IR
IR, x f(x) eine reelle stetige und monontone Funktion, und ist
f :
F(IR) F(IR), ~A f (~A) die Fuzzy-Extension von f(.), dann gilt
f (co ~
A) = co f ( ~
A)
(3.53)
Beweis: Es ist zu zeigen, dass f¨
ur A
= [a
, a
] gilt
f (co A
) = co f (A
), d.h.
f ([a
, a
])
{[f(a
), f (a
)], [f (a
), f (a
)]
}.
Aus der Monotonie von f (.) folgt entweder (monoton wachsend)
f (a
) = f (inf
a
A
a) = inf
f (a)
f (A
)
f (a) = f (a)
und
f (a
) = f (sup
a
A
a) = sup
f (a)
f (A
)
f (a) = f (a)
oder (monoton fallend)
f (a
) = f (inf
a
A
a) = sup
f (a)
f (A
)
f (a) = f (a)
und
f (a
) = f (sup
a
A
a) = inf
f (a)
f (A
)
f (a) = f (a)
.
Die Stetigkeit von f (.) auf [a
, a
] besagt schließlich, dass
x
0
[a
, a
] lim
x
x
0
f (x)
existiert und lim
x
x
0
f (x) = f (x
0
). Es gibt also keine Sprungstellen in der Funktion
auf dem Intervall [a
, a
].
Damit ist die Behauptung bewiesen.
Folgerung: Zu einer Funktion f (.
|a) : IR IR mit Funktionsparameter a IR be-
zeichne ~
f (.
|~A) die entsprechende fuzzifizierende Funktion bei Vorliegen eines unscharfen
Parameters ~
A
F(IR). Ist f(x|.) bei fixem x IR in a auf IR stetig und monoton, so
gilt:
~
f (x
|co ~A) = co ~
f (x
|~A),
(3.54)
bzw.
f
(x
|~A) =
f (x
|a
) falls f monoton wachsend
f (x
|a
) falls f monoton fallend
f
(x
|~A) =
f (x
|a
) falls f monoton wachsend
f (x
|a
) falls f monoton fallend
(3.55)
und
~
f (x
|co ~A)
=
[f (x
|a
), f (x
|a
)] falls f monoton wachsend
[f (x
|a
), f (x
|a
)] falls f monoton fallend .
(3.56)
Beweis: Die Aussage ergibt sich, wenn man x
IR als fix annimmt und den Satz (3.53)
auf die Funktion f
x
: IR
IR, a f
x
(a) := f (x
|a) bzw. deren Fuzzy-Extension
f :
F(IR) F(IR), ~A f
x
( ~
A) = f (x
|~A) anwendet.
Eine unscharfe Funktion ~
f : T
U; t ~A
t
:= ~
f (t), deren Definionsmenge T die
Zeitachse [0,
) oder eine Folge von diskreten Zeitpunkten {t
0
, t
1
, ...
} ist, wird auch
als unscharfer Prozess
18
oder als (normale) dynamische Fuzzy-Menge
19
bezeichnet.
Sollen von unscharfen Funktionen Ableitung und Stammfunktion gebildet werden,
so erweist sich diese Aufgabe bei Fuzzy-Extensionen als unproblematisch, da die Funk-
tion selbst nicht unscharf ist, sondern nur auf unscharfe Argumente angewendet wird.
18
Vgl. M¨
oller / Beer (2004), S. 43.
19
Vgl. Viertl / Hareter (2004b), S. 51.

28
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Liegt eine Fuzzy-Funktionenschar mit unterschiedlichen Funktionstypen oder mit
als Vereinigung von Fuzzy-Singletons aufgefassten unscharfen Parametern vor, so muss
ur jede Funktion aus der Schar Ableitung bzw. Stammfunktion gebildet werden. Als
Zugeh¨
origkeitsgrad der Ableitung bzw. Stammfunktion einer Funktion zur Fuzzy-Schar
der Ableitungen bzw. Stammfunktionen wird der Zugeh¨
origkeitsgrad der urspr¨
ungli-
chen Funktion zur urspr¨
unglichen unscharfen Funktionenschar gew¨
ahlt.
20
Somit gilt
~~
f (.) =
d
~~
f
dx
(.) = (f (.),
~~
f (.)
(f (.))
|
~~
f (.)
(f (.)) =
~~
f (.)
(f (.))
=
df
dx
(.),
d
~
~
f
dx
(.)
(
df
dx
(.))
d
~
~
f
dx
(.)
(
df
dx
(.)) =
~~
f (.)
(f (.))
(3.57)
und
~
~
F (.) = (F (.),
~
~
F (.)
(F (.))
|
~
~
F (.)
(F (.)) =
~~
f (.)
(f (.))
(3.58)
mit
~
~
F (x) =
~~
f (x)dx
=
f (x)dx,
~~
f (x)dx
( f (x)dx)
~~
f (x)dx
( f (x)dx) =
~~
f (.)
(f (.))
(3.59)
ur x
IR.
ur die Differentiation und Integration von fuzzifizierenden Funktionen mit fuzzi-
fizierenden Paramtern ist es zweckm¨
aßig, diese als Fuzzy-Schar im Sinne von (3.49) zu
interpretieren und die Fuzzy-Schar nach (3.57) bzw. (3.58) zu differenzieren bzw. zu in-
tegrieren. Aus der so erhaltenen Fuzzy-Schar von Ableitungen bzw. Stammfunktionen
kann wiederum nach (3.51) die induzierte fuzzifizierende Ableitungs- bzw. Stammfunk-
tion gebildet werden.
Das bestimmte Integral einer fuzzifizierenden Funktion ¨
uber einen scharfen Bereich
b
a
~
f (x)dx, a, b
IR, kann dann durch Integration der zugh¨origen Fuzzy-Schar
~~
f (.) nach
(3.59) und
b
a
~
f (x)dx
(c) =
sup
f (.)
supp(
~~
f (.)):
b
a
f (x)dx=F (b)
-F (a)=c
min
~~
f (.)
(f (.))
(3.60)
bestimmt werden. Insbesondere im Fall konvexer unscharfer Funktionswerte der fuzzi-
fizierenden Funktion, k¨
onnen die -Komponenten
b
a
f (x)dx
und
b
a
f (x)dx
des
unscharfen bestimmten Integrals
b
a
~
f (x)dx durch Integration der -Niveaukurven f
(.)
und f
(.) von ~
f (.)
b
a
f (x)dx
=
b
a
f
(x)dx
b
a
f (x)dx
=
b
a
f
(x)dx
(3.61)
bestimmt werden. Letztere Vorgehensweise ist m¨
oglich aufgrund der Monotonie des
bestimmten Integrals.
21
20
Zur Differenzierbarkeit von fuzzifizierenden Funktionen siehe auch Rodr´iguez-Mu~
niz (2002), S.
104 ff.
21
Vgl. auch Viertl / Hareter (2006), S. 40 f. Weitere Aspekte zum Riemann-Integral von unscharfen
Funktionen behandelt Wu (1998), S. 115 ff.

KAPITEL 3 FUZZY-MENGEN
29
3.2.4
Reelle Fuzzy-Mengen-R¨
aume und topologische
Eigenschaften
Im Anschluss sollen einige wichtige Teilmengen von
F(IR) definiert und in Bezug auf
topologische Eigenschaften untersucht werden.
22
Definition: Ist
F(IR) die Menge aller Fuzzy-Mengen ¨uber IR, dann k¨onnen folgende
Teilmengen von
F(IR) definiert werden:
(i)
F
c
(IR) :=
~
A
F(IR) x
1
, x
2
IR, [0, 1]
~
A
(x
1
+ (1
- )x
2
)
min{
~
A
(x
1
),
~
A
(x
2
)
}
(3.62)
ist die Menge aller konvexen Fuzzy-Mengen ¨
uber IR.
(ii)
F
b
(IR) :=
~
A
F(IR) card(supp(~A)) =
-
1
supp( ~
A)
(x)dx <
=
~
A
F(IR)|a
0
>
- a
0
<
(3.63)
ist die Menge aller Fuzzy-Mengen ¨
uber IR mit beschr¨
anktem Tr¨
ager.
(iii)
F
cb
(IR) :=
~
A
F(IR)|(~A F
c
(IR))
(~A F
b
(IR)) =
F
c
(IR)
F
b
(IR)
(3.64)
ist die Menge aller konvexen Fuzzy-Mengen ¨
uber IR mit beschr¨
anktem Tr¨
ager.
(iv)
F
cc
(IR) :=
~
A
F(IR)|~B
1
, ..., ~
B
n
F
c
(IR) : ~
A =
n
i=1
~
B
i
(3.65)
ist die Menge aller Fuzzy-Mengen ¨
uber IR, die sich als endliche Vereinigung von
konvexen Fuzzy-Mengen ¨
uber IR darstellen l¨
asst.
(v)
F
ccb
(IR) :=
F
cc
(IR)
F
b
(IR)
(3.66)
ist die Menge aller Fuzzy-Mengen ¨
uber IR mit beschr¨
anktem Tr¨
ager, die sich als
endliche Vereinigung von konvexen Fuzzy-Mengen ¨
uber IR darstellen l¨
asst.
Es gilt f¨
ur ~
A
F(IR):
(co ~
A)
= co A
.
(3.67)
Beweis: 1
(co ~
A)
(x) =
1 falls
co ~
A
(x)
0 falls
co ~
A
(x) <
=
1 falls sup
· 1
co A
(x)
| (0, 1]
0 falls sup
· 1
co A
(x)
| (0, 1] <
= 1
co A
(x)
22
Diese topologischen Eigenschaften werden bei Kruse-Meyer (1987), S. 50 ff., und Diamond (1988),
S. 142 ff., beschrieben. Weiterentwicklungen und Modifikationen finden sich unter anderem bei Chaud-
huri / Rosenfeld (1999), S. 159 ff., Grzegorzewski (1998), S. 84 ff.

30
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Um topologische Eigenschaften auf
F(IR) angeben zu k¨onnen, wird zun¨achst eine
Pseudometrik
23
auf
P(IR) eingef¨uhrt.
24
Satz: Ist A
IR, B IR, A = , B = ,
(i) dann ist die Abbildung
d
H
: (
P(IR))
2
IR
+
0
(A, B)
d
H
(A, B) := max sup
a
A
inf
b
B
|a - b|, sup
b
B
inf
a
A
|a - b|
(3.68)
eine Pseudometrik auf
P(IR). (P(IR), d
H
(.)) ist also ein pseudometrischer Raum.
|x - y| bezeichnet dabei die gew¨ohnliche Distanzbetragsfunktion auf IR.
(ii) Sind A und B speziell kompakte Intervalle auf IR, dann gilt:
d
H
(A, B) = 0
A = B
d
H
(.) ist also eine Metrik
25
auf
I
k
(IR), wenn mit
I
k
(IR) die Menge aller kompakten
Intervalle auf IR bezeichnet wird. (
I
k
(IR), d
H
(.)) ist also ein metrischer Raum.
Definition: Die in (3.68) beschriebene Pseudometrik heißt Haussdorff-Distanz oder
Hausdorff-Pseudometrik.
Beruhend auf der Hausdorff-Distanz (3.68) k¨
onen eine Metrik auf
F
b
(IR) und eine
Pseudometrik auf
F(IR) definiert werden:
Satz: Ist ~
A, ~
B
F
b
(IR) mit den -Schnitten A
, B
P(IR), (0, 1], dann ist die
Abbildung
d
1
: (
F
b
(IR))
2
IR
+
0
( ~
A, ~
B)
d
1
( ~
A, ~
B) :=
1
0
d
H
(A
, B
)d
(3.69)
eine Metrik auf
F
b
(IR), wobei d
H
(A, B) die Hausdorff-Distanz (3.68) auf
P(IR) ist.
Somit ist (
F
b
(IR), d
1
(.)) ein metrischer Raum.
Satz: Ist ~
A, ~
B
F(IR) mit den -Schnitten A
, B
P(IR) und den strikten -
Schnitten A
>
, B
>
P(IR), (0, 1], dann ist Abbildung
d
: (
F(IR))
2
IR
+
0
( ~
A, ~
B)
d
( ~
A, ~
B) := max
sup
(0,1]
d
H
(A
, B
), sup
[0,1)
d
H
(A
>
, B
>
)
(3.70)
23
Eine Pseudometrik auf einer Menge U ist eine Abbildung d : U × U IR
+
0
, (x, y)
d(x, y) mit
den Eigenschaften:
(i)
d(x, y) d(x, z) + d(z, y)
(ii)
d(x, y) = d(y, x)
(iii)
d(x, y) 0, d(x, x) = 0
Das Paar (U, d(.)) heißt dann pseudometrischer Raum.
24
Vgl. Kruse-Meyer (1987), S. 50
25
Eine Metrik auf einer Menge U ist eine Abbildung d : U × U IR
+
0
, (x, y)
d(x, y) mit den
Eigenschaften:
(i)
d(x, y) d(x, z) + d(z, y)
(ii)
d(x, y) = d(y, x)
(iii)
d(x, y) 0, d(x, y) = 0 x = y
Das Paar (U, d(.)) heißt dann metrischer Raum.

KAPITEL 3 FUZZY-MENGEN
31
eine Pseudometrik auf
F(IR), wobei d
H
(A, B) die Hausdorff-Distanz (3.68) auf
P(IR)
ist. Somit ist (
F(IR), d
(.)) ein pseudometrischer Raum.
Die G¨
ultigkeit der beiden vorhergehenden S¨
atze wird bei Kruse / Meyer
26
gezeigt.
d
1
(.) und d
(.) sind keine Metriken auf
F(IR). Der metrische Raum F(IR)) hat die
angenehme Eigenschaft, dass er separabel
27
ist, was bei Kruse / Meyer (1987)
28
nachge-
wiesen wird. Die R¨
aume (
F
b
(IR), d
), (
F
cb
(IR), d
(.)) und (
F
ccb
(IR), d
(.)) sind nicht
separabel.
Die wichtigsten Konvergenzbegriffe in R¨
aumen von Fuzzy-Mengen werden in Ab-
schnitt 3.2.5 im Anschluss an die Erkl¨
arung der Grundbegriffe des Rechnens mit Fuzzy-
Mengen vorgestellt.
Eine spezielle Distanzfunktion, um die Distanz von unscharfen Mengen auf diskreten
Teiluniversen von IR, d.h. etwa auf IN, ZZ oder I
Q, von unscharfen reellen Fuzzy-Mengen
angeben zu k¨
onnen, formulieren Niculescu / Viertl.
29
Definition: Sind U
IR eine abz¨ahlbare Teilmenge von IR, ~A F(U) eine Fuzzy-
Menge auf U, und ~
B
F(IR) eine reelle Fuzzy-Menge, dann ist die Distanz d
V
( ~
A, ~
B)
definiert durch:
d
V
( ~
A, ~
B) := max
max
(0,1]:x:a0xa1
~
A
(x)=
|a
- b
| ,
max
(0,1]:x:a1xa0
~
A
(x)=
a
- b
.
(3.71)
Bei der Distanz d
V
(.) werden also die Tr¨
agerelemente x
supp(~A) nur einmal be-
trachtet, und zwar mit demjenigen , welches auch tats¨
achlich als Zugeh¨
origkeitsgrad
~
A
(x) = angenommen wird. Bei der Distanz d
(.) werden die x
supp(~A) auch mit
denjenigen
(0, 1] als relevant in Betracht gezogen, f¨ur welche gilt:
~
A
(x) > und
x
A
, < . Es ist einsichtig, dass die folgende Beziehung gilt:
d
V
( ~
A, ~
B)
d
( ~
A, ~
B),
denn d
( ~
A, ~
B) = max
{ sup
(0,1]
d
H
(A
, B
), sup
[0,1)
d
H
(A
>
, B
>
)
} sup
(0,1]
d
H
(A
, B
) =
max
{ sup
(0,1]:xsupp( ~
A):
~
A
(x)=
d
H
(A
, B
), sup
(0,1]:xsupp( ~
A):
~
A
(x)=
d
H
(A
, B
)
}
max
(0,1]:xsupp( ~
A):
~
A
(x)=
d
H
(A
, B
) = d
V
( ~
A, ~
B).
Problematisch wird das Arbeiten mit dieser Distanzfunktion, wenn damit der Abstand
zwischen zwei diskreten Fuzzy-Mengen ~
A und ~
B gemessen werden soll, f¨
ur die f¨
ur einige
x
supp(~A) mit
~
A
(x) = gilt:
y supp(~B) :
~
B
(y) = und umgekehrt. In diesem
Fall muss auf die Pseudometrik d
(.) zur¨
uckgegriffen werden.
26
Vgl. Kruse / Meyer (1987), S. 53 f.
27
Ein Raum (U, d(.)) heißt separabel, wenn er eine abz¨ahlbare in U dichte Teilmenge A enth¨alt,
d.h. f¨
ur den Abschluss von A von A muss gelten: A = U, wobei der Abschluss A die Menge aller
Ber¨
uhrungspunkte von A ist, also die Menge aller Punkte x
U, f¨ur die jede Umgebung wenigstens
einen Punkt von A enth¨
alt.
28
Vgl. Kruse / Meyer (1987), S. 55 ff.
29
Vgl. Niculescu / Viertl (1992b), S. 169, Viertl (1996), S. 96.

32
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
3.2.5
Folgen und Reihe von Fuzzy-Mengen, Konvergenzbe-
griffe f¨
ur Fuzzy-Mengen
Die einfachste M¨
oglichkeit zur Definition eines Konvergenzbegriffes auf
F(IR) besteht
in der Einf¨
uhrung des Begriffs der Folge von unscharfen Zahlen. Weitere Konvergenzbe-
griffe werden aufgrund der in Abschnitt 3.2.4 vorgestellten topologischen Eigenschaften
von Fuzzy-Mengen-R¨
aumen definiert.
Eine Folge von unscharfen Zahlen ( ~
A
n
)
n
IN
, ~
A
n
F
cb
(IR)
n IN, ist definiert
durch die Zugeh¨
origkeitsfunktionen
~
A
n
(.))
n
IN
bzw. die -Schnitte (A
n
)
n
IN(0,1]
=
([a
, a
])
n
IN(0,1]
Eine Folge von unscharfen Zahlen ( ~
A
n
)
n
IN
konvergiert, wenn
lim
n
~
A
n
, man setzt
~
A := lim
n
~
A
n
und
~
A
(x) =
lim
n
~
A
n
(x) = lim
n
~
A
n
(x)
x IR.
(3.72)
Dies ist genau dann der Fall, wenn die Folgen aller -Schnitte konvergieren, und d.h.
wenn die Folgen ihrer oberen und unteren Intervallgrenzen konvergieren:
A
= lim
n
A
n
=
lim
n
a
n
, lim
n
a
n
= [a
, a
]
(0, 1]
In der Analysis ist eine Reihe als die Folge der Partialsummen einer Folge definiert.
Im unscharfen Fall ist die Vorgangsweise analog. F¨
ur eine Folge von unscharfen Zahlen
( ~
A
n
)
n
IN
mit den Zugeh¨
origkeitsfunktionen
~
A
n
(.)
n
IN
lautet die n-te Partialsumme
~
S
n
:=
n
=1
~
A
= ~
A
1
... ~A
n
,
(3.73)
mit Zugeh¨
origkeitsfunktion
~
S
n
(y) =
~
A
1
... ~
A
n
(y) =
sup
x
1
+...+x
n
=y
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
y IR, (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
), und -Schnitten
S
n
=
n
=1
A
= A
1
... A
n
=
n
=1
a
,
n
=1
a
.
Die entsprechende Reihe von unscharfen Zahlen ist dann
~
S
n
n
IN
:=
n
=1
~
A
n
IN
=
n=1
~
A
n
(3.74)
Die Reihe
n=1
~
A
n
heißt konvergent, wenn die Folge der Partialsummen
~
S
n
n
IN
konvergiert, und
lim
n
~
S
n
= lim
n
n
=1
~
A
n
IN
=
n=1
~
A
n
=: ~
S
(3.75)

KAPITEL 3 FUZZY-MENGEN
33
heißt der unscharfe Wert der Reihe. Dabei ist
~
S
(y) =
lim
n
~
S
n
(y) = lim
n
~
S
n
(y)
y IR
und S
= lim
n
S
n
=
lim
n
n
=1
a
, lim
n
n
=1
a
=
n=1
a
n
,
n=1
a
n
(0, 1].
Bemerkung: Man beachte (analog zur Bezeichnung in der klassischen Analysis die
zweifache Bedeutung der Schreibweise
n=1
~
A
n
: Einerseits wird damit die unscharfe
Reihe selbst, d.h. die unendliche Folge der unscharfen Partialsummen, und andererseits
der unscharfe Wert der Reihe, also der unscharfe Grenzwert der Folge der unscharfen
Partialsummen, sofern er existiert, bezeichnet.
Neben diesem allgemeinen Konvergenzbegriff werden f¨
ur die Formulierung der un-
scharfen Versionen von wichtigen Konvergenztheoremen der Statistik in Abschnitt 5.2
weitere Konvergenzbegriffe ben¨
otigt.
30
In Abschnitt 3.2.4 wurden bereits die Metriken
und Pseudometriken d
H
(.) (3.68), d
1
(.) (3.69) und d
(.) (3.70) eingef¨
uhrt.
Definition: Ist ( ~
A
n
)
n
IN
, ~
A
n
F(IR) n IN, eine Folge von unscharfen Mengen, und
ist ~
A
F(IR), dann k¨onnen die folgenden Konvergenzbegriffe eingef¨uhrt werden:
(i) Die Hausdorff-Konvergenz bez¨
uglich d
(.) ist definiert durch:
( ~
A
n
)
n
IN
d
- ~A : lim
n
d
( ~
A
n
, ~
A) = 0
(3.76)
(ii) Die Hausdorff-Konvergenz bez¨
uglich d
1
(.) ist definiert durch:
( ~
A
n
)
n
IN
d
1
- ~A : lim
n
d
1
( ~
A
n
, ~
A) = 0
(3.77)
(iii) Die Hausdorff-Konvergenz bez¨
uglich d
H
(.) und I
Q ist definiert durch:
( ~
A
n
)
n
IN
d
H
, I
Q
- ~A : lim
n
d
H
(A
n
>
, A)
>
) = 0
[0, 1) IQ
(3.78)
ur fuzzifizierende Funktionen kann der Begriff der uniformen Hausdorff-Konvergenz
bez¨
uglich d
H
(.) und I
Q definiert werden:
31
Definition: Ist U
IR, und ist ( ~
f
n
(.))
n
IN
eine Folge von fuzzifizierenden Funktionen
~
f
n
: U
F(IR) n IN und ~
f (.) eine fuzzifizierende Funktion ~
f : U
F(IR), dann
ist die uniforme Konvergenz bez¨
uglich d
H
(.) und I
Q definiert durch:
~
f
n
(.)
n
IN
d
H
, I
Q
- ~
f (.) :
lim
n
sup
x
U
d
H
((f
n
(x))
>
, (f (x))
>
) = 0
[0, 1) IQ (3.79)
In der Literatur werden noch weitere Konvergenzbegriife f¨
ur Fuzzy-Mengen pr¨
asentiert,
auf die hier aber nicht mehr eingegangen werden soll.
32
30
Die Darstellung st¨
utzt sich vor allem auf Kruse / Meyer (1987), S. 58 ff.
31
Vgl. Kruse / Meyer (1987), S. 61.
32
Vgl. etwa Savas (2001), S. 277 ff.

34
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
3.2.6
Ordnungsrelationen und Rangordnungsverfahren f¨
ur
Fuzzy-Mengen
ahrend zwischen gew¨
ohnlichen, scharfen Zahlen durch eine Ordnungsrelation ">"
immer festgelegt ist, welche die gr¨
oßere von zweien bzw. die gr¨
oßte von mehreren Zahlen
ist, ist eine solche Aussage f¨
ur Fuzzy-Zahlen bzw. Fuzzy-Mengen im Allgemeinen nicht
oglich. Eine eindeutige Rangordnung zwischen zwei Fuzzy-Mengen ~
A und ~
B auf
F(IR)
besteht nur in dem Ausnahmefall, dass ~
A > ~
B
inf supp(~A) > sup supp(~B). Da aber
ur bestimmte Anwendungen doch eine Aussage ¨
uber die Gr¨
oßenrelation von Fuzzy-
Mengen gemacht werden muss, wurden verschiedene Ans¨
atze f¨
ur die Festlegung von
Ordnungsrelationen und Rangordnungsverfahren von Fuzzy-Mengen fomuliert.
33
Die Ans¨
atze lassen sich im wesentlichen in zwei Gruppen einteilen: die einen ver-
suchen, eine unscharfe Erweiterung der Relation ">" zu einer Fuzzy-Relation " ~
>" zu
finden, w¨
ahrend die anderen zuerst Defuzzifikationsverfahren auf die Fuzzy-Mengen an-
wenden und anschließend die gew¨
ohnliche Relation ">" auf die defuzzifizierten Werte
anwenden.
Geht man vom einfachsten Fall aus, dass nur zwei reelle Fuzzy-Mengen miteinander
verglichen werden sollen, so kann dies mit Hilfe einer bin¨
aren Fuzzy-Relation erfolgen.
Eine scharfe bin¨
are Relation R auf U
× V, mit U, V IR, die eine Beziehung xRy
zwischen zwei scharfen Zahlen x
U, y V wiedergibt, ist definiert als eine Teil-
menge R
U × V, gegeben durch die Indikatorfunktion 1
R
(x, y) =
1 f¨
ur xRy
0 sonst
.
Eine Verallgemeinerung zur Fuzzy-Relation ~
R ist m¨
oglich durch die Annahme einer
graduellen Zugeh¨
origkeit
~
R
(x, y)
[0, 1] zu ~
R im Sinne von (3.2),
34
d.h.
~
R =
{((x, y),
~
R
(x, y))
| (x, y) U × V} ,
~
R
(x, y)
[0, 1].
Auf den allgemeinen n-dimensionalen Fall kann der Begriff der Fuzzy-Relation ebenfalls
erweitert werden. Jede n-dimensionale Fuzzy-Menge auf einem n-dimensionaler Uni-
versum U
1
× ... × U
n
kann als n dimensionale Fuzzy-Relation ~
R angesehen werden:
35
~
R =
{((x
1
, ..., x
n
),
~
R
(x
1
, ..., x
n
))
| (x
1
, ..., x
n
)
U
1
× ... × U
n
} ,
~
R
(x
1
, ..., x
n
)
[0, 1]
Bei der Definition einer unscharfen Ordnungsrelation muss zus¨
atzlich in Betracht gezo-
gen werden, dass die Fuzzy-Relation nicht auf einem Universum von scharfen Elementen
U
1
×...×U
n
, sondern auf einem Universum von Fuzzy-Mengen (
F(U))
n
(F(IR))
n
de-
finiert werden muss. Es liegt nahe, die Zugeh¨
origkeitsfunktionen der zu vergleichenden
Fuzzy-Mengen ~
A
1
, ..., ~
A
n
bei der Bestimmung der Zugeh¨
origkeitsfunktion der Fuzzy-
Relation zu ber¨
ucksichtigen. Eine allgemein anerkannte einheitliche Methode zur Be-
stimmung einer solchen Fuzzy-Relation gibt es bisher nicht, anstatt dessen wurden
zahlreiche Vorschl¨
age entwickelt.
33
Eine ausf¨
uhrliche Zusammenstellung verschiedener Ans¨
atze findet sich bei Rommelfanger (1994),
S. 72 ff. Weitere ¨
Ubersichten ¨
uber weitere Verfahren bringen Lubiano / Gil (2002), S. 45 f., Wagner
(2003), S. 68 ff.
34
Vgl. Zadeh (1971), S. 421 ff., Zadeh (1975a), S. 2 ff., Bandemer / N¨
ather (1992), S. 64 f., Kruse
/ Gebhardt / Klawonn (1993), S. 48 ff., Bandemer / Gottwald (1993), S. 34 f., Comploj (1994), S. 49
ff. und S. 65 ff., Comploj (2002), S. 60.
35
Vgl. Rommelfanger (1994), S. 67.

KAPITEL 3 FUZZY-MENGEN
35
Eine erste M¨
oglichkeit zur Definition einer Ordnungsrelation auf (
F(U))
2
(F(IR))
2
bietet sich ¨
uber die -Pr¨
aferenz
36
~
A
~
B
inf A
sup B
[, 1] bzw.
~
( ~
A, ~
B) = ,
und die strikte -Pr¨
aferenz bzw.
~
A >
~
B
inf A
> sup B
(, 1] bzw.
~
>
( ~
A, ~
B) = .
Diese beiden Relationen stellen Verallgemeinerungen des oben angef¨
uhrten Spezialfalls
dar, dieser kann n¨
amlich insbesondere dann auch als ~
A >
=0
~
B geschrieben werden. Die
Ordnungsrelationen der -Pr¨
aferenz sind zwar allgemeiner anwendbar als der Spezial-
fall, in sehr vielen F¨
allen f¨
uhren sie aber ebenfalls nicht zu einem Vergleich zwischen
zwei Fuzzy-Mengen.
Eine Rangfolge zwischen n reellen Fuzzy-Mengen ~
A
1
, ..., ~
A
n
auf Basis der -Pr¨
afe-
renz kann dann schrittweise bestimmt werden. Zuerst muss durch paarweisen Vergleich
der ~
A
i
, ~
A
j
, (i, j)
{1, ..., n}
2
, i = j, f¨
ur jedes Paar entweder (i, j) =
~
( ~
A
i
, ~
A
j
)
oder (j, i) =
~
( ~
A
j
, ~
A
i
) festgelegt werden, sofern ein solcher Wert existiert. Unter
Ausnutzung der min-Transitivit¨
at von
37
onnen diejenigen Fuzzy-Mengen, f¨
ur wel-
che der paarweise Vergleich zu einem -Wert f¨
uhrt, leicht in eine Rangfolge gebracht
werden.
Die -Pr¨
aferenz ~
A
~
B versucht den Nachteil der -Transitivit¨
at, dass f¨
ur viele
Paare von Fuzzy-Mengen kein Vergleich zustande kommt, auszugleichen. Sie ist defi-
niert durch
38
~
A
~
B
(inf A
inf B
)
(sup A
sup B
)
[, 1] bzw.
~
( ~
A, ~
B) = .
Wiederum ist eine Verallgemeinerung f¨
ur den Vergleich von n reellen Fuzzy-Mengen
oglich.
Sofern es nicht darauf ankommt, Fuzzy-Mengen miteinander zu vergleichen, sondern
das m¨
ogliche Maximum oder Minimum zu erreichen, so kann der Ansatz des Fuzzy-
Maximum bzw. Fuzzy-Minimum, der auf der ¨
Aquivalenz der beiden Aussagen a > b
max
{a, b} = a beruht, herangezogen werden. Fuzzy-Maximum bzw. Fuzzy-Minimum
von Fuzzy-Zahlen oder Fuzzy-Intervallen, also konvexen Fuzzy-Mengen auf IR sind,
wie folgt, definiert:
39
Sind ~
A und ~
B zwei Fuzzy-Intervalle auf
F(IR), gegeben durch
A
= [a
, a
] und B
= [b
, b
] f¨
ur
(0, 1], dann gilt:
max
{~A, ~B} :
max
{~A, ~B}
:= [max
{a
, b
}, max{a
, b
}]
min
{~A, ~B} :
min
{~A, ~B}
:= [min
{a
, b
}, min{a
, b
}].
(3.80)
36
Vgl. Rommelfanger (1994), S. 74 f.
37
Unter der min-Transitivit¨
at einer Fuzzy-Relation wird die folgende Eigenschaft verstanden:
min
{
~
R
(i, j),
~
R
(j, k)
}
~
R
(i, k) (vgl. Bandemer / N¨
ather (1992), S. 65, Comploj (1994), S. 66).
Diese Eigenschaft l¨
asst sich f¨
ur die -Pr¨
aferenz sehr leicht nachweisen.
38
Vgl. Rommelfanger (1994), S. 76 f.
39
Vgl. etwa Viertl / Hareter (2006), S. 64 f.

36
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Das Fuzzy-Maximum oder Fuzzy-Minimum ist aber nur in den seltensten F¨
allen iden-
tisch mit einer der zu vergleichenden Fuzzy-Mengen, n¨
amlich nur dann wenn ~
A
=0
~
B
ist (oder umgekehrt).
Wichtig f¨
ur die weitere Vorgangsweise in der Arbeit (vgl. vor allem Abschnitt 7.2) ist
eine allgemeine Definition des Fuzzy-Minimum bzw. Fuzzy-Maximum, wobei nicht nur
von zwei Fuzzy-Mengen, sondern von einer endlichen oder unendlichen, abz¨
ahlbaren
oder ¨
uberabz¨
ahlbaren Menge von konvexen reellen Fuzzy-Mengen
{~A
i
}
i
I
, ~
A
i
F
c
(IR)
i I, ausgegangen wird, I ist dabei eine allgemeine (abz¨ahlbare oder ¨uberabz¨ahlbare)
Indexmenge. Dann gilt:
max
i
I
{~A
i
}
i
I
:
max
i
I
{~A
i
}
i
I
:= [max
i
I
a
i
, max
i
I
a
i
]
min
i
I
{~A
i
}
i
I
:
min
i
I
{~A
i
}
i
I
:= [min
i
I
a
i
, min
i
I
a
i
]
(3.81)
Ein weiterer Vorschlag zur Definition einer unscharfen Relation, welche eine un-
scharfe Ordnung auf von Fuzzy-Mengen auf einer geordneten Menge darstellt, ist der
Versuch der Anwendung des Erweiterungsprinzips auf die gew¨
ohnliche Relation ">".
Der Zugeh¨
origkeitsgrad des Fuzzy-Mengen-Paars ( ~
A, ~
B) zur Fuzzy-Relation ~
R
~
>
ist
dann im zweidimensionalen Fall definiert als
40
~
R
~
>
( ~
A, ~
B) =
sup
x
supp( ~
A),y
supp(~B):x>y
min
{
~
A
(x),
~
B
(y)
} ,
(3.82)
und kann auf den allgemeinen n-dimensionalen Fall f¨
ur ~
A
i
F(IR), i = 1, ..., n, erwei-
tert werden durch
41
~
R
~
>
( ~
A
i
,
{~A
j
}
j=i
) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
j=i:xi>xj
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
Naheliegend ist es, die zweistellige Fuzzy-Ordnungsrelation (3.82) dahingehend zu
erweitern, dass der Zugeh¨
origkeitsgrad des Fuzzy-Mengen-Paares ( ~
A, ~
B) zur Fuzzy-
Relation ~
R
~
>
um einen Zugeh¨
origkeitsgrad zur entgegen gesetzten Fuzzy-Relation ~
R
~
erg¨
anzt wird. Man erh¨
alt somit eine Fuzzy-Ordnungsrelation ~
R
~
>
, welche als unscharfe
Gr¨
oßer-Kleinergleich-Relation bezeichnet werden soll. Diese ist gegeben durch:
~
R
~
>
( ~
A, ~
B) :=
~
R
~
>
( ~
A, ~
B), ~
R
~
( ~
A, ~
B) := ( ~
A, ~
B),
~
R
~
>
( ~
A, ~
B),
~
R
~
( ~
A, ~
B)
=
( ~
A, ~
B),
sup
xsupp( ~
A),
ysupp( ~
B):
x>y
min
{
~
A
(x),
~
B
(y)
} , sup
xsupp( ~
A),
ysupp( ~
B):
xy
min
{
~
A
(x),
~
B
(y)
}
(3.83)
Dabei findet also ein Vergleich der beiden Fuzzy-Mengen dahingehend statt, dass ~
A
sowohl unscharf gr¨
oßer als auch unscharf kleiner/gleich ~
B ist. Als Spezialfall der un-
scharfen Gr¨
oßer-Kleinergleich-Relation ~
R
~
>
( ~
A, ~
B) kann der unscharfe Vergleich einer
40
Vgl. Zadeh (1965), S. 345, Rommelfanger (1994), S. 76.
41
Vgl. Baas / Kwakernaak (1977), S. 48 ff., Rommelfanger (1994), S. 79.

KAPITEL 3 FUZZY-MENGEN
37
Fuzzy-Menge mit einer scharfen Zahl angesehen werden. Es ist:
~
R
~
>
( ~
A, y) =
~
R
~
>
( ~
A, y), ~
R
~
( ~
A, y) = ( ~
A, y),
~
R
~
>
( ~
A, y),
~
R
~
( ~
A, y)
=
( ~
A, y),
sup
xsupp( ~
A):
x>y
~
A
(x),
sup
xsupp( ~
A):
xy
~
A
(x)
(3.84)
Nat¨
urlich ist es auch m¨
oglich, umgekehrt eine unscharfe Kleiner-Gr¨
oßergleich-Relation
~
R
~
>
( ~
A, ~
B) zu definieren durch:
~
R
~
<
( ~
A, ~
B) :=
~
R
~
<
( ~
A, ~
B), ~
R
~
( ~
A, ~
B) := ( ~
A, ~
B),
~
R
~
<
( ~
A, ~
B),
~
R
~
( ~
A, ~
B)
=
( ~
A, ~
B),
sup
xsupp( ~
A),
ysupp( ~
B):
x<y
min
{
~
A
(x),
~
B
(y)
} , sup
xsupp( ~
A),
ysupp( ~
B):
xy
min
{
~
A
(x),
~
B
(y)
}
Ebenfalls mehrwertige Rangordnungen f¨
ur Paare von unscharfen Zahlen oder un-
scharfen Intervallen, welche große ¨
Ahlichkeit mit den hier vorgeschlagenen Relationen
aufweisen, werden von Dubois und Prade vorgestellt.
42
Diese Rangbeziehungen basieren
auf der von Zadeh eingef¨
uhrten M¨
oglichkeitstheorie
43
, in der die Zugeh¨
origkeitsfunkti-
on einer Fuzzy-Menge als M¨
oglichkeitdichte, d.h. als M¨
oglichkeit der Zugeh¨
origkeit zur
Fuzzy-Menge interpretiert wird, also
poss
~
A
(x) :=
~
A
(x)
x U.
Die M¨
oglichkeitstheorie ist ein Teilbereich der Fuzzy-Maß-Theorie. Als Mengenfunktion
interpretiert, also
P oss(
{x}) := poss(x) x U,
ist ein M¨
oglichkeitsmaß auf einer Grundmenge U gegeben durch die Eigenschaften:
44
(i)
P oss(
) = 0
(ii)
0
P oss(A) 1 A U (Nichtnegativit¨at)
(iii)
P oss(U) = 1 (Regularit¨
at)
(iv)
P oss (
i
I
A
i
) = sup
i
I
P oss(A
i
) (Fuzzy-Additivit¨
at)
Das zum M¨
oglichkeitsmaß P oss(.) duale Fuzzy-Maß ist gegeben durch
N ec(A) := 1
- P oss(A
C
)
A U,
wobei A
C
das Komplement U
\A von A ist, und heißt Notwendigkeitsmaß. Es hat die
Eigenschaften:
45
42
Vgl. Dubois / Prade (1983), S. 189 ff.
43
Vgl. Zadeh (1978), S. 3 ff.
44
An sich sind M¨
oglichkeits- und Notwendigkeitsmaß nur f¨
ur messbare Mengen, also Elemente einer
-Algebra
A, definiert. Der Begriff der Messbarkeit wir aber erst in Kapitel 4 eingef¨uhrt.
45
Eine ausf¨
uhrliche Beschreibung der Fuzzy-Maß-Theorie findet sich in der Monographie von Wang
/ Klir (1992), auch bei Comploj (1994), S. 74 ff., findet sich eine Zusammenfassung zu Fuzzy-Maß-
Theorie und M¨
oglichkeitstheorie.

38
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(i)
N ec(
) = 0
(ii)
0
Nec(A) 1 A U
(iii)
N ec(U) = 1
(iv)
N ec (
i
I
A
i
) = inf
i
I
N ec(A
i
)
Aus diesen Fuzzy-Maßen definieren Dubois und Prade vier Rangordnungsbegriffe
ur reelle Fuzzy-Intervalle ~
A, ~
B
F(IR):
46
(i)
oglichkeit der Dominanz:
P oss( ~
A
~B) =
sup
x
supp( ~
A),y
supp(~B):xy
min
{
~
A
(x),
~
B
(y)
}
(ii)
oglichkeit der strikten Dominanz:
P oss( ~
A > ~
B) =
sup
x
supp( ~
A)
inf
y
supp(~B):yx
min
{
~
A
(x), 1
-
~
B
(y)
}
(iii)
Notwendigkeit der Dominanz:
N ec( ~
A
~B) =
inf
x
supp( ~
A)
sup
y
supp(~B):yx
min
{1 -
~
A
(x),
~
B
(y)
}
(iv)
Notwendigkeit der strikten Dominanz:
N ec( ~
A > ~
B) = 1
-
sup
x
supp( ~
A),y
supp(~B):xy
min
{
~
A
(x),
~
B
(y)
}
Diese Rangrelationen werden von Dubois und Prade auch noch auf den allgemeineren
Fall von Vergleichen einer Fuzzy-Menge ~
A
i
mit den Fuzzy-Mengen ~
A
1
, ..., ~
A
i
-1
, ~
A
i+1
, ..., ~
A
n
erweitert.
47
Auf Basis der Isomorphie zwischen zuf¨
alligen Mengen und Fuzzy-Mengen
48
wur-
den von Chanas und anderen sogar acht verschiedene unscharfe Ordnungsrelationen
definiert.
49
Vorschl¨
age f¨
ur m¨
ogliche Rangordnungen zwischen unscharfen Zahlen auf Basis ih-
rer Entfernungen von vorgegebenen scharfen oder unscharfen Zahlen finden sich bei
Grzegorzewski
50
und bei Tran und anderen.
51
Ist zu zwei Fuzzy-Mengen ~
A, ~
B
F(IR)
eine reelle Fuzzy-Menge ~
L mit sup(supp(~
L))
min{inf(supp(~A)), inf(supp(~B))} gege-
ben, dann ist eine Ordnungsrelation >
~
L
gegeben durch
~
A >
~
L
~
B
d(~A, ~L) d(~B, ~L),
wobei d(.) eine Metrik im Sinne von Abschnitt 3.2.4 ist. Ebenso kann f¨ur eine reelle
Fuzzy-Menge ~
R mit inf(supp(~
L))
max{sup(supp(~A)), sup(supp(~B))} eine Ordnungs-
relation >
~
R
angegeben werden durch
~
A >
~
R
~
B
d(~A, ~R) d(~B, ~R).
Einige weitere Vorschl¨
age zur Verbesserung der vorgeschlagenen Ordnungsrelatio-
nen wurden immer wieder vorgebracht, auf welche hier nicht mehr eingegangen werden
soll.
52
46
Vgl. Dubois / Prade (1983), S. 189 ff.
47
Vgl. Dubois / Pread (1983), S. 195 ff.
48
Vgl. Abschnitt 3.3.3.
49
Vgl. Chanas / Delgado / Verdegay / Vila (1993), S. 204 ff, Chanas / Zieli´
nski (1999), S. 191 ff.
50
Vgl Grzegorzewski (1998), S. 87 ff.
51
Vgl. Tran / Duckstein (2002b), S. 331 ff., Tran / Knight et al (2002), S. 850 ff.
52
Vgl. die Zusammenfassung von Rommelfanger (1994), S. 79 ff.

KAPITEL 3 FUZZY-MENGEN
39
Die zweite Gruppe von Rangordnungsverfahren f¨
ur Fuzzy-Mengen wendet die ge-
ohnliche Ordnungsrelation ">" auf defuzzifizierte Werte von Fuzzy-Mengen an. Die
wichtigsten Defuzzifikationsverfahren werden im folgenden Abschnitt 3.2.7 besprochen.
Dennoch ist an dieser Stelle anzumerken, dass die Defuzzifikationsverfahren zwar ange-
wendet, aber nicht als solche bezeichnet werden. So wird etwa die Rangordnungsmetho-
de, welche Fuzzy-Mengen nach der Schwerpunktmethode defuzzifiziert und dann die
Schwerpunkte der Gr¨
oße nach ordnet, als "Erwartungswert"-Verfahren bezeichnet.
53
Ein anderes Verfahren, welches ebenfalls defuzzifizierte Werte betrachtet, aller-
dings eine Defuzzifikationsmethode anwendet, welche in der Literatur nicht als solche
vorgeschlagen wird, ist das -Niveau-Maximum-Verfahren (Verfahren von Adamo).
54
Nach diesem Vorschlag soll f¨
ur ein vom Entscheidungstr¨
ager vorzuschlagendes Niveau
[0, 1] f¨ur jede Fuzzy-Zahl ~A F(U), U) IR, der Wert
a
= max
{x supp(~A)|
~
A
(x)
}
bestimmt werden. Die Rangfolge der a
der Fuzzy-Zahlen soll auch als Rangfolge f¨
ur
die Fuzzy-Zahlen selbst herangezogen werden. An diesem Verfahren l¨
asst sich kritisie-
ren, dass die ermittelte Rangfolge allzu sehr von dem willk¨
urlich gew¨
ahlten Niveau
abh¨
angt, und außerdem nur ein einziger Zugeh¨
origkeitswert, n¨
amlich die Obergrenze
des gew¨
ahlten -Schnitts, ber¨
ucksichtigt wird.
55
Diese beiden Kritikpunkte greift Rommelfanger bei der Entwicklung seines Niveau-
ebenen-Rangordnungsverfahrens auf. Dabei wird ein Defuzzifikationsverfahren ange-
wendet, welches bei Rommelfanger nicht als solches beschrieben wird, aber durchaus
in die Liste m¨
oglicher Defuzzifikationsverfahren aufzunehmen ist, n¨
amlich das Niveau-
ebenenverfahren.
56
Die Defuzzifikation nach der Niveauebenenmethode, wird daher im
folgenden Abschnitt 3.2.7 unter den Defuzzifikationsverfahren Aufnahme finden. Viertl
und Hareter schlagen eine Rangordnung nach dem Steiner'schen Punkt vor,
57
der eben-
falls unter den Defuzzifikationsmethoden im n¨
achsten Abschnitt erw¨
ahnt werden wird.
Das Rangordnungsverfahren nach dem Steiner'schen Punkt ist ein Spezialfall des
-Durchschnitts-Rangordnungsverfahrens, welches von Campos und Gonz´
alez vorge-
schlagen wurde. Der -Durchschnitt (-average) einer Fuzzy-Zahl ~
A, deren -Schnitte
abgeschlossenene Intervalle [a
, a
] auf IR sind, ist gegeben durch
AoA( ~
A) :=
1
0
(a
+ (1
- )a
) d,
ur einen Parameter
[0, 1], der vom Entscheidungstr¨ager aufgrund seiner subjekti-
ven Einsch¨
atzung zu w¨
ahlen ist.
58
53
Vgl. Rommelfanger (1994), S. 83. Eine weitere "Erwartungswert"-Defuzzifikationsmethode zur
Bestimmung von Rangordnungen schl¨
agt Grzegorzewski (1998), S. 91 f., vor.
54
Vgl. Adamo (1980), S. 208 ff., Rommelfanger (1994), S. 84.
55
Vgl. Rommelfanger (1994), S. 84.
56
Vgl. Rommelfanger (1994), S. 84 f., Yao / Wu (2000), S. 275 ff.
57
Vgl. Viertl / Hareter (2006), S. 99 f.
58
Vgl. Campos / Gonz´
alez (1989), S. 145 ff.

40
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
3.2.7
Defuzzifikation von Fuzzy-Mengen
In zahlreichen Anwendungen der Fuzzy-Logik wird im Anschluss an die Bestimmung
einer unscharfen Ausgangsgr¨
oße aus unscharfen Eingangsgr¨
oßen auch noch eine scharfe
Ausgangsgr¨
oße berechnet, dieser Schritt wird als Defuzzifikation bezeichnet. Dabei wird
versucht, m¨
oglichst viel Information der unscharfen Ausgangsgr¨
oße auf einen einzigen
scharfen Wert zu verdichten,
59
eine Defuzzifikation ohne Informationsverlust ist aber
nicht m¨
oglich.
60
Sofern es um unscharfe Zwischenergebnisse geht, welche in weitere
Berechnungsverfahren Eingang finden, sollte aber von einer Defuzzifikation Abstand
genommen werden, da dadurch die Errungenschaft der Fuzzy-Mengen-Theorie, die in
der Ber¨
ucksichtigung von Unsch¨
arfe besteht, wieder verloren geht.
61
Implizit liegt jeder
scharfen Angabe eines Messergebnisses ein Defuzzifikationsschritt zugrunde, da die
meisten Vorg¨
ange ja tats¨
achlich unscharf sind.
Da aber manche Rechenoperationen f¨
ur Fuzzy-Mengen nur eingeschr¨
ankt (wie et-
wa Rangordnungsverfahren, vgl. Abschnitt 3.2.6) oder gar nicht (wie etwa die Be-
stimmung von Stichprobenumf¨
angen in sequentiellen statistischen Entscheidungsver-
fahren, vgl. Abschnitt 8.1.1) durchf¨
uhrbar sind, sind Defuzzifikationsmethoden erfor-
derlich. Auch um den Schritt, der einer klassischen scharfen Modellierung von unscharf
messbaren Vorg¨
angen bewusst zu machen, ist die Auseinandersetzung mit Defuzzifika-
tionsverfahren hilfreich. Hier soll auf die Schwerpunktmethode und auf die Maximum-
Mittelwertmethode, welche ihrerseits als Spezialfall der -Niveauebenenmethode an-
zusehen ist, eingegangen werden.
Die bekannteste und gebr¨
auchlichste Defuzzifikationsmethode ist die Schwerpunkt-
methode, welche auch als Fl¨
achenschwerpunktmethode oder Center of Gravity-Methode
(CoG-Methode) bezeichnet wird. Bei der Schwerpunktmethode wird als Repr¨
asentant
der Fuzzy-Menge der Abszissenwert des Schwerpunkts der Fl¨
ache unter dem Graphen
der Zugeh¨
origkeitsfunktion der Fuzzy-Menge gew¨
ahlt. Bei der Bestimmung dieses Wer-
tes ist zwischen Fuzzy-Mengen auf kontinuierlichen und auf diskreten Universen zu
unterscheiden.
(i) F¨
ur eine Fuzzy-Menge ~
A
F(U) auf einem ¨uberabz¨ahlbaren kontinuierlichen
Universum, etwa U = IR, wird der Schwerpunkt (Center of Gravity) definiert
nach
CoG( ~
A) =
U
x
·
~
A
(x)dx
U
~
A
(x)dx
(3.85)
bzw.
CoG( ~
A) =
supp( ~
A)
x
·
~
A
(x)dx
supp( ~
A)
~
A
(x)dx
,
sofern die Zugeh¨
origkeitsfunktion der Fuzzy-Menge eine integrierbare Funktion
59
Vgl. Kahlert / Frank (1993), S. 89 ff., Jaanineh / Maijohann (1996), S.262 ff.
60
Vgl. M¨
oller / Beer (2004), S. 41.
61
Vgl. auch Rommelfanger (1994), S. 165.

KAPITEL 3 FUZZY-MENGEN
41
ist.
62
Im Falle eine st¨
uckweise stetigen Zugeh¨
origkeitsfunktion mit n integrierba-
ren Teilst¨
ucken zwischen x
i
-1
und x
i
, i = 1, ..., n, wird (3.85) ersetzt durch
CoG( ~
A) =
n
i=1
x
i
x
i-1
x
·
~
A
(x)dx
n
i=1
x
i
x
i-1
~
A
(x)dx
.
(ii) F¨
ur eine Fuzzy-Menge ~
A
F(U) auf einem abz¨ahlbaren diskreten Universum,
etwa U = IN, ZZ, wird der Schwerpunkt (Center of Gravity) definiert nach
CoG( ~
A) =
x
U
x
·
~
A
(x)
x
U
~
A
(x)
(3.86)
bzw.
CoG( ~
A) =
x
supp( ~
A)
x
·
~
A
(x)
x
supp( ~
A)
~
A
(x)
.
Da die (x,
~
A
(x))
F(U) Fuzzy-Singletons nach (3.16) sind, wird die Metho-
de (3.86) auch als Schwerpunktmethode f¨
ur Singletons bezeichnet. Im Falle von
Problemen bei der Integration von
U
~
A
(x)dx oder
U
x
·
~
A
(x)dx in (3.85) wird
(3.86) auch als Approximation angewendet.
63
Kritisiert wird an der Schwerpunkt-Defuzzifikation vor allem, dass sie eine starke Ori-
entierung in Richtung der Mitte der defuzzifizierten Fuzzy-Menge aufweist, Randberei-
che bleiben weniger ber¨
ucksichtigt. Daf¨
ur wurden Korrekturverfahren vorgeschlagen,
auf die hier nicht n¨
aher eingegangen werden soll.
64
Neben der Schwerpunktmethode in diversen Auspr¨
agungen wird auch die Maximum-
Mittelwert-Methode oder Mean of Maximum-Methode (MoM-Methode) vorgeschlagen.
Bei dieser Methode wird als verdichteter Wert der Fuzzy-Menge das arithmetische
Mittel aus allen Werten der Fuzzy-Menge ~
A mit dem h¨
ochsten Zugeh¨
origkeitsgrad
angegeben:
65
MoM( ~
A) =
U
x
· 1
{xU|
~
A
(x)=hgt( ~
A)
}
(x)dx
U
1
{xU|
~
A
(x)=hgt( ~
A)
}
(x)dx
=
~
A
(x)=hgt( ~
A)
x dx
~
A
(x)=hgt( ~
A)
dx
(3.87)
wobei hgt( ~
A) die H¨
ohe von ~
A (3.4) ist. Falls ~
A nach (3.13) normiert ist mit hgt( ~
A) = 1,
dann ist:
MoM( ~
A) =
U
x
· 1
{xU|
~
A
(x)=1
}
(x)dx
U
1
{xU|
~
A
(x)=1
}
(x)dx
=
~
A
(x)=1
x dx
~
A
(x)=1
dx
62
Vgl. Kahlert / Frank (1993), S. 98 ff., Jaanineh / Maijohann (1996), S. 265 ff., M¨
oller / Beer
(2004), S. 38.
63
Vgl. Kahlert / Frank (1993), S. 101 f., Jaanineh / Maijohann (1996), S. 273 f.
64
Vgl. Kahlert / Frank (1993), S. 103 f., Jaanineh / Maijohann (1996), S. 271 ff.
65
Vgl. Kahlert / Frank (1993), S. 93 ff., Jaanineh / Maijohann (1996), S. 263 ff.

42
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Ist ~
A eine Fuzzy-Menge auf einem abz¨
ahlbaren, diskreten Universum, so reduziert sich
der Maximum-Mittelwert auf
MoM( ~
A) =
x
U
x
· 1
{xU|
~
A
(x)=hgt( ~
A)
}
(x)
x
U
1
{xU|
~
A
(x)=hgt( ~
A)
}
(x)
=
~
A
(x)=hgt( ~
A)
x
~
A
(x)=hgt( ~
A)
1
.
Im Spezialfall einer konvexen Fuzzy-Menge ~
A nach (3.14) reduziert sich der Maximum-
Mittelwert auf
MoM( ~
A) =
a
hgt( ~
A)
+ a
hgt( ~
A)
2
.
Ist ~
A unimodal nach (3.15), so reduziert sich die Maximum-Mittelwert-Methode auf
die Maxium-Methode
66
MoM( ~
A) = a
hgt( ~
A)
.
Kritisieren l¨
asst sich an diesem Verfahren insbesondere, dass nur Werte mit maxi-
malem Zugeh¨
origkeitsgrad in den verdichteten Wert Eingang finden, Werte mit ge-
ringf¨
ugig niedrigerem Zugeh¨
origkeitsgrad bleiben unber¨
ucksichtigt. Außerdem wird der
Zugeh¨
origkeitsgrad der zu mittelnden Werte selbst nicht ber¨
ucksichtigt.
67
Ein Verfahren, welches nur zur Bildung von Rangordnungen zwischen Fuzzy-Mengen
vorgeschlagen wurde,
68
welches aber als Defuzzifikationsverfahren anzusehen ist,
69
ist
das Niveauebenenverfahren, welches auch als Mean of Alpha-Levels-Verfahren (MoA-
Methode) bezeichnet werden kann. Insbesondere wird bei diesem Verfahren der erste
Kritikpunkt am Maximum-Mittelwert-Verfahren aufgegriffen. F¨
ur r auszuw¨
ahlende Ni-
veaus
1
, ...,
r
, r
IN wird f¨ur jede -Niveaumenge A
i
, i = 1, ..., r der Fuzzy-Menge
~
A eine Funktion MoA
i
(.) berechnet, welche alle Punkte ber¨
ucksichtigt, an denen die
Zugeh¨
origkeitsfunktion gerade den Wert
~
A
(x) =
i
annimmt. Da das Verfahren all-
gemein auch f¨
ur nicht-konvexe Fuzzy-Mengen in
F
ccb
(IR) anwendbar sein soll, wird die
Funktion MoA
i
(.) in der folgenden Form ausgedr¨
uckt:
MoA
i
( ~
A) =
a
i(1)
+a
i(1)
2
(a
i
(1)
- a
i
(1)
) + ... +
a
i(k)
+a
i(k)
2
(a
i
(k)
- a
i
(k)
)
(a
i
(1)
- a
i
(1)
) + ... + (a
i
(k)
- a
i
(k)
)
,
(3.88)
wobei wegen ~
A
F
ccb
(IR) unterstellt wird, dass A
i
= [a
i
(1)
, a
i
(1)
]
...[a
i
(k)
, a
i
(k)
].
ur den Spezialfall eines konvexen ~
A, bei dem alle -Schnitte Intervalle A
i
= [a
i
, a
i
]
auf U
IR konvex sind, hat MoA
i
( ~
A) die folgende Gestalt:
MoA
i
( ~
A) =
a
i
+ a
i
2
Die Funktion MoA
i
(.) l¨
asst sich somit beschreiben als das mit den L¨
angen der Teil-
intervalle gewogene arithmetische Mittel aus den arithmetischen Mitteln aus (Teil-)
66
Vgl. Kahlert / Frank (1993), S. 89 ff., Jaanineh / Maijohann (1996), S. 262 f.
67
Vgl. Kahlert / Frank (1993), S. 95, Jaanineh / Maijohann (1996), S. 264.
68
Vgl. Rommelfanger (1994), S. 84 f.
69
Etwa bei M¨
oller / Beer (2004), S. 39.

KAPITEL 3 FUZZY-MENGEN
43
Intervallunter- und -obergrenze. Den Wert, durch den schließlich die Fuzzy-Menge re-
pr¨
asentiert werden soll, erh¨
alt man durch abermalige Bildung des arithmetischen Mit-
tels aus den MoA
i
( ~
A):
MoA( ~
A) =
1
r
r
i=1
MoA
i
( ~
A)
(3.89)
ur Zwecke der Rangordnung liefern bereits wenige
70
-Niveaus gute Ergebnisse. Bei
der Berechnung des Steiner'schen Punkts einer unscharfen Zahl kommt ein Integralan-
satz, der unendlich viele -Niveaus ber¨
ucksichtigt, zur Anwendung:
71
MoA( ~
A) =
1
0
MoA
( ~
A)d
(3.90)
Gegen¨
uber der Maximum-Mittelwert-Methode weist die Niveauebenenmethode den
Vorteil auf, dass mehrere -Niveaus ber¨
ucksichtigt werden. Nicht ins Kalk¨
ul einbezogen
werden die -Werte selbst. Dieses Manko l¨
asst sich durch den folgenden Korrekturan-
satz beheben:
CoA( ~
A) =
r
i=1
i
· MoA
i
( ~
A)
r
i=1
i
(3.91)
Da die vorgeschlagene Methode im Grenzfall unendlich vieler einbezogener -Niveaus
CoA( ~
A) =
1
0
· MoA
( ~
A)d
1
0
d
(3.92)
einem vertikal gebildeten Schwerpunkt entspricht, soll diese Methode auch als Niveau-
Ebenen-Schwerpunktmethode oder Center of Alpha-Levels-Methode (CoA-Methode)
bezeichnet werden.
3.3
Konstruktion von Fuzzy-Mengen
In den bisherigen Ausf¨
uhrungen wurde stets von bereits gegebenen Fuzzy-Mengen mit
fix vorgegebenen Zugeh¨
origkeitsfunktionen ausgegangen, auf welche bestimmte Ope-
rationen angewendet wurden. Die Frage, wie die Zugeh¨
origkeitsgrade der einzelnen
Elemente zur unscharfen Menge zustande kommen, wurde nicht aufgeworfen. Mit der
Frage nach der Konstruktion der Zugeh¨
origkeitsfunktion von Fuzzy-Mengen besch¨
aftigt
sich der folgende Abschnitt. Insbesondere wird auf die Darstellung der objektiv messbar
unscharfen H¨
ohe von Flutwellen und auf die subjektiv unscharfe A-priori-Einsch¨
atzung
der durchschnittlichen Anzahl von Flutwellen kritischer H¨
ohe und das ebenso subjektiv
zu beurteilende Gewicht dieser Information eingegangen.
72
70
Rommelfanger (1994), S. 85, schl¨
agt die drei -Niveaus = 0.3, 0.6, 0.9 vor, Hauke (1998), S.128,
spricht von guten Ergebnissen bei zehn -Niveaus.
71
Vgl. Yager (1981), S. 144 f., Viertl / Hareter (2006), S. 99 f.
72
Einige Methoden zur Beschreibung von unscharfen Sachverhalten werden bei M¨
oller / Beer (2004),
S. 90 ff., beschrieben.

44
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
3.3.1
Unscharfe Zugeh¨
origkeit durch physikalische
Eigenschaften und charakteristische Funktion
unscharfer Randpunkte
Zur Formulierung des Modells f¨
ur das Ausgangsproblem, wird der oberen Rand einer
Flutwelle genauer betrachtet. Die Abbildung 3.4 zeigt den obersten Teil der Flutwelle
von Abbildung 2.3.
Abbildung 3.4: Flutwelle und ihr oberer Rand
Es zeigt sich deutlich, dass eine Flutwelle keine scharfe Abgrenzung nach oben hin
hat. Aufgrund der sich nach oben hin verringernden Wassermenge geht die Flutwelle
nach oben hin fließend in die dar¨
uber befindliche Luft ¨
uber. Die H¨
ohe einer Flutwelle
kann keine scharfe Gr¨
oße sein. Die Abbildung 3.4 sieht aus wie ein Grautonbild im Sinne
von Abschnitt 3.2.1 zur Darstellung einer zweidimensionalen Fuzzy-Menge (Abbildung
3.3).
73
In Abschnitt 3.2.1 wurden die Regeln zur ¨
Ubersetzung einer unscharfen Menge
in ein Grautonbild angegeben. Die Vorschrift besagt, dass jedem Punkt mit einem
bestimmten Zugeh¨
origkeitsgrad zur Fuzzy-Menge ein Grauwert zugeordnet wird. Es
handelt sich dabei also um eine Abbildung des Intervalls [0, 1] in das Grauwertband
[weiß, schwarz]:
gray : [0, 1]
[weiß, schwarz]
gray()
73
Grautonbilder und daraus abgeleitete Fuzzy-Mengen sind eine h¨
aufig verwendete Methode zur
Beschreibung von unscharfen ¨
Uberg¨
angen in nat¨
urlichen Umgebungen, insbesondere kommen Fuzzy-
Methoden bei Geoinformationssystemen h¨
aufig zur Anwendung.
Vgl. etwa Fetz / Hofmeister et al. (1997), Fetz / J¨
ager et al. (1999), Oberguggenberger / Fetz /
Pittschmann (2000), Wang / Hall (1996), Peyke / Wolf (1999), ¨
Ozdamar / Demirhan / ¨
Ozpinar
(1999), Dai / Zong / Tang (2002), Jiang / Eastman (2000) Wagner (2003), S. 83 ff., Rao / Srinivas
(2006).

KAPITEL 3 FUZZY-MENGEN
45
Geht man den umgekehrten Weg und interpretiert man ein Grautonbild als zweidi-
mensionale Fuzzy-Menge ~
A, so wird dem Punkt (x, y) als Zugeh¨
origkeitswert
~
A
(x, y)
die Farbintensit¨
at in (x, y) zugeordnet.
74
Da durch gray(.) jedem
[0, 1] genau
ein Grautonwert zugeordnet wird (Injektivit¨
at von gray) und das ganze Grautonband
getroffen wird (Surjektivit¨
at von gray(.)), ist gray(.) eine Bijektion mit der Umkehr-
abbildung:
gray
-1
: [weiß, schwarz]
[0, 1]
grau
gray
-1
(grau) =:
Grau
(grau)
wobei grau((x, y)) die Grauintensit¨
at im Punkt (x, y)
supp(~A) ist. Daher ergibt sich
die Fuzzy-Menge
Grau =
x,
Grau
(x, y)
Grau
(x, y) = gray
-1
(grau((x, y))) .
Um aus dieser zweidimensionalen Fuzzy-Menge Grau eine unscharfe H¨
ohe der Flut-
welle ableiten zu k¨
onnen, m¨
ussen noch alle Punkte, welche vertikal auf der gleichen
ohe liegen, horizontal auf einen einzigen Punkt projiziert werden. Zwei Prozeduren
kommen daf¨
ur in Frage:
Definition: Es liegt eine zweidimensionale Fuzzy-Menge Grau auf U
× IR
+
mit der
Zugeh¨
origkeitsfunktion
Grau
(., .) : U
× IR
+
[0, 1] ,(x, h)
Grau
(x, h) vor. U
IR
ist dabei (ein Teil-Universum von) IR.
(i) Die Abbildung
pr
sup
:
F(U × IR
+
)
F(IR
+
)
Grau
pr
sup
(Grau) =: PrGr
sup
(3.93)
mit
PrGr
sup
(h) := sup
x
U
Grau
(x, h)
(3.94)
heißt Projektion nach der Supremumsmethode.
(ii) Die Abbildung
pr
wsum
:
F(U × IR
+
)
F(IR
+
)
Grau
pr
wsum
(Grau) =: PrGr
wsum
(3.95)
mit
PrGr
wsum
(h) :=
xU
Grau
(x,h)
sup
hIR xU
Grau
(x,h)
falls U abz¨
ahlbar
U
Grau
(x,h)dx
sup
hIR U
Grau
(x,h)dx
falls U ¨
uberabz¨
ahlbar
(3.96)
heißt Projektion nach der gewichteten Summe.
74
Zur Beschreibung von Grautonbildern durch Fuzzy-Mengen, vgl. etwa Viertl (1997), S. 547 ff.,
Viertl (2002d), S. 199 f., Viertl / Hareter (2006), S. 3 und S. 21, Bandemer (1996), S. 585 ff., Bandemer
/ Lorenz (1998), S. 29 ff., Mignotte / Collet / P´
erez / Bouthemy (2000), S. 4 ff.

46
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ahrend die Projektion nach der Supremumsmethode von einem "R¨
ontgenbild" aus-
geht, bei dem jeweils nur der Punkt mit der h¨
ochsten Farbdichte den Lichtabsorpti-
onsgrad bestimmt, absorbieren bei der Projektion nach der gewichteten Summe alle
Punkte Licht entsprechend ihrer Farbdichte, die Division durch das Maximum erfolg
ausschließlich zu Normierungszwecken. Die Projektion nach der Supremumsmethode
ist im Allgemeinen sehr leicht zu bestimmen, w¨
ahrend bei der Projektion nach der ge-
wichteten Summe der Rechenaufwand sehr hoch ist. Als weiterer Vorteil der Projektion
nach der Supremumsmethode l¨
asst sich anf¨
uhren, dass der Punkt mit der maximalen
Farbdichte jedes H¨
ohenpunktes, der den gef¨
ahrlichsten Aspekt der Flutwelle auf jedem
ohenpunkt darstellt, in die weiteren Berechnungen Eingang findet, w¨
ahrend es als
Nachteil anzusehen ist, dass zwischen H¨
ohenwerten, bei denen nur ein einziger Punkt
die Dichte 1 aufweist, und H¨
ohenwerten, auf denen alle Punkte die Dichte 1 aufweisen,
nicht differenziert wird. Im Allgemeinen wird man sich aber mit der Projektion nach
der Supremumsmethode zufrieden geben.
Durch die Projektion erh¨
alt man das in der Abbildung 3.5 dargestellte Bild als
Grautonbild bzw. Fuzzy-Menge. Die Fuzzy-Menge PrGr beschreibt die (unscharfe) Zu-
geh¨
origkeit eines H¨
ohenwertes zur Flutwelle.
Abbildung 3.5: Grautonbild bzw. Fuzzy-Menge der auf die H¨
ohe projizierten Flutwelle
Um die unscharfe H¨
ohe einer Flutwelle bestimmen zu k¨
onnen, muss aus der Fuzzy-
Menge der unscharfen Zugeh¨
origkeit der H¨
ohenpunkte PrGr noch der unscharfe Rand-
punkt bestimmt werden. Dazu eignet sich einerseits das von Viertl
75
entwickelte Kon-
75
Vgl. Viertl (1992), S. 122 f., Viertl (1996), S. 23 ff., Viertl (1997), S. 547 f., Viertl (2002d), S. 199
f., vgl. auch Comploj (1994), S. 72 f. und Comploj (2002), S. 37 f. Viertl entwickelte das Konzept ur-
spr¨
unglich zur Berechnung der Zugeh¨
origkeitsfunktionen von unscharfen technischen und biologischen
Lebensdauern, wendet es aber auch zur Bestimmung von unscharfen R¨
andern von Bereichen unter-
schiedlicher Lichtintensit¨
at (vgl. Viertl (2002d), S., 199 f.) bzw. auch zur Bestimmung des unscharfen
Wasserstandes eines Flusses (vgl. Viertl (1997), S. 546 f., Viertl (2004), S. 647 ff.) an.

KAPITEL 3 FUZZY-MENGEN
47
zept der Steigungsmethode, andererseits kann der unscharfe Randpunkt nach der Kom-
plementmethode bestimmt werden.
Definition: Gegeben ist eine reelle Fuzzy-Menge PrGr
F(IR).
(i) Die Fuzzy-Menge auf
F(IR)
~
H
St
:=
h,
~
H
St
(h)
h
IR
+
~
H
St
(h) =
d
PrGr
(h)
dh
· min
h
IR
+
d
PrGr
(h)
dh
-1
=
d
PrGr
(h)
dh
· max
h
IR
+
d
PrGr
(h)
dh
-1
=
d
PrGr
(h)
dh
·sig
d
PrGr
(h)
dh
· max
h
IR
+
d
PrGr
(h)
dh
-1
(3.97)
heißt unscharfer Randpunkt von PrGr nach der Steigungsmethode.
Die Zugeh¨
origkeitsfunktion der unscharfen H¨
ohe der Flutwelle ~
H
St
nach der Stei-
gungsmethode erh¨
alt man also durch Differenzieren der Zugeh¨
origkeitsfunktion
der H¨
ohenpunkte und Multiplikation mit -1 (da die Ableitung negativ ist) und
anschließende Normierung durch Division durch ihr betragsm¨
aßiges Maximum.
Graphisch wird die Herleitung der charakterisierenden Funktion der unscharfen
ohe nach der Steigungsmethode durch in der Abbildung 3.6 veranschaulicht.
Abbildung 3.6: Unscharfe H¨
ohe einer Flutwelle nach der Steigungsmethode

48
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(ii) Die Fuzzy-Menge auf
F(IR)
~
H
Ko
:=
h,
~
H
Ko
(h)
~
H
Ko
(h) = 2
· min
Prgr
(h), 1
-
Prgr
(h)
=
2
· (1 -
Prgr
(h))
ur
Prgr
(h) > 1
-
Prgr
(h)
1
ur
Prgr
(h) = 1
-
Prgr
(h) =
1
2
2
·
Prgr
(h)
ur
Prgr
(h) < 1
-
Prgr
(h)
= 2
· Prgr Prgr
C
(3.98)
heißt unscharfer Randpunkt von Prgr nach der Komplementmethode.
Die Zugeh¨
origkeitsfunktion der unscharfen H¨
ohe der Flutwelle ~
H
Ko
nach der Kom-
plementmethode erh¨
alt man also als die Zugeh¨
origkeitsfunktion des Durchschnitts
aus der Fuzzy-Menge der H¨
ohenwerte der Flutwelle und deren Komplement, wel-
che zu Normierungszwecken noch mit 2 multipliziert wird.
Graphisch wird die Herleitung der charakterisierenden Funktion der unscharfen
ohe nach der Komplementmethode durch in der Abbildung 3.7 veranschaulicht.
Abbildung 3.7: Unscharfe H¨
ohe einer Flutwelle nach der Komplementmethode
3.3.2
Unscharfe Z¨
ahlung von unscharfen Ereignissen
Zur Modellierung des Ausgangsproblems muss nach der Definition der unscharfen H¨
ohe
einer Flutwelle noch eine Prozedur gefunden werden, welche es erlaubt, die unschar-
fe Anzahl der Flutwellen kritischer H¨
ohe zu bestimmen. Das Problem kann in zwei
Teilprobleme zerlegt werden, zun¨
achst muss festgestellt werden, ob eine Flutwelle un-
scharfer H¨
ohe den kritischen Punkt unscharf erreicht oder nicht, anschließend muss
eine Aggregation der unscharfen Erreichung der kritischen H¨
ohe durch die einzelnen
Flutwellen stattfinden.

KAPITEL 3 FUZZY-MENGEN
49
Betrachtet man die kritische H¨
ohe als scharfen Punkt h
kr
auf der H¨
ohenskala, so
ergibt sich aus einer Abbildung der unscharfen H¨
ohen und des kritischen Punktes auf
der H¨
ohenskala das in Abbildung 3.8 dargestellte Bild.
Abbildung 3.8: Unscharfe H¨
ohe einer Flutwelle und kritische H¨
ohe
Es muss nun ein Konzept zur Klassifizierung von Flutwellen scharfer H¨
ohe in kriti-
sche und unkritische Flutwellen gefunden werden, das auf Flutwellen unscharfer H¨
ohe
derart erweiterbar ist, dass eine unscharfe Z¨
ahlung der unscharf kritischen Flutwellen
unscharfer H¨
ohe m¨
oglich wird. Im Fall einer scharfen H¨
ohe liegt es nahe, eine Funktion
kr : IR
{0, 1}
h
kr(h) =
0 falls h < h
kr
1 falls h
h
kr
zur Klassifizierung in kritische und unkritische Flutwellen heranzuziehen. Wendet man
die Abbildung kr(.) auf unscharfe H¨
ohen ~
H F(IR) an, so ergibt sich die Fuzzy-
Extension kr(.) von kr(.)
kr :
F(IR) F({0, 1})
~
H
kr(~H)
(3.99)
mit
kr( ~
H)
(e) =
sup
hsupp(~
H):
kr(h)=e
~
H
(h) =
sup
h<h
kr
~
H
(h) f¨
ur e = 0
sup
h
h
kr
~
H
(h) f¨
ur e = 1
(3.100)
ur e
{0, 1}. Die in (3.99)-(3.100) definierte Abbildung kr(.) l¨asst sich auch interpre-
tieren als Abbildung einer unscharfen Kleiner-Gr¨
ossergleich-Relation ~
R
~
<
( ~
H, h
kr
) auf
eine Fuzzy-Menge kr( ~
H) F({0, 1}) mit
kr( ~
H)
(0) =
~
R
~
<
( ~
H, h
kr
) =
sup
hsupp(~
H):
h<hkr
~
H
(h),
kr( ~
H)
(1) =
~
R
~
( ~
H, h
kr
) =
sup
hsupp(~
H):
hhkr
~
H
(h)
(3.101)

50
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Graphisch l¨
asst sich die Abbildung kr(.), wie in der Abbildung 3.9 dargestellt, veran-
schaulichen.
Abbildung 3.9: Unscharfe Einordnung einer Flutwelle unscharfer H¨
ohe
Die Z¨
ahlung der Flutwellen scharfer H¨
ohe, welche den kritischen Punkt erreichen
bzw. ¨
uberschreiten, kann als Addition der Funktionswerte von kr(.) aufgefasst werden.
ur eine Folge von Flutwellen mit H¨
ohen h
1
, h
2
, ... = (h
k
)
k
IN
ergibt sich f¨
ur die Folge
der Anzahlen der Flutwellen kritischer H¨
ohe (x
k
)
k
IN
=
k
IN
kr(h
k
) =
k=1
kr(h
k
)
mit x
k
= kr(h
1
) + kr(h
2
) + ... + kr(h
k
) =
k
=1
kr(h
), x
k
IN k IN.
Dieses Konzept ist auf die unscharfen Werte der Fuzzy-Extension kr(.) erweiterbar.
Definition: Ist ~
E
1
, ~
E
2
, ... = (~
E
k
)
k
IN
, ~
E
k
F({0, 1}) k IN, eine Folge von unscharfen
Mengen ¨
uber
{0, 1}, dann heißt die unscharfe Reihe im Sinne von (3.74)
~
A
k
k
IN
=
k
=1
~
E
k
IN
=
k=1
~
E
k
= ~
E
1
~E
2
...
(3.102)
Folge der unscharfen Anzahlen der unscharfen Mengen, wobei ~
A
k
F(IN) k IN.
Durch (3.102) wird somit ein unscharfer Z¨
ahlprozess definiert.
ur die Anzahl der Flutwellen unscharf kritischer H¨
ohe nach dem Aufreten von k
Flutwellen insgesamt, unabh¨
angig von deren H¨
ohe, erh¨
alt man durch Anwendung von
(3.102) auf ( kr( ~
H
k
))
k
IN
:
~
A
k
= kr( ~
H
1
)
kr(~H
2
)
... kr(~H
k
) =
k
=1
kr( ~
H
)
(3.103)
ur k
IN.
Im Allgemeinen wird aber nicht die unscharfe Anzahl von Flutwellen kritischer
ohe nach k Flutwellen insgesamt interessieren, sondern die unscharfe Anzahl innerhalb
eines bestimmten Zeitraums. Liegen n relevante Zeitr¨
aume vor, und sind k
1
, k
2
, ..., k
n
die Anzahlen der Flutwellen, die sich unabh¨
angig von ihrer H¨
ohe, in den Zeitr¨
aumen

KAPITEL 3 FUZZY-MENGEN
51
1, 2, ..., n ereignet haben, dann bezeichnet
~
A
i
=
k
i
i
=1
i
kr( ~
H
i
) = kr( ~
H
1
i
)
kr(~H
2
i
)
... kr(~H
k
i
)
(3.104)
~
A
i
F(IN) i {1, ..., n}, n IN, die Anzahl der Flutwellen kritischer H¨ohe im i-ten
Zeitraum. (Durch die Notation
i
bzw. 1
i
, 2
i
, ... soll hervorgehoben werden, dass in
jeder Periode i mit der Z¨
ahlung neu begonnen wird.)
3.3.3
Unsch¨
arfe aufgrund subjektiver Einsch¨
atzung
Neben den eben beschrieben nicht exakt messbaren Sachverhalten in der Natur, die
durch unscharfe Zahlen in mathematische Modelle einfließen, sind oft auch Umst¨
ande
zu ber¨
ucksichtigen, die ausschließlich der subjektiven Einsch¨
atzung von Menschen ent-
springen.
76
Von besonderer Bedeutung ist Unsch¨
arfe aufgrund subjektiver Wahrneh-
mung bei der Analyse von sozialwissenschaftlichen Daten, doch auch bei naturwissen-
schaftlich-technischen Untersuchungen lassen sich Einsch¨
atzungen durch Experten oft
nicht vermeiden. Unsch¨
arfe durch subjektive Einsch¨
atzung kommt ¨
uberall dort zum
Tragen, wo nicht die Realit¨
at selbst, sondern der mit Begriffen verkn¨
upfte Vorstel-
lungsinhalt, die "reflektierte Realit¨
at",
77
zum Untersuchungsgegenstand wird.
In der Fallstudie des begleitenden Beispiels kommt durch menschliche Einsch¨
atzung
bedingte Unsch¨
arfe dann zum Tragen, wenn die erfahrungsm¨
aßige durchschnittliche
Anzahl von Flutwellen kritischer H¨
ohe als A-priori-Information, d.h. als Information
¨
uber die Sachlage vor Installation der Messvorrichtung, in die Beurteilung der Situati-
on einbezogen werden soll. Subjektive Unsch¨
arfe ist dabei sowohl bei der Frage nach
der Einsch¨
atzung der durchschnittlichen Anzahl der Flutwellen kritischer H¨
ohe pro
Jahr, als auch bei der Gewichtung dieser Information im Verh¨
altnis zu den tats¨
achlich
gemessenen Daten zu ber¨
ucksichtigen.
Meist wird man nicht genau sagen k¨
onnen, es w¨
aren eigentlich immer genau 9 Flut-
wellen kritischer H¨
ohe im Jahr, und diese Information w¨
are genau so viel wert, wie
Stichprobeninformation von 2 Jahren. Eher wird man eine vorsichtige Formulierung
ahlen, wie "ungef¨
ahr 9" Flutwellen oder "1-2 Jahre, aber eher 2". Zwei unterschied-
liche Verfahren, die beide die Meinungen mehrerer Experten auswerten, die sich zur
Bestimmung der Zugeh¨
origkeitsfunktion einer Fuzzy-Menge subjektiver Einsch¨
atzung
eignen, das frequentistische Verfahren und die sukzessive Informationsaggregation, sol-
len im Anschluss anhand der beiden subjektiven Sachverhalte im begleitenden Beispiel
vorgestellt werden.
78
76
Vgl etwa Viertl / Hareter (2006), S. 2 f. und S. 20.
77
Vgl. Kromrey (1998), S. 113, Mayntz / Holm / H¨
ubner (1978), S. 11 f.
78
Im Allgemeinen werden diese beiden Verfahren zur Konstruktion der Zugeh¨
origkeitsfunktionen
von linguistischen Variablen herangezogen. Als linguistische Variable bezeichnet man eine messbare
Gr¨
oße, welche mindestens zwei voneinander verschiedene Werte annehmen kann, und deren Werte
aufig oder ausschließlich mit linguistischen Umschreibungen anstatt mit Zahlen angegeben werden.
So kann der Blutdruck eines Menschen "hoch", ein Auto "schnell", der Himmel "wolkig" oder ein
Mann "groß" sein. Eingef¨
uhrt wurde der Begriff der linguistischen Variablen von Zadeh in Zadeh
(1975b) I,II,III. Eine ausf¨
uhrliche Darstellung zu linguistischen Variablen mit umfangreichen Angaben
zu weiterf¨
uhrender Literatur findet sich bei Comploj (2002), S. 23 ff.

52
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Das frequentistische Verfahren, auch Kontexmodell gnannt, soll zur Bestimmung
der unscharfen gesch¨
atzten durchschnittlichen Anzahl von Flutwellen kritischer H¨
ohe
im Jahr herangezogen werden. Das frequentistische Verfahren n¨
utzt die Isomorphie
zwischen zuf¨
alligen Mengen und unscharfen Mengen.
79
Eine genauere Darstellung von
zuf¨
alligen Mengen folgt in Abschnitt 4.1.1. Ist eine (endliche oder unendliche) Menge
von Experten, die alle eine Meinung hinsichtlich der durchschnittlichen Anzahl an
Flutwellen kritischer H¨
ohe haben, wobei diese Einsch¨
atzung ein reelles Intervall, oder
allgemeiner eine Teilmenge einer Grundmenge U ist, dann kann die Situation dargestellt
werden durch eine mengenwertige Abbildung
X :
P(U)
X().
(3.105)
Da die Auswahl der Experten zuf¨
allig erfolgt, und jeder Experte
mit einer
bestimmten Wahrscheinlichkeit P (
{}) zur Befragung herangezogen wird, ist auch
auch das Ergebnis der Befragung ein zuf¨
alliges, welches eine Wahrscheinlichkeitsvertei-
lung Q auf
P(U) hat. Die Abbildung (3.105) heißt zuf¨allige Menge. Die Realisationen
X()
P(U) der zuf¨alligen Menge X werden auch als Fokalmengen von X bezeichnet.
Es ist
80
Q(
{X}) = P
X
(
{X
-1
(X)
}) = P ({ |X() = X}).
Es kann f¨
ur jedes x
U die Wahrscheinlichkeit bestimmt werden, dass x Element
einer Fokalmenge X() der zuf¨
alligen Menge X ist. Es ist
Q (
{x X}) = P
X
(
{x X}) = P ({ |x X()})
ur x
U. Diese Wahrscheinlichkeit heißt (Einpunkt-)¨Uberdeckungswahrscheinlichkeit
von x durch X. Bestimmt man f¨
ur jedes x
U die ¨Uberdeckungswahrscheinlichkeit
von x durch die zuf¨
allige Menge X, so erh¨
alt man eine Funktion
: U
[0, 1]
x
(x) := Q ({x X}) = P
X
(
{x X}) ,
(3.106)
die Konturfunktion der zuf¨
alligen Menge X heißt. Aus der Konturfunktion ist eine
zuf¨
allige Menge im Allgemeinen nicht eindeutig rekonstruierbar.
Die Konturfunktion kann interpretiert werden als Zugeh¨
origkeitsfunktion einer
Fuzzy-Menge ~
A
X
, die als die von X induzierte Fuzzy-Menge bezeichnet wird.
81
Die
79
Bei Kruse / Getbhardt / Klawonn (1993), S. 43 ff., Borgelt / Kruse (1999), S. 370 ff., Borgelt /
Kruse (2002), S. 22 ff., wird auch von der epistemischen Interpretation von Fuzzy-Mengen gesprochen.
80
Eine allgemeinere exakte Definition des von der zuf¨
alligen Menge X induzierten Wahrscheinlich-
keitsmaßes wird in (4.3) in Abschnitt 4.1.1 vorgestellt.
81
Details und Beispiele zur Konstruktion von Fuzzy-Mengen, die von zuf¨
alligen Mengen induziert
sind, finden sich bei Comploj (1994), S. 101 ff., Comploj (2002), S. 25 ff., N¨
ather (1990b), S. 96
ff., Kruse / Gebhardt / Klawonn (1993), S. 43 ff. Weitere Details zu Analogien zwischen zuf¨
alligen
Mengen und Fuzzy-Mengen finden sich etwa bei Gil (1992), S. 311 ff., Li / Lee (1995), S. 546 ff., Li
(1997), S. 223 ff., Borgelt / Gebhardt / Kruse (1999), S. 375 ff., Goodman / Nguyen (2002), S. 3 ff.,
Couso / Montes / Gil (2002), S. 127 ff., Borgelt / Kruse (2002), S. 27 ff., Garcia / Kutalik / Cho /
Wolkenhauer (2003), S. 25 ff., Wagner (2003), S.61 ff.
Ein spezielles Verfahren zur frequentistischen Konstruktion von Zugeh¨
origkeitsfunktionen einer end-
lichen Anzahl von Fuzzy-Mengen, welche einer unscharfen Partition
N
angeh¨
oren, d.h. die Ortho-
gonalit¨
atseigenschaft
~
AN
~
A
(x) = 1
x U erf¨ullen (vgl. etwa Bandemer / N¨ather (1992), S. 14,
Comploj (2002), S. 97 f.), wird bei Tamaki / Kanagawa / Ohta (1998), S. 311 ff., vorgestellt.

KAPITEL 3 FUZZY-MENGEN
53
Zugeh¨
origkeitsfunktion von ~
A
X
ist gegeben durch:
~
A
X
: U
[0, 1]
x
~
A
X
(x) := (x) = P
X
(
{x X})
(3.107)
Werden nun n Experten
1
, ...,
n
nach ihrer Einsch¨
atzung der durchschnittlichen
Anzahl ¯
x der Flutwellen kritischer H¨
ohe im Jahr gefragt, so erh¨
alt man als Antworten
n Fokalmengen, d.h. Intervalle in IR
+
0
[x, x](
1
) =: [x
1
, x
1
], ... , [x, x](
1
) =: [x
n
, x
n
], die
nicht alle voneinander verschieden sein m¨
ussen, außerdem ist der Fall von Einpunktin-
tervallen mit x
j
= x
j
, d.h. [x, x](
j
) =
{x
j
} m¨oglich. Die aus der Stichprobe gesch¨atzte
Konturfunktion ^
von X lautet
^
: IR
+
0
[0, 1]
x
^
(x) =
1
n
card(
{j|x [x, x](
j
)
}).
(3.108)
Aus dieser gesch¨
atzten Konturfunktion kann nach (3.107) die Zugeh¨
origkeitsfunktion
einer (im Allgemeinen subnormalen) Fuzzy-Menge ~
A
X
abgeleitet werden. Durch Nor-
mierung, also Division der Zugeh¨
origkeitsfunktion
~
A
X
durch ihren Maximalwert, erh¨
alt
man die normale Fuzzy-Menge ~
A
Xnorm
mit
~
A
Xnorm
(x) =
~
A
X
(x)
max
x
U
~
A
X
(x)
.
Da die gesuchte Gr¨
oße eine Anzahl von Ereignissen ist, liegt es nahe nur nat¨
urliche
Zahlen f¨
ur ¯
x in Betracht zu ziehen. Das frequentistisch ermittelte unscharfe Ergebnis
¯
~
A aus der Expertenbefragung ist somit
¯
~
A = ~
A
Xnorm
IN
0
mit der Zugeh¨
origkeitsfunktion
¯
~
A
(x) =
~
A
Xnorm
(x)
· 1
IN
0
(x) =
~
A
X
(x)
max
x
U
~
A
X
(x)
· 1
IN
0
(x) =
^
(x)
max
x
U
^
(x)
· 1
IN
0
(x).
(3.109)
Mit dem Verfahren der sukzessiven Aggregation soll das unscharfe Gewicht ~
N, das
der Information aus der Einsch¨
atzung der Experten beigemessen werden soll, bestimmt
werden.
82
Es werden dabei zuerst Ober- und Untergrenze f¨
ur Tr¨
ager
co supp( ~
N) = (n
0
, n
0
)
und Kern
co ker( ~
N) = [n
1
, n
1
]
82
Dieses Verfahren wurde in Form eines Expertenkonsenses von Scheffels (1996), S. 70 ff., zur Bestim-
mung der Fuzzy-Mengen, welche die linguistischen Terme der Auspr¨
agungsst¨
arke von Unternehmens-
kennzahlen charakterisieren, vorgeschlagen. So kann etwa die Anlagenintensit¨
at eines Unternehmens
"niedrig", "durchschnittlich" oder "hoch" sein. Das Verfahren wird auch bei auch Pfeifer (1998), S.
49 ff., Rommelfanger (1997), S. 183 ff., Hauke (1998), S. 28 f., angef¨
uhrt. Vgl. auch Comploj (2002),
S. 51.

54
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
und nach und nach auch noch f¨
ur als wichtig angesehene -Niveaus
co N
= [n
, n
]
bestimmt. Vor allem werden im Allgemeinen die Cross-over-Punkte als wichtig ange-
sehen, d.h. jene Punkte, welche gerade den Akzeptanzgrad 0.5 haben:
co N
0.5
= [n
0.5
, n
0.5
]
ur den Verlauf der Zugeh¨
origkeitsfunktion zwischen den als wesentlich angesehenen
-Niveaus wird ein mit Hilfe von Distanzfunktionen
83
bestimmter Kurvenverlauf
84
vorgeschlagen.
85
Wichtige -Niveaus sind vor allem solche, an denen die Zugeh¨
origkeits-
funktion Knicke oder Sprungstellen aufweist. Die interpolierende Funktion soll dabei
"so einfach wie m¨
oglich und so ausdrucksf¨
ahig wie n¨
otig" sein.
86
Bei der Konstruktion
der unscharfen Menge sind neben Expertenmeinungen auch Maße zu Informationsge-
halt und Unsch¨
arfe von Fuzzy-Mengen von Bedeutung.
87
Wesentlicher Unterschied zum frequentistischen Verfahren ist, dass hier nicht einzel-
ne Experten befragt und deren Antworten dann empirisch-frequentistisch ausgewertet
werden, sondern es ist ein Konsens unter den Experten zu erzielen.
Wiederum kann, da ~
N eigentlich ein unscharfer Stichprobenumfang sein soll, eine
Einschr¨
ankung auf nat¨
urliche Zahlen vorgenommen werden, also der Durchschnitt
~
N = co ~
N
IN
83
Eine Distanzfunktion auf einer Menge U ist eine Abbildung d : U
× U IR
+
0
, (x, y)
d(x, y) mit
den Eigenschaften:
(i)
d(x, y)
0 x, y U (Nichtnegativit¨at)
(ii)
d(x, x) = 0
x U (Identit¨atseigenschaft)
(iii)
d(x, y) = d(y, x)
x, y U (Symmetrie)
(vi)
d(x, y)
d(x, z) + d(z, y) x, y, z U (Dreiecksungleichung)
Vgl. Bandemer (1992), S. 95 ff., Bandemer / N¨
ather (1992), S. 66 ff., Comploj (1994), S. 63 ff.
Die Definition der Distanzfunktion entspricht also der einer Pseudometrik (vgl. Abschnitt 3.2.4). Im
Zusammenhang mit der Konstruktion von Fuzzy-Mengen bzw. insbesondere pseudoexakten Zahlen
wird die Abbildung d als Distanzfunktion bezeichnet (vgl. Bandemer (1992), S. 95 ff., Bandemer /
ather (1992), S. 66 ff.).
84
Die Bestimmung der Zugeh¨
origkeitsfunktion einer Fuzzy-Menge aus einer Distanzfunktion wird im
Allgemeinen mit Hilfe einer H¨
ohenfunktion h vorgenommen. Eine H¨
ohenfunktion ist eine Abbildung
h : IR
+
0
[0, 1], d(x, y) h(d(x, y)) mit den Eigenschaften:
(i)
d(x, y) < d(x, z)
h(d(x, y)) h(d(x, z)) (monoton fallend)
(ii)
h(d(x, x)) = h(0) = 1
Vgl. Bandemer (1992), S. 95 ff., Bandemer / N¨
ather (1992), S. 66 ff., Comploj (1994), S. 63 ff.
85
Vgl. Hauke (1998), S. 28 f.
86
Im Allgemeinen wird dieses Verfahren zur Konstruktion der Zugeh¨
origkeitsfunktion von pseudo-
exakten Daten verwendet. Das sind Angaben ¨
uber messbare Zustande, wie Geschwindigkeit, Tempe-
ratur oder Lebensdauer, bei denen geringf¨
ugige Abweichungen vom exakten Wert toleriert werden.
Die Zugeh¨
origkeitsfunktion einer Fuzzy-Menge, die eine pseudoexakte Zahl beschreibt, ist dann als
eine Funktion der Abweichung vom exakten Wert zu definieren, wobei die Zugeh¨
origkeitsgrade mit
wachsender Abweichung abnehmen.
Vgl. Bandemer (1992), S. 95 ff., Bandemer / N¨
ather (1992), S. 66 ff., Comploj (1994), S. 63 ff.
87
Vgl. Knopfmacher (1975), S. 530 ff., Kosko (1986), S. 167 ff., Pal / Pal (1992), S. 211 ff., Bhandari
/ Pal (1993), S. 210 ff., Comploj (1994), S. 65.

KAPITEL 3 FUZZY-MENGEN
55
gebildet werden. (Ein Gewicht eines hypothetischen Stichprobenumfanges von 0 soll
hier ausgeschlossen werden, da dann das ganze Verfahren der Erhebung der subjektiven
A-priori-Einsch¨
atzung durch Experten gar nicht durchgef¨
uhrt werden m¨
usste.)
Sofern von Anfang an feststeht, dass nur nat¨
urliche Zahlen in Betracht gezogen
werden sollen, kann auch in der folgenden Art vorgegangen werden. Es werden zuerst
n
0
:= min
{n IN|
~
N
(n) > 0
} und
~
N
(n
0
)
n
0
:= max
{n IN|
~
N
(n) > 0
} und
~
N
(n
0
)
(3.110)
und
n
1
:= min
{n IN|
~
N
(n) = 1
}
n
1
:= max
{n IN|
~
N
(n) = 1
}
(3.111)
bzw. oft auch
n
0.5
:= min
{n IN|
~
N
(n)
0.5} und
~
N
(n
0.5
)
n
0.5
:= max
{n IN|
~
N
(n)
0.5} und
~
N
(n
0.5
)
(3.112)
bestimmt. Dann wird ¨
uberlegt, bei welchen n
IN Sprungstellen vorliegen, die durch
eine interpolierende Zugeh¨
origkeitsfunktion, welche wiederum mit Hilfe einer Distanz-
funktion bestimmt werden kann, nicht getroffen werden. F¨
ur diese ist der Zugeh¨
orig-
keitsgrad
~
N
(n) eigens zu bestimmen. Wenn supp( ~
N) aus sehr wenigen Elementen
besteht, ist auch eine konsensuale Bestimmung der Zugeh¨
origkeitsgrade f¨
ur alle n
supp( ~
N) zu denken, ohne eine Distanzfunktion zu definieren.

Kapitel 4
Unscharfe stochastische
Modellierung
Bisher wurden lediglich Ans¨
atze zur Behandlung von Problemen, in welchen entweder
Zuf¨
alligkeit oder Unsch¨
arfe eine Rolle spielt, beschrieben. Bei vielen Fragestellungen,
wie auch bei der Fragestellung unseres begleitenden Beispiels, treten die beiden Ph¨
ano-
mene aber gemeinsam auf. Die Anzahl der Flutwellen kritischer H¨
ohe im Jahr ist eine
stochastische Gr¨
oße, w¨
ahrend die H¨
ohe der Flutwellen selbst unscharf ist. Zur ad¨
aqua-
ten Modellierung dieses Problems muss ein Konzept gefunden werden, welches geeignet
ist, Unsch¨
arfe und Zuf¨
alligkeit simultan zu ber¨
ucksichtigen. Zwei Konzepte stehen dabei
zur Auswahl. W¨
ahrend das Konzept der Fuzzy-Zufallsvariablen bereits bei der theore-
tischen stochastischen Modellierung Unsch¨
arfe zul¨
asst, geht ein zweites Konzept davon
aus, dass Unsch¨
arfe bei der empirischen Realisation einer Zufallsvariablen auftritt.
In der vorliegenden Arbeit kommt das Konzept der Fuzzy-Zufallsvariablen zur An-
wendung, welches im folgenden Kapitel vorgestellt werden soll. Unter den verschiedenen
in der Literatur vorgeschlagenen Ans¨
atzen zur Definition von Fuzzy-Zufallsvariablen
wurde die Auswahl dahin gehend getroffen, dass das in dieser Arbeit verwendete Ba-
siskonzept sich prim¨
ar an der Definition der Fuzzy-Zufallsvariablen nach Kwakernaak
1
orientiert, welches auch in den Arbeiten zur unscharfen Statistik von Kruse
2
und M¨
oller
und Beer
3
weitergef¨
uhrt wird.
Einen alternativen Ansatz zur Modellierung von Sachverhalten, welche von Unsch¨
ar-
fe und Zuf¨
alligkeit gepr¨
agt sind, schl¨
agt Viertl vor.
4
Viertl kommt in seinen Arbeiten
ohne den Begriff der unscharfen Zufallsvariablen aus. Viertl zieht lediglich die M¨
oglich-
keit unscharfer Beobachtungen der Realisation der zuf¨
alligen Gr¨
oße (neben m¨
oglichen
scharfen Beobachtungen) in Betracht, die Frage nach Sch¨
arfe oder Unsch¨
arfe der zu-
grunde liegenden theoretischen stochastischen Gr¨
oße wird nicht gestellt. Der Begriff
der unscharfen Stichprobe bzw. des unscharfen Stichprobenelements wird bei Viertl
ebenfalls nur auf die konkrete Stichprobe, nicht hingegen auf die theoretische Stich-
probe bezogen.
5
In neueren Arbeiten besch¨
aftigt sich aber auch Viertl mit Fuzzy-
1
Vgl. Kwakernaak (1978), S. 6 ff.
2
Vgl. etwa Kruse / Meyer (1987), S. 63 ff.
3
Vgl. etwa M¨
oller / Beer (2004), 66 ff.
4
Vgl. etwa Viertl (1996), S. 45 ff., Viertl / Hareter (2006), S. 41 ff.
5
Vgl. Viertl (1996), S. 45.
56

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
57
Zufallsvariablen und formuliert darauf aufbauend, in Anlehnung an M¨
oller, Sickert,
Beer und andere
6
, auch den Begriff des unscharfen stochastischen Prozesses.
7
Die Entscheidung zugunsten des Konzepts der Fuzzy-Zufallsvariablen wurde aus
dem Grund getroffen, da in der vorliegenden Arbeit Wert darauf gelegt wird, die Ver-
teilung der stochastischen Gr¨
oße aus dem Daten generierenden Prozess zu bestimmen.
Wie sich in sp¨
ateren Kapiteln noch zeigen wird, ist das gew¨
ahlte Konzept der Fuzzy-
Zufallsvariablen geeignet, Ergebnisse zu liefern, welche sowohl aus der Sicht der Fuzzy-
Set-Theorie, als auch aus statistischer Sicht zufrieden stellend sind. In der Arbeit wird
die Ansicht vertreten, dass die Zufallsvariable, deren Realisationen aufgrund ihrer Kon-
zeption immer unscharf sein m¨
ussen (wie dies etwa bei der (unscharfen) Anzahl der
Flutwellen kritischer (unscharfer) H¨
ohe der Fall ist), ebenfalls unscharf sein m¨
ussen.
Exakte Daten zwischen den unscharfen werden als Spezialf¨
alle der Realisationen von
unscharfen Zufallsvariablen interpretiert.
Neben erw¨
ahnten Konzepten von Fuzzy-Zufallsvariablen und unscharfen Realisa-
tionen von gew¨
ohnlichen Zufallsvariablen wurden in der Literatur unz¨
ahlige Versuche
unternommen, um das kombinierte Auftreten von Unsch¨
arfe und Wahrscheinlichkeit zu
modellieren. Von Zadeh wurde etwa die (scharfe) Wahrscheinlichkeit eines unscharfen
Ereignisses definiert,
8
welche von vielen Autoren zur L¨
osung von zahlreichen Fragestel-
lungen, bei denen Unsch¨
arfe und Wahrscheinlichkeit gemeinsam auftreten, herangezo-
gen wurde und immer noch wird.
9
In anderen Ans¨
atzen geht es darum, Wahrschein-
lichkeiten zu definieren, welche scharf sind f¨
ur klassische Ereignisse und unscharf f¨
ur
unscharfe Ereignisse.
10
Eine ¨
Ubersicht ¨
uber wichtige Arbeiten zur Fuzzy-Stochastik, in welchen stochasti-
sche Methoden und Fuzzy-Mengen-Lehre kombiniert werden, bietet Taheri.
11
Ein neuerer Ansatz, der anstatt mit Fuzzy-Zufallsvariablen mit zuf¨
alligen Fuzzy-
Variablen oder zuf¨
alligen unscharfen Variablen arbeitet, wurde von Liu eingef¨
uhrt.
12
Die Definition von Fuzzy-Variablen bzw. zuf¨
alligen Fuzzy-Variablen baut nicht auf
der in Kapitel 3 beschriebenen Theorie der Fuzzy-Mengen, sondern auf der Theorie
der Fuzzy-Maße und insbesondere der M¨
oglichkeitstheorie auf,
13
auf die in dieser Ar-
6
Vgl. etwa Sickert / Beer / Graf / M¨
oller (2003), S. 379 ff., M¨
oller / Beer (2004), S. 88 f.
7
Vgl. Viertl / Hareter (2004b), S. 51 ff.
8
Vgl. Zadeh (1968), S. 422 ff.
9
Dieser Ansatz wird am Ende von Abschnitt 4.2.1 kurz beschrieben.
10
Der erste Ansatz dazu stammt von Yager (1979), S. 114 ff., und bezieht sich auf Ereignisse in
diskreten Wahrscheinlichkeitsr¨
aumen. Ein Ansatz f¨
ur Ereignisse in stetigen Wahrscheinlichkeitsr¨
aum-
en wurde bei Dubois / Prade (1992), S. 143 f., vorgestellt. Weitere Vorschl¨
age wurden von Klement
(1982), S. 211 ff., und wiederum von Yager (Yager (1984a), S. 275 ff., Yager (1984b), S. 3 ff.) formuliert,
eine Zusammenfassung findet sich bei Comploj (2002), S. 99 ff.
11
Vgl. Taheri (2003), S. 239 ff.
12
Vgl. Liu (2001a), S. 713 ff., Liu (2001b), S. 721 ff., Liu (2002a), Liu (2002b), S. 259 ff., Liu (2004),
Liu / Liu (2002a), S. 445 ff., Liu / Liu (2002b), S. 509 ff., Liu / Liu (2003a), S. 195 ff., Liu / Liu
(2003b), S. 89 ff., Liu / Liu (2003c), S. 146 ff.
13
Die M¨
oglichkeitstheorie wurde von Zadeh (1978), S. 3 ff., eingef¨
uhrt. Die Zugeh¨
origkeitsfunktion
einer Fuzzy-Menge wird dabei als M¨
oglichkeitdichte interpretiert. Das Theoriegeb¨
aude der M¨
oglich-
keitstheorie weist zahlreiche Parallelen zu dem der Wahrscheinlichkeitstheorie auf. Die M¨
oglichkeits-
theorie ist ein Teilbereich der Fuzzy-Maß-Theorie. In Abschnitt 3.2.6 findet sich eine kurze Darstellung
dazu. Eine ausf¨
uhrliche Beschreibung der Fuzzy-Maß-Theorie findet sich in der Monographie von Wang
/ Klir (1992), auch bei Comploj (1994), S. 74 ff., oder etwa bei M¨
oller / Beer (2004), S. 59 ff., finden
sich Zusammenfassungen zu Fuzzy-Maß-Theorie und M¨
oglichkeitstheorie.

58
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
beit nicht eingegangen wird. Die Theorie der zuf¨
alligen Fuzzy-Variablen kombiniert
oglichkeits- und Wahrscheinlichkeitstheorie. Zuf¨
allige Fuzzy-Variablen werden etwa
zur Beschreibung von stochastischen Prozessen, bei denen Unsch¨
arfe eine Rolle spielt
verwendet.
14
4.1
Fuzzy-Zufallsvariablen
4.1.1
Zufallsvariablen und zuf¨
allige Mengen
Bevor auf die verschiedenen M¨
oglichkeiten zur Definition einer Fuzzy-Zufallsvariablen
eingegangen wird, sollen die Begriffe der Zufallsvariablen und der zuf¨
alligen Mengen,
von welchen die unscharfe Zufallsvariable eine Erweiterung darstellt, erl¨
autert werden.
Sind (,
A) und (U, C) messbare R¨aume, d.h. ist A eine -Algebra auf und ist
C eine -Algebra auf U, dann heißt eine Abbildung X : U messbar oder A-C-
messbar, wenn gilt:
X
-1
(C)
A C C
Ausgegangen wird von einem Wahrscheinlichkeitsraum (,
A, P ), d.h. P ist ein
Wahrscheinlichkeitsmaß auf dem messbaren Raum (,
A), und (U, C) ist ein messbarer
Raum.
Eine
A-C­messbare Abbildung
X :
U
X()
(4.1)
heißt Zufallsvariable auf (U,
C).
15
Eine h¨
aufige Schreibweise f¨
ur Zufallsvariablen ist
X : (,
A, P ) (U, C) .
Die Werte X()
U heißen Realisationen der Zufallsvariablen X auf U.
Auf dem messbaren Raum (U,
C) wird von X ein Wahrscheinlichkeitsmaß Q indu-
ziert durch:
Q(C) := P
X
(C) = P X
-1
(C) = P (
{ |X() C}) f¨ur C C
Ist (,
A, P ) ein Wahrscheinlichkeitsraum, ist U eine Menge, und ist X : U
eine Abbildung, so bezeichnet
(X) :=
C
U X
-1
(C)
A
die kleinste -Algebra auf U, sodass X messbar ist, und heißt die von X erzeugte
-Algebra auf U.
14
Die Theorie zu Folgen von von zuf¨
alligen Fuzzy-Variablen samt Grenzwerts¨
atzen wird bei Liu /
Liu (2003c) bschrieben. Anwendungen finden sich vor allem im Bereich der Zuverl¨
assigkeitstheorie. Bei
Zhao / Liu (2003), S. 573 ff., und Zhao / Tang / Yun (2006), S. 189 ff., wird ein Erneuerungsprozess
auf Basis von zuf¨
alligen unscharfen Variablen konstuiert. Zhao / Liu (2004), S. 716 ff., untersuchen
mit diesem Modell Redundanzen von Systemen.
15
Vgl. etwa Viertl (2003), S. 36 ff.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
59
Eine Zufallsvariable X :
U, die nur abz¨ahlbar viele Werte in U annehmen
kann, wird als diskrete Zufallsvariable bezeichnet. Dies ist insbesondere der Fall, wenn
die Menge nur abz¨
ahlbar viele Elemente besitzt. Eine stetige Abbildung X :
U
wird als stetige Zufallsvariable bezeichnet.
Eine zuf¨
allige Menge ist eine mengenwertige Zufallsvariable. Ist
P(U) die Potenz-
menge des Universums U, und ist auf
P(U) die -Algebra M definiert durch
M :=
V
B
B
|B, B P(U)
V
B
B
:=
{C P(U) |(B C) (B C = )} ,
(4.2)
sodass (
P(U), M) ein messbarer Raum ist, ist außerdem (, A, P ) ein Wahrscheinlich-
keitsraum, dann heißt eine
A-M-messbare Abbildung (gem¨aß (3.105))
X :
P(U)
X()
zuf¨
allige Menge auf (
P(U), M).
16
Man schreibt auch
X : (,
A, P ) (P(U), M) .
Die Realisationen X()
P(U) der zuf¨alligen Menge X werden auch als Fokalmengen
von X bezeichnet.
Auf (
P(U), M) wird von X ein Wahrscheinlichkeitsmaß Q induziert durch
Q(
V) := P
X
(
V) = P X
-1
(
V) = P ({ |X() V })
(4.3)
ur
V M. F¨ur die Analyse der zuf¨alligen Menge X gen¨ugt es, die von X auf P(U)
erzeugte Sub--Algebra
M
X
von
M zu betrachten:
M
X
:=
(
{V P(P(U)) |X
-1
(
V) A})
X
-1
(
V) := { |X() V }
(4.4)
Bezeichnet man das von X induzierte Wahrscheinlichkeitsmaß auf (
P(U), M
X
) mit
Q
M
X
, so gilt f¨
ur das Wahrscheinlichkeitsmaß Q
Q(
V) =
Q
M
X
ur
V M
X
0
ur
V M\M
X
(4.5)
ur
V M. Eine Beschr¨ankung der Betrachtung auf (P(U), M, P ) ist daher ohne
Einschr¨
ankung m¨
oglich.
Der Bezug zwischen zuf¨
alligen Mengen und Fuzzy-Mengen ist ein zweifacher: Einer-
seits ist es m¨
oglich, aufgrund einer zuf¨
alligen Menge eine Fuzzy-Menge zu definieren,
wie dies bereits in Abschnitt 3.3.3 vor der Einf¨
uhrung der exakten Definition der zuf¨
alli-
gen Mengen dargestellt wurde.
16
Ausf¨
uhrliche Darstellungen zu zuf¨
alligen Mengen finden sich bei Matheron (1975) und Stoyan /
Kendall / Mecke (1987), vgl. auch Kruse / Meyer (1987), S. 63 f., Li (1995), S. 181 f., Comploj (1994),
S. 94 ff. Speziell auf intervallwertige zuf¨
allige Mengen wird bei Beck / Kreinowich / Wu (2004) und
bei Starks / Kreinovich u.a. (2004) eingegangen.

60
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Andererseits liefert die Fuzzifikation des Konzeptes der zuf¨
alligen Mengen die Defi-
nition der Fuzzy-Zufallsvariablen, die die Basis f¨
ur die statistische Analyse unschar-
fer Daten darstellt. Bevor das Konzept der zuf¨
alligen Mengen zu dem der Fuzzy-
Zufallsvariablen erweitert wird, sollen noch einige f¨
ur die Fuzzifikation wesentliche De-
tails Erw¨
ahnung finden.
17
Nun werden speziell U = IR und die Menge der kompakten Intervalle
I
k
(IR) =
{[a, b] |a, b IR} statt P(U) werde nur betrachtet. (, A, P ) ist wieder ein Wahrschein-
lichkeitsraum. Die zuf¨
allige Menge
X :
I
k
(IR)
X() = [min X(), max X()] =: X(), X()
(4.6)
ist durch ihre Endpunkte X und X vollst¨
andig charakterisiert. Eine zuf¨
allige Men-
ge der Form (4.6) wird als zuf¨
alliges kompaktes Intervall bezeichnet. X und X sind
Zufallsvariablen, d.h.
A-B-messbare Abbildungen (B ist die Borel'sche -Algebra)
X :
IR, X()
X :
IR, X().
(4.7)
Eine Abbildung X :
I
k
(IR) ist also eine zuf¨
allige Menge, wenn die beiden Abbil-
dungen X und X
A-B-messbar sind.
18
Betrachtet man statt
I
k
(IR) die Menge
I(IR) = B IR I IN : B =
i
I
[a
i
, b
i
] , a
i
, b
i
IR
= B
IR I IN : B =
i
I
A
i
, A
i
I
k
(IR) ,
wobei mit die disjunkte Vereiningung von Mengen, also die Vereinigung von Mengen
mit leerem Durschnitt, bezeichnet wir, so ist die zuf¨
allige Menge
X :
I(IR)
X() =
i
I
X
i
(), X
i
()
(4.8)
mit I
IN nicht mehr durch zwei Zufallsvariablen vollst¨andig bestimmt, sondern es
ussen alle Abbildungen
X
i
:
IR, X
i
()
X
i
:
IR, X
i
()
i
I
(4.9)
A-B-messbar sein.
Anstelle von U = IR kann auch ein beschr¨
anktes oder unbeschr¨
anktes Intervall auf
IR als Universum U betrachtet werden.
Ist U eine abz¨
ahlbare Teilmenge von IR, etwa U = IN, ZZ, I
Q, so ist
P(U) ein Spezi-
alfall von
I(IR) mit a
i
= b
i
i I und a
i
U i I. Eine zuf¨allige Menge
X :
P(U)
X() =
i
I
{X
i
()
}
(4.10)
17
Vgl. Kruse / Meyer (1987), S. 64, Comploj (1994), S. 94 ff.
18
Vgl. Kruse (1984), S. 220 f., Kruse / Meyer (1987), S. 64 f., Comploj (1994), S. 98, Viertl / Hareter
(2004b), S. 52.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
61
mit I
IN ist somit gegeben durch die Zufallsvariablen (d.h. durch die A-B-messbaren
Abbildungen)
X
i
:
U, X
i
()
i I.
(4.11)
Die Zufallsvariablen (4.11) sind diskrete Zufallsvariablen, da sie nur abz¨
ahlbar viele
Werte annehmen k¨
onnen.
4.1.2
Definition von Fuzzy-Zufallsvariablen
Fuzzy-Zufallsvariablen sind eine Erweiterung der zuf¨
alligen Mengen, es sind zuf¨
allige
unscharfe Mengen. Es gibt zahlreiche Ans¨
atze zur Definition von Fuzzy-Zufallsvariab-
len. Die wichtigsten stammen von Kwakernaak
19
, von Nahmias
20
, von Stein und Talati
21
und von Puri und Ralescu
22
, j¨
ungere stammen von Drossos und Theodoropoulos
23
,
von Gudder
24
und von Wu
25
. Kr¨
atschmer erstellt schließlich ein Konzept, bei dem er
die ¨
Aquivalenzen zu anderen Konzepten zeigt und welches zur Vereinheitlichung der
Definition von Fuzzy-Zufallsvariablen dienen soll.
26
Als zuf¨
allige unscharfe Abbildungen
bezeichnet Huang sein Konzept.
27
Der Ansatz von Kwakernaak wurde insbesondere in
den Arbeiten von Kruse
28
, wie auch von M¨
oller
29
¨
ubernommen und wird auch von
Viertl
30
, sofern er mit diesem Konzept arbeitet, bevorzugt.
Auch das Konzept der Fuzzy-Zufallsvariablen von Puri und Ralescu wurde immer
wieder aufgegriffen, zum Teil erweitert und zur Beschreibung von unscharfen stochasti-
schen Problemen verwendet.
31
Hier sollen Fuzzy-Zufallsvariablen unter Zuhilfenahme
der Eigenschaften (4.6)-(4.11) von zuf¨
alligen Mengen definiert werden.
Definition: Voraussetzung ist ein Wahrscheinlichkeitsraum (,
A, P ).
19
Vgl. Kwakernaak (1978), S. 6 ff., Kwakernaak (1979), S. 253 ff.
20
Vgl. Nahmias (1979), S. 174 ff.
21
Vgl. Stein / Talati (1981), S. 275 ff.
22
Vgl. Ralescu / Ralescu (1984), S. 87 ff., Puri / Ralescu (1986), S. 413 ff.
23
Vgl. Drossos / Theodoropoulos (1996), S. 355 ff.
24
Vgl. Gudder (2000), S. 1663 ff.
25
Vgl. Wu (1999a), S. 139 ff., Wu (1999b), S. 239 ff., Wu (2000), S. 245 ff., Wu (2003a), S. 101 ff.
26
Vgl. Kr¨
atschmer (2001), S. 1 ff., vgl. auch Yoshida / Yasuda / Nakagami / Kurano (2000), S. 137.
27
Vgl. Huang (1999), S. 437 ff.
28
Vgl. Kruse (1982), S. 253 ff., Kruse (1984), S. 198 ff., Kruse (1986), S. 221 ff., Kruse / Meyer
(1987), S. 63 ff., Kruse / Gebhardt (1988), S. 356 ff., Borgelt / Gebhardt /Kruse (1999), S. 372 ff.
29
Vgl. M¨
oller / Graf / Beer / Sickert (2001), S. 4 ff., M¨
oller / Graf / Beer / Sickert (2002), S. 4
ff., M¨
oller / Graf / Beer (2003), S. 1569 ff., Sickert / Beer / Graf / M¨
oller (2003), S. 379 ff., M¨
oller
(2004), S. 754 f., M¨
oller / Beer (2004), S. 66 f., Sickert / Graf / Reuter (2005), S. 1709 ff., Beer /
Spanos (2005), S. 1728 ff., M¨
oller / Beer / Graf / Sickert (2006), S. 592 ff.
30
Vgl. Viertl / Hareter (2004b), S. 51 ff.
31
Vgl. etwa K¨
orner (1997), S. 83 ff., N¨
ather (2000), S. 201 ff., N¨
ather (2001), S. 69 ff., K¨
orner /
ather (2002), S. 25 ff., Feng (2000), S. 325 ff., Feng (2001), S. 11 ff., Feng / Hu / Shu (2001), S. 487
ff., Li / Ogura / Nguyen (2001), S. 7 ff., L´
opez-D´iaz / Gil (1997), S. 135 ff., L´
opez-D´iaz / Gil (1998),
S. 11 ff., L´
opez-D´iaz / Gil (1999), S. 29 ff., Colubi / Dom´inguez-Menchero / L´
opez-D´iaz / Ralescu
(2001), S. 3 ff., Ter´
an / L´
opez-D´iaz (2001), S. 39 ff., Alonso / Brezmes / Lubiano / Bertoluzza (2001),
S. 47 ff., Lubiano / Gil (2002), S. 46 ff.
Eine ¨
Ubersicht dazu liefert Gil (2001), S. 1 f.

62
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(i) Eine Abbildung
~
X :
F
c
(IR)
~
X()
(4.12)
heißt Fuzzy-Zufallsvariable oder unscharfe Zufallsvariable, wenn f¨
ur alle
(0, 1]
die -Schnitte X
von ~
X
X
:
I
k
(IR)
X
() := x
IR
~
X()
(x)
(4.13)
zuf¨
allige Mengen im Sinn von (4.6)-(4.7) sind, d.h. wenn f¨
ur alle
(0, 1] die
Abbildungen
X
:
IR
X
() := inf X
()
X
:
IR
X
() := sup X
()
(4.14)
A-B-messbar sind. Dies ist die Definition einer Fuzzy-Zufallsvariablen im Sinne
von Kwakernaak.
32
(ii) Eine Abbildung
~
X :
F
cc
(IR)
~
X()
(4.15)
heißt Fuzzy-Zufallsvariable oder unscharfe Zufallsvariable, wenn f¨
ur alle
(0, 1]
die -Schnitte X
von ~
X
X
:
I(IR)
X
() := x
IR
~
X()
(x)
(4.16)
zuf¨
allige Mengen im Sinn von (4.8)-(4.9) sind, d.h. wenn f¨
ur alle
(0, 1] gilt:
I IN : X
() =
i
I
X
i
(), X
i
()
(4.17)
und wenn f¨
ur alle
(0, 1] iI die Abbildungen
X
i
:
IR
X
i
()
X
i
:
IR
X
i
()
(4.18)
A-B-messbar sind. (4.15)-(4.18) ist die Erweiterung der Definition (4.12)-(4.14)
von
F
c
(IR) auf
F
cc
(IR).
33
32
Vgl. Kwakernaak (1978), S. 6 f., Viertl / Hareter (2004b), S. 52.
33
Kruse / Meyer (1987), S. 64, begn¨
ugen sich bei der Definition der Fuzzy-Zufallsvariablen auch im
Fall ~
X()
F
cc
(IR) f¨
ur
mit der Forderung (4.14).

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
63
(iii) Ist U = IR eine h¨
ochstens abz¨
ahlbare Teilmenge von IR etwa U = IN, ZZ, I
Q,
{0, 1},
dann heißt eine Abbildung
~
X :
F(U)
~
X()
(4.19)
Fuzzy-Zufallsvariable oder unscharfe Zufallsvariable, wenn f¨
ur alle
(0, 1] die
-Schnitte X
von ~
X
X
:
P(U)
X
() := x
IR
~
X()
(x)
(4.20)
zuf¨
allige Mengen im Sinn von (4.10)-(4.11) sind, d.h. wenn f¨
ur alle
(0, 1] gilt:
I IN : X
() =
i
I
{X
i
()
}
(4.21)
und wenn f¨
ur alle
(0, 1] f¨ur alle i I die Abbildungen
X
i
:
U
X
i
()
(4.22)
A-C-messbar sind, wobei C eine geeignete -Algebra auf U ist.
Ist U ein unbeschr¨
anktes Universum, etwa U = IR, IR
+
, IN, ZZ, I
Q, so ist f¨
ur eine Fuzzy-
Zufallsvariable ~
X f¨
ur
f¨ur (0, 1] insbesondere zul¨assig:
inf X
() =
- oder
sup X
() = +
Es ist dann die Messbarkeit bez¨
uglich der -Algebra
C
auf U
{-} bzw. U {}
gefordert. Etwa f¨
ur U = IR ist
B
die Borel'sche -Algebra auf IR
{-, }.
Fuzzy-Zufallsvariablen ~
X k¨
onnen als unscharfe Beobachtungen von gew¨
ohnlichen
Zufallsvariablen X :
U aufgefasst werden. Ist
X := {X : U |X ist A-C-messbar}
(4.23)
die Menge aller gew¨
ohnlichen Zufallsvariablen von (,
A, P ) nach (U, C), dann l¨asst
sich ~
X darstellen als Fuzzy-Menge von gew¨
ohnlichen Zufallsvariablen X
X . Es ist
also ~
X eine Fuzzy-Menge ¨
uber
X , d.h.
~
X
F(X )
Definition: Mit
X wird nach (4.24) die Menge aller gew¨ohnlichen Zufallsvariablen
(,
A, P ) (U, C) nach (4.23) bezeichnet.
(i) Ist ~
X
F(X ) eine Fuzzy-Zufallsvariable ~
X :
F(U), dann heißt eine Zufalls-
variable X
X Original von ~
X
:
X supp ~
X , d.h.
~
X
(X) > 0.
(4.24)

64
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(ii) Ist X
X eine Zufallsvariable, dann heißt eine Fuzzy-Zufallsvariable ~
X
F(X )
Fuzzy-Perzeption von X
:
~
X
(X) > 0, d.h. X
supp( ~
X).
(4.25)
Die Zugeh¨
origkeitsfunktion
~
X
(.) ist gegeben durch:
~
X
:
X [0, 1]
X
~
X
(X) = inf
~
X()
(X()).
(4.26)
Beispiel: Ist =
{
1
,
2
,
3
}, A = P(), P ({
i
}) =
1
3
ur i =
{1, 2, 3}, und ~
X :
F(IN) eine Fuzzy-Zufallsvariable, und ist ~
X(
1
) =
0.9
1
5
6
, ~
X(
2
) =
0.2
1
0.6
4
5
6
,
~
X(
3
) =
0.3
1
3
4
, dann besitzt die Fuzzy-Zufallsvariable ~
X zw¨
olf m¨
ogliche Originale:
X
1
:
X
1
(
1
) = 5,
X
1
(
2
) = 4,
X
1
(
3
) = 3
~
X
(X
1
) = 0.2
X
2
:
X
2
(
1
) = 5,
X
2
(
2
) = 4,
X
2
(
3
) = 4
~
X
(X
2
) = 0.2
X
3
:
X
3
(
1
) = 5,
X
3
(
2
) = 5,
X
3
(
3
) = 3
~
X
(X
3
) = 0.3
X
4
:
X
4
(
1
) = 5,
X
4
(
2
) = 5,
X
4
(
3
) = 4
~
X
(X
4
) = 0.8
X
5
:
X
5
(
1
) = 5,
X
5
(
2
) = 6,
X
5
(
3
) = 3
~
X
(X
5
) = 0.3
X
6
:
X
6
(
1
) = 5,
X
6
(
2
) = 6,
X
6
(
3
) = 4
~
X
(X
6
) = 0.6
X
7
:
X
7
(
1
) = 6,
X
7
(
2
) = 4,
X
7
(
3
) = 3
~
X
(X
7
) = 0.2
X
8
:
X
8
(
1
) = 6,
X
8
(
2
) = 4,
X
8
(
3
) = 4
~
X
(X
8
) = 0.2
X
9
:
X
9
(
1
) = 6,
X
9
(
2
) = 5,
X
9
(
3
) = 3
~
X
(X
9
) = 0.3
X
10
: X
10
(
1
) = 6,
X
10
(
2
) = 5,
X
10
(
3
) = 4
~
X
(X
10
) = 0.1
X
11
: X
11
(
1
) = 6,
X
11
(
2
) = 6,
X
11
(
3
) = 3
~
X
(X
11
) = 0.3
X
12
: X
12
(
1
) = 6,
X
12
(
2
) = 6,
X
12
(
3
) = 4
~
X
(X
12
) = 0.6
Die Fuzzy-Zufallsvariable ~
X ist Fuzzy-Perzeption jeder dieser zw¨
olf Zufallsvariablen.
Sie l¨
asst sich darstellen als Fuzzy-Menge ihrer Originale:
~
X =
0.2
0.2
0.3
0.8
0.3
0.6
0.2
0.2
0.3
1
0.3
0.6
X
1
X
2
X
3
X
4
X
5
X
6
X
7
X
8
X
9
X
10
X
11
X
12
Begleitendes Beispiel: Die zuf¨
allige unscharfe Anzahl der Flutwellen kritischer H¨
ohe
im Jahr ist eine Fuzzy-Zufallsvariable. Die Zufallsvariablen, die die zuf¨
allige Anzahl der
Flutwellen, die in der kritischen H¨
ohe gerade noch eine bestimmte Wassermenge bzw.
einen bestimmten Druck aufweisen, stellen die Originale der Fuzzy-Zufallsvariablen dar.
So beschreibt etwa die Zufallsvariable X
0
die Anzahl der Flutwellen, die den kritischen
Punkt erreichen oder nur noch mit dem oberen Spr¨
uhnebel streifen. X
0
beschreibt da-
gegen die Anzahl der Flutwellen, bei denen Wasserdruck und Wassermenge sich beim
kritischen Punkt gerade zu vermindern beginnen. [X
1
, X
1
] umfasst den Bereich, in dem
der Abfall von Wassermenge und Wasserdruck am st¨
arksten ist. Hier wird ¨
ublicherweise
auch diejenige klassische Zufallsvariable zu finden sein, der bei Annahme eines klas-
sischen scharfen Modells zur Beschreibung der Anzahl der Flutwellen kritischer H¨
ohe
angegeben wird.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
65
Wie f¨
ur gew¨
ohnliche Zufallsvariablen, so kann auch f¨
ur Fuzzy-Zufallsvariablen der
Erwartungswert definiert werden. Der Erwartungswert einer gew¨
ohnlichen Zufallsva-
riablen X
X ist gegeben durch:
E(X) =
X()P (
{})
ur diskretes X
X()dP
ur stetiges X
Der unscharfe Erwartungswert
E ( ~
X) einer Fuzzy-Zufallsvariablen ~
X ist definiert
durch die Zugeh¨
origkeitsfunktion:
E ( ~
X)
: IR
[0, 1]
x
E ( ~
X)
(x) :=
sup
X
X :E(X)=x
~
X
(X),
(4.27)
d.h. im diskreten Fall
E ( ~
X)
(x) =
sup
X
X :
X()P (
{})=x
inf
~
X()
(X()),
(4.28)
und im stetigen Fall
E ( ~
X)
(x) =
sup
X
X :
X()dP =x
inf
~
X()
(X()).
(4.29)
Die Berechnung der -Schnitte des Erwartungswerts ist besonders leicht f¨
ur Fuzzy-
Zufallsvariablen der Form ~
X :
F
c
(IR) (4.12)-(4.14). Dann sind n¨
amlich die -
Schnitte von ~
X() zuf¨
allige abgeschlossene Intervalle
X
() = X
(), X
()
I
k
(IR
{-, }) .
(4.30)
Es ist dann
E (X)
= E (X
) , E X
.
(4.31)
Gilt dabei f¨
ur ein
: X
() =
-, so ist E (X
) =
-, und gilt f¨ur ein :
X
() =
, so ist E X
=
.
Ist nicht f¨
ur alle
die Bedingung ~
X()
F
c
(IR) (4.15)-(4.22) erf¨
ullt, so ist
es g¨
unstig, eine neue Zufallsvariable zu definieren, deren Fuzzy-Realisationen in
F
c
(IR)
liegen. Die konvexe H¨
ulle co ~
X von ~
X wird also definiert durch:
co ~
X :
F
c
(IR)
co ~
X () := co
~
X()
(4.32)
Es gilt dann f¨
ur die -Schnitte von co ~
X()
co X
() = X
(), X
() = [inf X
(), sup X
()] ,
(4.33)

66
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
wobei X
() =
- oder X
() =
zul¨assig ist.
Es gilt dann f¨
ur den Erwartungswert E
co ~
X von co ~
X
E
co ~
X = co
{ E ~
X ,
(4.34)
und E
co ~
X hat die -Schnitte
E (co X)
= co
E (X
) = E (X
) , E X
.
(4.35)
Auch die unscharfe Varianz von Fuzzy-Zufallsvariablen wurde in der Literatur
untersucht.
34
Die hier vorgestellte Definition von Fuzzy-Zufallsvariablen entspricht weitgehend
der Definition der Fuzzy-Zufallsvariablen von Kwakernaak,
35
welche auch die Grund-
lage der Untersuchungen von Kruse und M¨
oller darstellt.
36
Diese Definition stellt auch
die weitere Ausgangsbasis f¨
ur die Modellierung des Problems im begleitenden Beispiel
dar.
4.2
Fuzzy-Zufallsvariablen und ihre unscharfe Wahr-
scheinlichkeitsverteilung
4.2.1
Die unscharfe Verteilung von Fuzzy-Zufallsvariablen
Um ein Arbeiten auf dem Bildraum der Fuzzy-Zufallsvariablen ~
X (nach Kwakernaak)
zu erm¨
oglichen, m¨
ussen nun auf
F(U) ein geeignetes Ereignisfeld und eine geeignete
Wahrscheinlichkeitsverteilung definiert werden.
Eine M¨
oglichkeit zur Definition eines geeigneten Ereignisfeldes, also einer -Algebra
auf
F(U), ist die folgende Verallgemeinerung von (4.2)
M
:=
V
~B
~
B
~
B, ~
B
F(U)
V
~B
~
B
:=
~
A
F(U) ~B ~A ~B ~A =
.
(4.36)
Eine weitere M¨
oglichkeit, eine geeignete -Algebra auf
F(U) zu definieren, ist die
Verallgemeinerung von (4.4), d.h. die von der Fuzzy-Zufallsvariablen ~
X : (,
A, P )
F(U) erzeugte -Algebra M
~
X
:
37
M
~
X
:=
V
P(F(U)) ~
X
-1
(
V
)
A
~
X
-1
(
V
) :=
~
X()
V
(4.37)
34
Vgl. Kruse (1987), S. 470 ff., Kruse / Meyer (1987), S. 80 ff., Comploj (1994), S. 117 ff.
35
Vgl. Kwakernaak (1978), S. 6 ff., Kwakernaak (1979), S. 253 ff.
36
Vgl. Kruse (1982), Kruse (1984), Kruse (1986), Kruse (1987), Kruse / Meyer (1987), M¨
oller /
Graf / Beer / Sickert (2001), M¨
oller / Graf / Beer / Sickert (2002), M¨
oller / Graf / Beer (2003),
Sickert / Beer / Graf / M¨
oller (2003), M¨
oller (2004), M¨
oller / Beer (2004), S. 66 ff., Sickert / Graf /
Reuter (2005), M¨
oller / Beer / Graf / Sickert (2006).
Vgl. auch Viertl / Hareter (2004b), S. 51 ff., Yoshida / Yasuda / Nakagami / Kurano (2000), S. 137.
37
Dieser Vorschlag findet sich auch bei Kruse / Meyer (1987), S. 131.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
67
Es ist
M
~
X
eine Sub--Algebra von
M
, d.h.
M
~
X
M
.
Dadurch sind somit Messr¨
aume (
F(U), M
) und
F(U), M
~
X
definiert, und man
kann schreiben:
~
X : (,
A, P ) (F(U), M
)
~
X : (,
A, P ) F(U), M
~
X
(4.38)
Auf (
F(U), M
) soll nun ein Wahrscheinlichkeitsmaß definiert werden. In Analogie
zu (4.3) definiert man:
Q
M
(
V
) := P
~
X
(
V
) = P
~
X
-1
(
V
)
V
M
(4.39)
Analog kann Q
M
~
X
ur
F(U), M
~
X
definiert werden.
38
Man erh¨
alt die Wahrschein-
lichkeitsr¨
aume (
F(U), M
, Q
M
) und
F(U), M
~
X
, Q
M
~
X
.
Die
beiden
Wahrscheinlichkeitsr¨
aume
F(U), M
~
X
, Q
M
~
X
und
(
F(U), M
, Q
M
) sind in dem Sinn ¨
aquivalent, dass f¨
ur
V
M
(analog zu (4.5))
gilt:
Q
M
(
V
) = Q
M
~
X
(
V
) = P
~
X
(
V
)
ur
V
M
~
X
Q
M
(
V
) = 0
ur
V
M
\M
~
X
Man schreibt daher nur noch
Q
(
V
) := Q
M
(
V
) =
Q
M
~
X
(
V
)
ur
V
M
~
X
0
ur
V
M
\M
~
X
.
(4.40)
Einen alternativen Ansatz zur Definition einer -Algebra und eines Wahrschein-
lichkeitsmaßes schlagen M¨
oller, Graf und Beer vor, obgleich sie Fuzzy-Zufallsvariablen
ebenfalls mit Hilfe von Origninalen definieren. Sie definieren eine -Algebra aus Fuzzy-
Mengen, also eine Teilmenge von
F(U), anstelle der hier vorgestellten -Algebra aus
Mengen von Fuzzy-Mengen.
39
ur die Definition eines Wahrscheinlichkeitsmaßes auf
F(U) gen¨ugt f¨ur sie eine gew¨ohnliche -Algebra C auf U, weil die unscharfen Elemente
~
A der -Algebra in ihre -Schnitte A
,
(0, 1], zerlegt werden k¨onnen. Die unscharfe
Wahrscheinlichkeit ~
P
M B
(A einer Menge A ist dann gegeben durch die -Schnitte
P
~
X M B
(A) =
P
~
X M B
(A), P
~
X M B
(A)
ur
(0, 1]. Dabei ist
P
~
X M B
(A) = P (
{X
A})
und
P
~
X M B
(A) = P (
{X
A = }, )
wobei X
,
(0, 1], die -Schnitte der Fuzzy-Zufallsvariablen ~
X sind.
40
Das in (4.40) definierte Wahrscheinlichkeitsmaß Q
= P
~
X
ist eine Mengenfunktion,
die insbesondere auf Mengen von Fuzzy-Mengen definiert ist. Um besser mit Wahr-
scheinlichkeiten arbeiten zu k¨
onnen, ist es sinnvoll, eine Punktfunktion einzuf¨
uhren.
38
Vgl. Kruse / Meyer (1987), S. 131.
39
Vgl. M¨
oller / Graf / Beer (2003), S. 1580 f.
40
Vgl. etwa M¨
oller / Graf / Beer / Sickert (2001), S. 6 f., M¨
oller / Graf / Beer (2003), S. 1581,
oller / Beer (2004); S. 68 ff.

68
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Im Fall einer scharfen Zufallsvariablen X : (,
A, P ) (U, C), wobei U eine ge-
ordnete Menge ist (d.h. wenn auf U eine Ordnungsrelation
definiert ist), wird die
Mengenfunktion
Q :
C [0, 1]
y
F
X
(y) = P
X
(
{X C}) = P ({ |X() C})
auf eine punktweise definierte Verteilungsfunktion
41
F
X
(.) zur¨
uckgef¨
uhrt:
F
X
: U : [0, 1]
y
F
X
(Y ) = P
X
(
{X y}) = P ({ |X() y}).
ur C
C kann Q(C) mittels F
X
(.) bestimmt werden. Ist U = IR oder ein Intervall
auf IR, etwa U = IR
+
oder U = [0, 1] und
C = B bzw. C = B(U), etwa C = B(IR
+
) bzw.
C = B([0, 1]), und ist X : (, A, P ) (U, C) eine stetige Zufallsvariable, und l¨asst sich
C
C darstellen als endliche oder abz¨ahlbare disjunkte Vereinigung von Intervallen,
d.h.
I IN, c
i
, c
i
U, i I : C =
i
I
(c
i
, c
i
], so gilt:
Q(C) =
i
I
(F
X
(c
i
)
- F
X
(c
i
)) .
ur die stetige Zufallsvariable X : (,
A, P ) (U, C) kann eine Dichtefunktion f
X
(.)
eingef¨
uhrt werden, die die Steigung der Verteilungsfunktion F
X
(.) beschreibt, also
f
X
(x) =
d
dx
F
X
(x) = lim
h
0
P
X
(
{X x + h}) - P
X
(
{X x})
h
,
F
X
(y) =
y
-
f
X
(x)dx =
y
-
dF
X
(x).
ur C
C mit C =
i
I
(c
i
, c
i
] ist
Q(C) =
C
f
X
(x)dx =
i
I
c
i
c
i
f
X
(x)dx.
Ist U eine diskrete Teilmenge von IR, etwa U = IN, U = ZZ, U = I
Q, oder eine Teil-
menge von IN, ZZ oder I
Q, und ist
C eine -Algebra auf U, etwa C = P(U), und ist
X : (,
A, P ) (U, C) eine diskrete Zufallsvariable, so kann f¨ur die einelementigen
Ereignisse
{x} C eine punktweise definierte Wahrscheinlichkeitsfunktion p
X
(.) ein-
gef¨
uhrt werden:
p
X
: U
[0, 1]
x
p
X
(x) = P
X
(
{x}) = P
X
(
{X = x})
= P (
{ |X()x})
ur C
C gilt dann
Q(C) =
x
C
Q(
{x}) =
x
C
p
X
(x).
41
Vgl. Kruse / Meyer (1987), S. 131.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
69
ur die Verteilungsfunktion F
X
(.) der diskreten Zufallsvariablen X gilt dann:
F
X
(y) =
x
y
p
X
(x)
ur die Definition einer punktweisen Wahrscheinlichkeit f¨
ur Fuzzy-Zufallsvariablen
wird zugrunde gelegt, dass eine Fuzzy-Zufallsvariable (im Sinn von Kwakernnaak) als
eine Fuzzy-Menge von scharfen Zufallsvariablen aufzufassen ist. Jede der Zufallsvaria-
blen X
supp( ~
X) besitzt eine Wahrscheinlichkeitsverteilung P
X
auf dem Bildraum,
die durch eine Verteilungsfunktion F
X
(.) beschrieben werden kann. Wird f¨
ur alle X
supp( ~
X) die Verteilungsfunktion F
X
(.) gebildet und diese mit dem Zugeh¨
origkeitsgrad
~
X
(X) gewichtet, so erh¨
alt man eine Fuzzy-Schar von Verteilungsfunktionen
42
~~
F
~
X
(.) =
F
X
(.),
~~
F
~
X
(.)
(F
X
(.)) X
supp( ~
X),
~~
F
~
X
(.)
(F
X
(.)) = sup
Xsupp( ~
X):
FY (y)FX (y)yU
X
(Y )
. (4.41)
Mittels der sup-Vereinigung kann aus der Fuzzy-Schar (4.41) eine fuzzifizierende Ver-
teilungsfunktion ~
F
~
X
(.) abgeleitet werden, die gegeben ist durch
~
F
X
(y)
(p) =
sup
X
supp( ~
X):F
X
(y)=P
X
(
{Xy})=p
~
X
(X)
(4.42)
ur p
[0, 1] f¨ur y U.
Die fuzzifizierende Verteilungsfunktion ~
F
~
X
(.) weist die angenehme Eigenschaft auf,
dass die -Niveaukurven ihrer konvexen H¨
ulle selbst Verteilungsfunktionen gew¨
ohnli-
cher Zufallsvariablen aus supp( ~
X) sind. Es ist
co ~
F
~
X
(y)
= F
~
X
(y), F
~
X
(y)
(4.43)
ur y
U mit
F
~
X
(y) = F
X
(y)
F
~
X
(y) = F
X
(y)
(4.44)
ur y
U und f¨ur (0, 1].
43
Es ist n¨
amlich wegen X
() = sup
X
X
X() und
X
() = inf
X
X
X() f¨
ur alle
:
X
()
y { |X() y } X X
{ |X
()
y } { |X() y } X X
.
Daher ist
F
X
(y) = P
X
()
y
= inf
X
X
P (
{ |X() y})
= inf
X
X
F
X
(y) = F
~
X
(y),
42
oller / Graf / Beer / Sickker (2001), S. 8, M¨
oller / Graf / Beer (2003), S. 1581, M¨
oller / Beer
(2004), S. 73 ff., M¨
oller (2004), S. 755, M¨
oller / Beer / Graf / Sicker (2006), S. 602, definieren ihre
Fuzzy-Schar von Verteilungsfunktionen auf mehrdimensionalen Grundmengen IR
n
.
43
Bei Viertl / Hareter (2004b), S. 52, wird die unscharfe Verteilungsfunktion durch die -Schnitte
ihres Bildes [F
~
X
(x), F
~
X
(x)] = [P (
|X
()
x}), P ( |X
()
x})], (0, 1], x IR,
definiert.

70
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
und
F
X
(y) = P (
{ |X
()
y }) = sup
X
X
P (
{ |X() y})
= sup
X
X
F
X
(y) = F
~
X
(y).
Sind die Zufallsvariablen X
supp( ~
X) stetige Zufallsvariablen mit Werten in einem
kontinuierlichen Universum U
IR, so kann f¨ur jede der Zufallsvariablen X supp( ~
X)
eine Dichtefunktion f
X
(.) bestimmt werden. Werden die Dichtefunktionen mit dem
Zugeh¨
origkeitsgrad
~
X
(X) gewichtet, so erh¨
alt man eine Fuzzy-Schar von Dichtefunk-
tionen
~~
f
~
X
(.) =
f
X
(.),
~
~
f (.)
~
X
(f
X
(.)) X
supp( ~
X),
~~
f
~
X
(.)
(f
X
(.)) = sup
Xsupp( ~
X):
fY (x)fX (x)xU
X
(Y )
.
(4.45)
Auch aus der Fuzzy-Schar
~~
f
~
X
(.) kann mittels der sup-Vereinigung eine fuzzifizierende
Dichtefunktion ~
f
~
X
(.) abgeleitet werden, die gegeben ist durch
~
f
~
X
(x)
(q) =
sup
X
supp( ~
X):f
X
(x)=
d
dx
F
X
(x)=q
~
X
(x)
(4.46)
ur q
IR
+
. Die -Niveaukurven der konvexen H¨
ulle der fuzzifizierenden Dichtefunk-
tion co ~
f
~
X
(.) sind allerdings keine Dichtefunktionen mehr. Zur Bestimmung der -
Niveaukurven f
~
X
(.) und f
~
X
(.) m¨
ussen f¨
ur jedes x
U
f
~
X
(x) = inf
X
X
f
X
(x)
f
~
X
(x) = sup
X
X
f
X
(x)
(4.47)
ur jedes
(0, 1] bestimmt werden. Die -Niveaukurven der fuzzifizierenden Dichte-
funktion sind im Allgemeinen selbst keine Dichtefunktionen, denn im Allgemeinen ist
ur
(0, 1]
U
f
~
X
(x)dx < 1
und
U
f
~
X
(x)dx > 1.
(4.48)
Graphische Darstellungen einer Fuzzy-Schar von Gamma-Dichtefunktionen (Abbildung
6.1) und einer fuzzifizierenden Gamma-Dichtefunktion (Abbildung 6.3) finden sich in
Abschnitt 6.1.3.
Sind die Zufallsvariablen X
supp( ~
X) diskrete Zufallsvariablen mit Werten in ei-
nem diskreten Universum U, so kann f¨
ur jede der Zufallsvariablen X
supp( ~
X) eine
Wahrscheinlichkeitsfunktion p
X
(.) bestimmt werden. Werden die Wahrscheinlichkeits-
funktionen mit den Zugeh¨
origkeitsgraden
~
X
(X) gewichtet, so erh¨
alt man (analog zum
stetigen Fall) eine Fuzzy-Schar von Wahrscheinlichkeitsfunktionen
~~
p
~
X
(.) =
p
X
(.),
~~
p
~
X
(.)
(p
X
(.)) X
supp( ~
X),
~~
p
~
X
(.)
(p
X
(.)) = sup
Xsupp( ~
X):
pY (x)pX (x)xU
X
(Y )
.
(4.49)

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
71
Aus der Fuzzy-Schar ~~
p
~
X
(.) kann wiederum mittels der sup-Vereinigung eine fuzzifizie-
rende Wahrscheinlichkeitsfunktion ~
p
~
X
(.) abgeleitet werden. Diese ist gegeben durch
~
p
~
X
(x)
(p) =
sup
X
supp( ~
X):p
X
(x)=P
X
(
{X=x})=p
~
X
(x)
(4.50)
ur p
[0, 1]. Wie f¨ur die fuzzifizierende Dichtefunktion gilt f¨ur die fuzzifizierende
Wahrscheinlichkeitsfunktion, dass die -Niveaukurven ihrer konvexen H¨
ulle im All-
gemeinen keine Wahrscheinlichkeitsfunktionen sind. Die -Niveaukurven p
~
X
(.) und
p
~
X
(.) werden bestimmt, indem f¨
ur jedes x
U
p
~
X
(x) = inf
X
X
p
X
(x)
p
~
X
(x) = sup
X
X
p
X
(x)
(4.51)
ur jedes
(0, 1] bestimmt wird. Im Allgemeinen ist dann f¨ur (0, 1]
x
U
p
~
X
(x)dx < 1
und
x
U
p
~
X
(x)dx > 1.
(4.52)
Außerdem ist im Allgemeinen f¨
ur x, y
U
x
y
~
p
~
X
(x) = ~
F
~
X
(y).
Graphische Darstellungen einer Fuzzy-Schar von Poisson-Wahrscheinlichkeitsfunktionen
(Abbildung 4.1) und einer fuzzifizierenden Poisson-Wahrscheinlichkeitsfunktion (Abbil-
dung 4.2) finden sich in Abschnitt 4.2.2.
Beispiel: Das Beispiel aus Abschnitt 4.1.2 soll fortgesetzt werden. Es ist also =
{
1
,
2
,
3
}, A = P(), P ({
i
}) =
1
3
ur i =
{1, 2, 3}. ~
X :
F(IN) ist die Fuzzy-
Zufallsvariable mit ~
X(
1
) =
0.9
1
5
6
, ~
X(
2
) =
0.2
1
0.6
4
5
6
, ~
X(
3
) =
0.3
1
3
4
.
Es ist dann
M
~
X
=
P
0.9
1
5
6
,
0.2
1
0.6
4
5
6
,
0.3
1
3
4
und das als Mengenfunktion definierte Wahrscheinlichkeitsmaß lautet
Q
M
~
X
0.9
1
5
6
= Q
M
~
X
0.2
1
0.6
4
5
6
= Q
M
~
X
0.3
1
3
4
=
1
3
Die als Punktfunktion auf IN definierte unscharfe Verteilungsfunktion erh¨
alt man durch
Bestimmung der Verteilungsfunktionen der Originale X
i
supp( ~
X), i
{1, ..., 12}:
F
X
1
(x) = 0 f¨
ur x
2, F
X
1
(3) =
1
3
, F
X
1
(4) =
2
3
, F
X
1
(x) = 1 f¨
ur x
5,
F
X
2
(x) = 0 f¨
ur x
3, F
X
2
(4) =
2
3
, F
X
2
(x) = 1 f¨
ur x
5,
F
X
3
(x) = 0 f¨
ur x
2, F
X
3
(3) = F
X
3
(4) =
1
3
, F
X
3
(x) = 1 f¨
ur x
5,
F
X
4
(x) = 0 f¨
ur x
3, F
X
4
(4) =
1
3
, F
X
4
(x) = 1 f¨
ur x
5,
F
X
5
(x) = 0 f¨
ur x
2, F
X
5
(3) = F
X
5
(4) =
1
3
, F
X
5
(5) =
2
3
, F
X
5
(x) = 1 f¨
ur x
6,
F
X
6
(x) = 0 f¨
ur x
3, F
X
6
(4) =
1
3
, F
X
6
(5) =
2
3
, F
X
6
(x) = 1 f¨
ur x
6,
F
X
7
(x) = 0 f¨
ur x
2, F
X
7
(3) =
1
3
, F
X
7
(4) = F
X
7
(5) =
2
3
, F
X
7
(x) = 1 f¨
ur x
6,
F
X
8
(x) = 0 f¨
ur x
3, F
X
8
(4) = F
X
8
(5) =
2
3
, F
X
8
(x) = 1 f¨
ur x
6,
F
X
9
(x) = 0 f¨
ur x
2, F
X
9
(3) = F
X
9
(4) =
1
3
, F
X
9
(5) =
2
3
, F
X
9
(x) = 1 f¨
ur x
6,
F
X
10
(x) = 0 f¨
ur x
3, F
X
10
(4) =
1
3
, F
X
10
(5) =
2
3
, F
X
10
(x) = 1 f¨
ur x
6,

72
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
F
X
11
(x) = 0 f¨
ur x
2, F
X
11
(3) = F
X
11
(4) = F
X
11
(5) =
1
3
, F
X
11
(x) = 1 f¨
ur x
6,
F
X
12
(x) = 0 f¨
ur x
3, F
X
12
(4) = F
X
12
(5) =
1
3
, F
X
12
(x) = 1 f¨
ur x
6,
~
X
(X
1
) = 0.2,
~
X
(X
2
) = 0.2,
~
X
(X
3
) = 0.3,
~
X
(X
4
) = 0.8,
~
X
(X
5
) = 0.3,
~
X
(X
6
) = 0.6,
~
X
(X
7
) = 0.2,
~
X
(X
8
) = 0.2,
~
X
(X
9
) = 0.3,
~
X
(X
10
) = 1,
~
X
(X
11
) = 0.3,
~
X
(X
12
) = 0.6
Es ist F
X
5
(.)
F
X
9
(.) und
~
X
(X
5
) =
~
X
(X
9
) = 0.3 bzw. F
X
6
(.)
F
X
10
(.)
und
~
X
(X
10
) = 1 >
~
X
(X
6
) = 0.6.
Man erh¨
alt die Fuzzy-Schar von Verteilungsfunktionen
~~
F
~
X
(.) =
{(F
X
1
(.), 0.2) , (F
X
2
(.), 0.2) , (F
X
3
(.), 0.3) , (F
X
4
(.), 0.8) ,
(F
X
5
(.) = F
X
9
(.), 0.3) , (F
X
6
(.) = F
X
10
(.), 1) , (F
X
7
(.), 0.2) ,
(F
X
8
(.), 0.2) , (F
X
11
(.), 0.3) , (F
X
12
(.), 0.6)
} .
Wegen X
=
X
1
ur 0 <
0.2
X
3
ur 0.2 <
0.3
X
4
ur 0.3 <
0.8
X
10
ur 0.8 <
1
und X
=
X
12
ur 0 <
0.6
X
10
ur 0.6 <
1
ist
co ~
F
~
X
(x)
=
[F
X
12
(x), F
X
1
(x)] f¨
ur
(0, 0.2]
[F
X
12
(x), F
X
3
(x)] f¨
ur
(0.2, 0.3]
[F
X
12
(x), F
X
4
(x)] f¨
ur
(0.3, 0.6]
[F
X
10
(x), F
X
4
(x)] f¨
ur
(0.6, 0.8]
F
X
10
(x)
ur
(0.8, 1].
ur x
IN.
Zur Bestimmung der unscharfen Wahrscheinlichkeitsfunktion werden die Wahrschein-
lichkeitsfunktionen der einzelnen Zufallsvariablen bestimmt.
p
X
1
(x) = 0 f¨
ur x
2, p
X
1
(3) =
1
3
, p
X
1
(4) =
1
3
, p
X
1
(5) =
1
3
, p
X
1
(x) = 0 f¨
ur x
6,
p
X
2
(x) = 0 f¨
ur x
3, p
X
2
(4) =
2
3
, p
X
2
(5) =
1
3
, p
X
2
(x) = 0 f¨
ur x
6,
p
X
3
(x) = 0 f¨
ur x
2, p
X
3
(3) =
1
3
, p
X
3
(4) = 0, p
X
3
(5) =
2
3
, p
X
3
(x) = 0 f¨
ur x
6,
p
X
4
(x) = 0 f¨
ur x
3, p
X
4
(4) =
1
3
, p
X
4
(5) =
2
3
, p
X
4
(x) = 0 f¨
ur x
6,
p
X
5
(x) = 0 f¨
ur x
2, p
X
5
(3) =
1
3
, p
X
5
(4) = 0, p
X
5
(5) =
1
3
, p
X
5
(6) =
1
3
, p
X
5
(x) = 0 f¨
ur x
7,
p
X
6
(x) = 0 f¨
ur x
3, p
X
6
(4) =
1
3
, p
X
6
(5) =
1
3
, p
X
6
(6) =
1
3
, p
X
6
(x) = 0 f¨
ur x
7,
p
X
7
(x) = 0 f¨
ur x
2, p
X
7
(3) =
1
3
, p
X
7
(4) =
1
3
, p
X
7
(5) = 0, p
X
7
(6) =
1
3
, p
X
7
(x) = 0 f¨
ur x
7,
p
X
8
(x) = 0 f¨
ur x
3, p
X
8
(4) =
2
3
, p
X
8
(5) = 0, p
X
8
(6) =
1
3
, p
X
8
(x) = 0 f¨
ur x
7,
p
X
9
(x) = 0 f¨
ur x
2, p
X
9
(3) =
1
3
, p
X
9
(4) = 0, p
X
9
(5) =
1
3
, p
X
9
(6) =
1
3
, p
X
9
(x) = 0 f¨
ur x
7,
p
X
10
(x) = 0 f¨
ur x
3, p
X
10
(4) =
1
3
, p
X
10
(5) =
1
3
, p
X
10
(6) =
1
3
, p
X
10
(x) = 0 f¨
ur x
7,
p
X
11
(x) = 0 f¨
ur x
2, p
X
11
(3) =
1
3
, p
X
11
(4) = p
X
11
(5) = 0, p
X
11
(6) =
2
3
, p
X
11
(x) = 0 f¨
ur x
7,
p
X
12
(x) = 0 f¨
ur x
3, p
X
12
(4) =
1
3
, p
X
12
(5) = 0, p
X
12
(6) =
2
3
, p
X
12
(x) = 0 f¨
ur x
7,
~
X
(X
1
) = 0.2,
~
X
(X
2
) = 0.2,
~
X
(X
3
) = 0.3,
~
X
(X
4
) = 0.8,
~
X
(X
5
) = 0.3,
~
X
(X
6
) = 0.6,
~
X
(X
7
) = 0.2,
~
X
(X
8
) = 0.2,
~
X
(X
9
) = 0.3,
~
X
(X
10
) = 1,
~
X
(X
11
) = 0.3,
~
X
(X
12
) = 0.6
.
Es ist p
X
5
(.)
p
X
9
(.) und p
X
6
(.) = p
X
10
(.).

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
73
Man erh¨
alt die Fuzzy-Schar von Wahrscheinlichkeitsfunktionen
~~
p
~
X
(.) =
{(p
X
1
(.), 0.2) , (p
X
2
(.), 0.2) , (p
X
3
(.), 0.3) , (p
X
4
(.), 0.8) ,
(p
X
5
(.) = p
X
9
(.), 0.3) , (p
X
6
(.) = p
X
10
(.), 1) ,
(p
X
7
(.), 0.2) , (p
X
8
(.), 0.2) , (p
X
11
(.), 0.3) , (p
X
12
(.), 0.6)
} .
Die fuzzifizierende Wahrscheinlichkeitsfunktion ~
p
~
X
(.) lautet
~
p
~
X
(x) = 0 f¨
ur x
2,
~
p
~
X
(3) =
1
0.3
0
1
3
,
~
p
~
X
(4) =
0.3
1
0.2
0
1
3
2
3
,
~
p
~
X
(5) =
0.6
1
0.8
0
1
3
2
3
,
~
p
~
X
(6) =
0.8
1
0.6
0
1
3
2
3
,
~
p
~
X
(x) = 0 f¨
ur x
7.
Mit Hilfe einer unscharfen Wahrscheinlichkeitsverteilung kann auch die unscharfe
Wahrscheinlichkeit einer klassischen Teilmenge A von U berechnet werden. Liegt eine
diskrete unscharfe Wahrscheinlichkeitsverteilung vor, die durch eine Fuzzy-Schar von
Wahrscheinlichkeitsfunktionen ~
~
p
~
X
(.) gegeben ist, bestimmt sich die unscharfe Wahr-
scheinlichkeit ~
P (A) von A
U durch
~
P (A) =
p,
~
P (A)
(p)
~
P (A)
(p) =
sup
p
X
(.)
supp(~~p
~
X
(.)):
xA
p
X
(x)=p
~
~
p
~
X
(.)
(p
X
(.))
. (4.53)
Im Fall einer diskreten unscharfen Wahrscheinlichkeitsverteilung, die durch eine Fuzzy-
Schar von Dichtefunktionen
~~
f
~
X
(.) gegeben ist, wird die unscharfe Wahrscheinlichkeit
von ~
P (A) von A
U berechnet durch
~
P (A) =
p,
~
P (A)
(p)
~
P (A)
(p) =
sup
f
X
(.)
supp(
~~
f
~
X
(.)):
A
f
X
(x)dx=p
~~
f
~
X
(.)
(f
X
(.))
.
(4.54)
Speziell auf einem endlichen Universum U =
{u
1
, ..., u
n
} kann aus einer (diskre-
ten) fuzzifizierenden Funktion p : U
F([0, 1]) eine Fuzzy-Wahrscheinlichkeitsver-
teilung "herausgefiltert" werden.
44
Eine Fuzzy-Wahrscheinlichkeitsverteilung, die als
Fuzzy-Vektor
~
p
(R
(n)
)
(x
1
), ..., ~
p
(R
(n)
)
(x
n
) angeschrieben wird, erh¨
alt man, indem man
den Bildvektor ~
p(x
1
)
... ~p(x
n
) mit dem Standardsimplex R
(n)
in [0, 1]
n
schneidet,
der definiert ist als Relation
R
(n)
:=
(p
1
, ..., p
n
)
[0, 1]
n
n
i=1
p
i
= 1
.
Die unscharfe Wahrscheinlichkeitsverteilung hat also die folgende Gestalt
~
p
(R
(n)
)
(x
1
), ..., ~
p
(R
(n)
)
(x
n
) := (~
p(x
1
)
... ~p(x
n
))
min
R
(n)
,
(4.55)
mit der Zugeh¨
origkeitsfunktion
~
p
(R(n))
(x
1
),..., ~
p
(R(n))
(x
n
)
(p
1
, ...p
n
)
= min
~
p
(R(n))
(x
1
)
(p
1
), ...,
~
p
(R(n))
(x
n
)
(p
n
), 1
R
(n)
(p
1
, ..., p
n
) ,
(4.56)
44
Vgl. Dubois / Prade (1992a), S. 144 f., Bandemer / Gottwald (1993), S. 171, Buckley / Eslami
(2002), S. 35, Buckley / Eslami (2003), S. 501 f., Comploj (2002), S. 110 ff.

74
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
wobei 1
R
(n)
(p
1
, ..., p
n
) =
1 f¨
ur p
1
+ ... + p
n
= 1
0
sonst
.
Ein Vorschlag f¨
ur die Konstruktion einer unscharfen Wahrscheinlichkeitsverteilung
aus einer unscharfen (stetigen) Dichtefunktion wurde von Viertl / Hareter entwickelt.
45
Zun¨
achst wird eine unscharfe an eine unscharfe Dichtefunktion ~
f : U
F([0, )) nur
die Forderung gestellt, dass
U
~
f (x)dx = ~
1 gelten soll. Eine "unscharfe Eins" ~
1 ist dabei
eine Fuzzy-Menge mit 1
ker(~1) und supp(~1) (0, ). Das Integral
U
~
f (x)dx wird
mit Hilfe der Integration der -Niveaukurven f
und f
im Sinne von (3.61) gebildet,
d.h. 1
= (
U
f (x)dx)
=
U
f
(x)dx bzw. 1
= (
U
f (x)dx)
=
U
f
(x)dx.
Die unscharfe Wahrscheinlichkeit ~
P
V
(A) eines klassischen Ereignisses A
U erfolgt
dann mit Hilfe der folgenden ¨
Uberlegung, die auch eine Standardisierung von ~
P
V
(
) = 0
und ~
P
V
(U) = 1 mit sich bringen soll. F¨
ur
(0, 1] wird die Funktionenmenge
(f)
(.) = f (.)
[0, )
U
U
f (x)dx = 1 und f
(x)
f(x) f
(x)
x U
betrachtet. Diese ist nichtleer, da die Bedingungen etwa f¨
ur die Funktion f (.) mit
f (x) = f
(x) +
1
-1
1
-1
f
(x)
- f
(x)
x U erf¨ullt sind, was sich leicht verifizieren l¨asst.
46
Die unscharfe Wahrscheinlichkeit
~
P
V
(A) wird mit Hilfe der -Schnitte [P
V
(A), P
V
(A)],
(0, 1] defniert durch
P
V
(A) =
sup
f (.)
(f)
(.) A
f (x)dx
=
A
f
(x)dx
falls
A
f
(x)dx +
U
\A
f
(x)dx > 1
1
-
U
\A
f
(x)dx sonst
P
V
(A) =
inf
f (.)
(f)
(.) A
f (x)dx
=
1
-
U
\A
f
(x)dx falls
A
f
(x)dx +
U
\A
f
(x)dx > 1
A
f
(x)dx
sonst.
Es l¨
asst sich leicht zeigen, dass f¨
ur 0 <
1
<
2
1 gilt:
47
P
V
2
(A), P
V
2
(A)
P
V
1
(A), P
V
1
(A)
Ein weiterer Vorschlag f¨
ur ein unscharfes Wahrscheinlichkeitsmaß auf den klassi-
schen Ereignissen A des messbaren Raumes (U,
C) wird von Wu vorgestellt.
48
Auch zu
der eigenen Definition von Fuzzy-Zufallsvariablen wird von Wu eine Methode f¨
ur die
Berechnung einer unscharfen Dichtefunktion vorgeschlagen.
49
45
Vgl. Viertl / Hareter (2004a), S. 266 ff., Viertl / Hareter (2004b), S. 49 ff., Viertl / Hareter
(2004c), S. 734 f., Viertl / Hareter (2006), S. 43 ff.
46
Vgl. Viertl / Hareter (2004a), S. 267 f., Viertl / Hareter (2004b), S. 50 f., Viertl / Hareter (2004c),
S. 734 f., Viertl / Hareter (2006), S. 44 f.
47
Vgl. Viertl / Hareter (2004a), S. 268, Viertl / Hareter (2004b), S. 51, Viertl / Hareter (2004c), S.
735, Viertl / Hareter (2006), S. 46.
48
Vgl. Wu (1997), S. 142 ff.
49
Vgl. Wu (1999a), S. 144 ff., Wu (1999b), S. 243 ff.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
75
Der allererste Versuch der Definition einer Wahrscheinlichkeitsverteilung auf
F(U)
wurde von Zadeh
50
entworfen und von vielen Autoren ¨
ubernommen und zum Teil wei-
ter entwickelt.
51
Fuzzy-Mengen ~
A
F(U) werden als unscharfe Ereignisse bezeichnet,
wenn die Zugeh¨
origkeitsfunktion
~
A
: U
[0, 1] A-B
1
-messbar ist (wobei
B
1
die Borel-
sche -Algebra auf dem Interval [0, 1] ist) bzw. wenn die -Schnitte von ~
A
A-messbar
sind, also A
A (0, 1]. Ist auf U eine Wahrscheinlichkeitsfunktion p(.) (im dis-
kreten Fall) bzw. Dichtefunktion f (.) (im stetigen Fall) gegeben, so lautet die (exakte)
Wahrscheinlichkeit P ( ~
A) des unscharfen Ereignisses ~
A
F(U)
P ( ~
A) :=
x
U
~
A
(x)p(x)
im diskreten Fall
U
~
A
(x)f (x)dx im stetigen Fall.
(4.57)
Es ist leicht ersichtlich, dass im speziellen Fall von pr¨
azisen Ereignissen A
P(U) die
Wahrscheinlichkeit P (A) =
x
U
1
A
(x)p(x) =
x
A
p(x) der Definition einer gew¨
ohn-
lichen Wahrscheinlichkeit entspricht. Außerdem gilt P (
) = 0 und P (U) = 1.
Die Wahrscheinlichkeit P ( ~
A) nach (4.57) ist eine defuzzifizierte Wahrscheinlichkeit,
denn es gilt
P ( ~
A) = CoG( ~
A)
· card(~A).
Die Wahrscheinlichkeiten f¨
ur unscharfe Ereignisse nach Zadeh werden h¨
aufig f¨
ur
die Elemente einer unscharfen Partition
52
gebraucht. Dies ist eine Menge
N
F(U)
von unscharfen Teilmengen der Grundmenge U mit ~
A =
und ~A = U f¨ur ~A N , f¨ur
welche die Orthogonalit¨
atseigenschaft
~
A
N
~
A
(x) = 1
x U
erf¨
ullt ist.
53
ur Wahrscheinlichkeit der Elemente der unscharfen Partition gilt dann
amlich (etwa im stetigen Fall)
~
A
N
P ( ~
A) =
~
A
N U
~
A
(x)f (x)dx =
U ~
A
N
~
A
(x)f (x)dx
=
U
f (x)
~
A
N
~
A
(x) dx =
U
f (x)dx = 1.
Die Eigenschaft der Unabh¨
angigkeit von Ereignissen P (A
B) = P (A) · P (B) kann
nur dann auf den unscharfen Fall ¨
ubertragen werden, wenn der Durchschnitt ~
A
~B
50
Vgl. Zadeh (1968), S. 422 ff.
51
Vgl. etwa Nov´
ak (1989), S. 89 f., Dubois / Prade (1992), S. 141 ff., Bandemer / Gottwald (1993),
S. 160 ff., Rommelfanger (1994), S. 58, Yao / Hwang (1996), S. 206 ff., Hwang / Yao (1996), S. 336
ff., vgl. auch Comploj (2002), S. 94 f.
52
Vgl. etwa Bandemer / N¨
ather (1992), S. 14, Comploj (2002), S. 97 f.
53
Diese Definition stellt eine Verallgemeinerung des Begriffs der klassischen Partition dar. Im klas-
sischen Fall ist eine Partition ein System
N von Teilmengen von U mit den Eigenschaften
(i)
A =
, A = U A N
(ii)
A
B = f¨ur A = B
(iii)
AN
A = U bzw.
AN
1
A
(x) = 1
x U.
(Vgl. etwa Comploj (2002), S. 97 f.)

76
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
mit Hilfe der Produktnorm (3.21) gebildet wird. Zwei unscharfe Ereignisse ~
A, ~
B
N
heißen unabh¨
angig (im Sinne der Zadeh'schen Wahrscheinlichkeitsdefinition), wenn
P ( ~
A
alg
~
B) = P ( ~
A)
· P (~B)
gilt, also etwa im stetigen Fall
U
~
A
(x)
·
~
B
(x)
· f(x)dx =
U
~
A
(x)
· f(x)dx ·
U
~
B
(x)
· f(x)dx .
4.2.2
Unscharfe parametrische Verteilungen von Fuzzy-Zufalls-
variablen
Die Verteilungen von Fuzzy-Zufallsvariablen h¨
angen h¨
aufig von Parametern ab, d.h.
die Verteilungsfunktionen bzw. Wahrscheinlichkeitsfunktionen (im diskreten Fall) oder
Dichtefunktionen (im stetigen Fall) sind parametrische Funktionen. Parametrische ste-
tige Verteilungen sind etwa die Exponentialverteilung P
X
= Ex
mit Parameter ,
die Normalverteilung P
X
= N
,
2
mit den Parametern und
2
, die Betaverteilung
P
X
= B(a, b) mit den Parametern a und b oder die Gammaverteilung P
X
=
a,b
mit
den Parametern a und b. Parametrische diskrete Verteilungen sind etwa die Bernoulli-
Verteilung P
X
= Be
mit Parameter oder die Poisson-Verteilung P
X
= Po
mit
Parameter . Die Menge der m¨
oglichen Parameterwerte f¨
ur eine Verteilung wird als
Parameterraum bezeichnet. Die Menge aller Verteilungen, die sich nur durch ihre
Parameterwerte unterscheiden, werden als Verteilungsfamilie bezeichnet, die Parame-
terwerte durchlaufen dabei den Parameterraum.
54
Beispiele f¨
ur Verteilungsfamilien sind:
- die Familie der Exponentialverteilungen
EEx = {Ex
| IR
+
} mit Parameterraum = IR
+
- die Familie der Normalverteilungen
N = {N
(,
2
)
| IR,
2
IR
+
} mit Parameterraum = IR × IR
+
- die Familie der Betaverteilungen
B = {B
a,b
|a IR
+
, b
IR
+
} mit Parameterraum = IR
+
× IR
+
- die Familie der Gammaverteilungen
= {
a,b
|a IR
+
, b
IR
+
} mit Parameterraum = {(a, b) IR
+
× IR
+
}
- die Familie der Bernoulliverteilungen
Be = {Be
| (0, 1)} mit Parameterraum = (0, 1)
- die Familie der Poissonverteilungen
Po = {Po
| IR
+
} mit Parameterraum = IR
+
54
Vgl. Marinell (1985), S. 2 ff., Comploj (2003), S. 7.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
77
ochte man allgemein ausdr¨
ucken, dass die Zufallsvariable X eine bestimmte pa-
rametrische Verteilung besitzt, so kann man schreiben P
X
= P
. Die h¨
aufigere Schreib-
weise ist jedoch die als (parametrisches) stochastisches Modell
X
P
.
(4.58)
Die dargestellte Aufz¨
ahlung der Verteilungsfamilien ist nur eine der m¨
oglichen, so kann
etwa die Familie der Exponentialverteilungen als spezielle Subfamilie der Gammaver-
teilungen angesehen werden mit a = 1 und b =
1
IR
+
. Alle der genannten Vertei-
lungsfamilien geh¨
oren ihrerseits wiederum zur Exponentialfamilie.
55
Parametrische Verteilungen sollen nun auch f¨
ur Fuzzy-Zufallsvariablen eingef¨
uhrt
werden.
Definition: Es wird angenommen, X
P
0
ist ein parametrisches stochastisches Mo-
dell, und ist der Parameterraum zu P ,
0
.
56
(i) Eine Fuzzy-Perzeption ~
X von X mit
~
X
(X) > 0 heißt verteilungstreue Fuzzy-
Perzeption von X, wenn alle Originale Y
supp( ~
X) derselben Verteilungsfamilie
angeh¨
oren, d.h. wenn gilt
Y supp( ~
X)
: Y P
.
(4.59)
(ii) Die Fuzzy-Menge ~
F(), die gegeben ist durch
~
() =
sup
X
supp( ~
X):X
P
~
X
(X)
(4.60)
ur
, heißt Fuzzy-Verteilungsparameter von ~
X.
(iii) Ist ~
X eine Fuzzy-Zufallsvariable, deren Originale X
supp( ~
X) derselben pa-
rametrischen Verteilungsfamilie angeh¨
oren, und ist ~
gem¨
aß (4.60) der Fuzzy-
Verteilungsparameter von ~
X, dann wird geschrieben:
~
X
~
P
~
.
(4.61)
Die Schreibweise (4.61) heißt unscharfes (parametrisches) stochastisches Modell.
Die Schreibweise als unscharfes stochastisches Modell (4.61) ist somit eine verk¨
urzte
Schreibweise f¨
ur die folgenden beiden Sachverhalte:
X supp( ~
X)
supp(~) : X P
(gem¨
aß (4.59))
und
~
() =
sup
X
supp( ~
X):X
P
~
X
(X) f¨
ur
supp(~) (gem¨aß (4.60)).
55
Vgl. Krendall / Stuart / Ord (1987), S. 191 ff., Gelman / Carlin / Stern / Rubin (1995), S. 38,
Robert (2001), S. 115 ff.
56
Auch bei M¨
oller / Graf / Beer (2003), S. 1570, M¨
oller / Beer (2004), S. 109 ff., wird bei un-
scharfen parametrischen Verteilungen unterschieden zwischen unscharfen Verteilungen mit scharfem
Funktionstyp und unscharfen Verteilungen mit unscharfem Funktionstyp.

78
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Nun k¨
onnen auch f¨
ur verteilungstreue Fuzzy-Perzeptionen von parametrisch verteil-
ten Zufallsvariablen Wahrscheinlichkeits- bzw. Dichtefunktion und Verteilungsfunktion
bestimmt werden.
Definition:
(i) Ist X eine diskrete Zufallsvariable mit Werten in der diskreten Menge U mit
der diskreten parametrischen Verteilung P
mit der Wahrscheinlichkeitsfunktion
p(.) auf U, und ist ~
X eine verteilungstreue Fuzzy-Perzeption von X, dann ist
~
~
p
~
X
(.) = ~
~
p(.
|~)
=
p(.
|),
~
~
p(.
|~)
(p(.
|) supp(~),
~
~
p(.
|~)
(p(.
|) = sup
supp(~
):
p(x| )=p(x|)xU
~
( )
(4.62)
die Fuzzy-Schar von parametrischen Wahrscheinlichkeitsfunktionen der Fuzzy-
Zufallsvariablen ~
X. Aus der Fuzzy-Schar (4.62) kann die folgende fuzzifizierende
parametrische Wahrscheinlichkeitsfunktion abgeleitet werden durch
~
p(x
|~)
(p) =
sup
supp(~):p(x|)=p
~
()
(4.63)
ur p
[0, 1].
(ii) Ist X eine stetige Zufallsvariable mit Werten in der ¨
uberabz¨
ahlbaren Menge U
mit der stetigen parametrischen Verteilung P
mit der Dichtefunktion f (.) auf
U, und ist ~
X eine verteilungstreue Fuzzy-Perzeption von X, dann ist
~~
f
~
X
(.) =
~~
f (.
|~)
=
f (.
|),
~~
f (.
|~)
(p(.
|) supp(~),
~~
f (.
|~)
(f (.
|) = sup
supp(~
):
f (x)=f(x)xU
~
( )
(4.64)
die Fuzzy-Schar von parametrischen Dichtefunktionen der Fuzzy-Zufallsvariablen
~
X. Aus der Fuzzy-Schar (4.64) kann die folgende fuzzifizierende parametrische
Dichtefunktion abgeleitet werden durch
~
f (x
|~)
(q) =
sup
supp(~):f(x|)=q
~
()
(4.65)
ur q
IR.
(iii) Ist X eine diskrete oder stetige Zufallsvariable mit Werten in der Menge U mit
der parametrischen Verteilung P
mit der Verteilungsfunktion F (.) auf U, und
ist ~
X eine verteilungstreue Fuzzy-Perzeption von X, dann ist
~
~
F
~
X
(.) =
~
~
F (.
|~)
=
F (.
|),
~
~
F (.
|~)
(F (.
|) supp(~),
~
~
F (.
|~)
(F (.
|) = sup
supp(~
):
F (x)=F(x)xU
~
( )
(4.66)

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
79
die Fuzzy-Schar von parametrischen Verteilungsfunktionen der Fuzzy-Zufallsvariablen
~
X. Aus der Fuzzy-Schar (4.66) kann die folgende fuzzifizierende parametrische
Wahrscheinlichkeitsfunktion abgeleitet werden durch
~
F (x
|~)
(p) =
sup
supp(~):F (x|)=p
~
()
(4.67)
ur p
[0, 1].
Begleitendes Beispiel: Ist ~
X
Po
~
, d.h. ist ~
X eine Fuzzy-Zufallsvariable mit
Poisson-verteilten Originalen ist und der Fuzzy-Verteilungsparameter von ~
X, dann
erh¨
alt man f¨
ur ~
X die folgende Fuzzy-Schar von Wahrscheinlichkeitsfunktionen nach
(4.62):
~
~
p
~
X
(.) = ~~
p
Po
(.
|~)
=
p
Po
(.
|),
~
~
p
Po
(.
|~)
(p
Po
(.
|)) supp(~),
~
~
p
Po
(.
|~)
(p
Po
(.
|)) =
sup
supp(~
):
pPo(x| )pPo(x|)xIN0
~
( )
=
x
·e
-
x!
· 1
IN
0
(x),
~
()
supp(~), x IN
0
.
(B.4.1)
Abbildung 4.1: Fuzzy-Schar von Poisson-Wahrscheinlichkeitsfunktionen
Aus ~~
p
Po
(.
|~) kann nach (4.63) eine fuzzifizierende Wahrscheinlichkeitsfunktion ~p
Po
(.
|~)
einer unscharfen Poisson-Verteilung abgeleitet werden durch
~
p
Po
(x
|~)
(p) =
sup
supp(~):p
Po
(x
|)=
x·e-
x!
·1
IN0
(x)=p
~
()
(B.4.2)

80
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ur x
IN
0
, f¨
ur p
[0, 1].
Um die -Niveaukurven p
Po
(.
|~) und p
Po
(.
|~) von ~p
Po
(.
|~) bestimmen zu bestimmen,
muss f¨
ur jedes
(0, 1] f¨ur jedes x IN
0
p
Po
(x
|~) = inf
0
¯
p
Po
(x
|) = inf
0
¯
x
·e
-
x!
· 1
IN
0
(x)
p
Po
(x
|~) = sup
0
¯
p
Po
(x
|) = sup
0
¯
x
·e
-
x!
· 1
IN
0
(x)
bestimmt werden:
d
d
x
·e
-
x!
=
x
·
x-1
·e
-
-
x
·e
-theta
x!
=
x-1
·e
-
·(x-)
x!
= 0
x - = 0 x =
Dabei werden mit
0
¯
:=
{ |
~
()
}
ur
(0, 1] die -Schnitte von ~ bezeichnet. Außerdem ist
d
2
d
2
x
·e
-
x!
=
d
d
x-1
·e
-
·(x-)
x!
=
x
·(x-1)·
(x-2)
·e
-
-x·
(x-1)
·e
-
-x·
(x-1)
·e
-
+
x
·e
-
x!
=
x-2
·e
-
x!
(x
2
- x - 2x +
2
) =
x-2
·e
-
x!
((x
- )
2
- x) .
ur x = ist
d
2
d
2
x
·e
-
x!
=
x-2
·e
-
x!
>0
(
-x)
<0
< 0 f¨
ur x > 0, daher nimmt
x
·e
-
x!
an der Stelle
= x ein Maximum an. Dieses Maximum wird jedoch nur erreicht f¨
ur
x
ur
konvexes ~
bzw. die konvexe H¨
ulle co ~
von ~
. Dagegen ist
d
d
x
·e
-
x!
=
x-
1·e-
x!
<0
·(x - )
< 0 (d.h. streng monoton fallend in ) f¨
ur x <
> 0 (d.h. streng monoton steigend in ) f¨
ur x > .
Somit ist
sup
co 0
¯
x·e-
x!
·1
IN0
(x)=
x
·e
-
x!
· 1
IN
0
(x)
ur 0
x <
x
x
·e
-x
x!
· 1
IN
0
(x)
ur
x
x
·e
-
x!
· 1
IN
0
(x)
ur x >
.
Zur Bestimmung des Infimums m¨
ussen die Schnittpunkte von
x
·e
-
x!
und
x
·e
-
x!
be-
rechnet werden:
x
·e
-
x!
=
x
·e
-
x!
=
e
-
e
-
=
e
e
-
x
= e
-
x · ln
= x
· ln(
)
- ln(
) =
-
x =
-
ln
-ln
Daher ist
inf
0
¯
x·e-
x!
·1
IN0
(x)=
x
·e
-
x!
· 1
IN
0
(x) f¨
ur 0
x
-
ln
-ln
x
·e
-
x!
· 1
IN
0
(x)
ur x
-
ln
-ln
.
Man erh¨
alt also die -Niveaukurven von co ~
p
Po
(.
|co ~):
p
Po
(x
|co ~) =
x
·e
-
x!
· 1
IN
0
(x) f¨
ur 0
x
-
ln
-ln
x
·e
-
x!
· 1
IN
0
(x)
ur x
-
ln
-ln
p
Po
(x
|co ~) =
x
·e
-
x!
· 1
IN
0
(x)
ur 0
x <
x
x
·e
-x
x!
· 1
IN
0
(x)
ur
x
x
·e
-
x!
· 1
IN
0
(x)
ur x >
(B.4.3)

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
81
Abbildung 4.2:
Fuzzifizierende Poisson-Wahrscheinlichkeitsfunktion: -Niveaukurven
Die Fuzzy-Schar von Verteilungsfunktionen lautet
~~
F
~
X
(.) =
~~
F
Po
(.
|~)
=
F
Po
(.
|),
~~
F
Po
(.
|~)
(F (
Po
.
|)) supp(~),
~~
F
Po
(.
|~)
(F
Po
(.
|)) =
sup
supp(~
):
FPo(x| )FPo(x|)xIN0
~
( )
.
Wegen F
Po
(y
|) =
y
x=0
x
·e
-
x!
· 1
IN
0
(x) = e
-
·
y
x=0
x
x!
Taylorreihen-
entwicklung f¨
ur e-
·1
IN
(y) ist
~~
F
~
X
(.) =
~~
F
Po
(.
|~) =
e
-
·
y
x=0
x
x!
· 1
IN
(x),
~
()
supp(~) .
(B.4.4)
ur die -Niveaukurven F
Po
(.
|~) und F
Po
(.
|~) von co ~
F
Po
(.
|~) gilt wegen
d
d
e
-
y
x=0
x
x!
=
-e
-
·
y
x=0
x
x!
+ e
-
· 0 +
y
x=1
x
·
x-1
x!
= e
-
·
y
-1
x=0
x
x!
-
y
x=0
x
x!
=
e
-
>0
·
(
-
y
y!
)
<0
< 0,
d.h. e
-
y
x=0
x
x!
ist streng monoton fallend in f¨
ur y
IN:
F
Po
(y
|~) = e
-
·
y
x=0
x!
· 1
IN
(y)
F
Po
(y
|~) = e
-
·
y
x=0
x!
· 1
IN
(y)
(B.4.5)

82
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Abbildung 4.3: Unscharfe Poisson-Verteilungsfunktion
Eine -schnittweise Vorgehensweise zur Berechung von Ereigniswahrscheinlichkei-
ten aus unscharfen parametrischen Wahrscheinlichkeitsverteilungungen wird von Buck-
ley empfohlen: Es ist ( ~
P
B
(A
|~)
=
{P (A|)| 0
¯
}.
57
Fuzzy-Zufallsvariablen kommen
in seinen Ausf¨
uhrungen nicht vor.
ur gew¨
ohnliche Zufallsvariablen X :
U kann mit Hilfe der Wahrscheinlich-
keits- bzw. Dichtefunktion der Erwartungswert berechnet werden. Es ist
E(X) =
x
U
x
· p
X
(x)
ur diskretes X
U
x
· f
X
(x)dx f¨
ur stetiges X.
Da nach (4.27) der Erwartungswert E ( ~
X) einer Fuzzy-Zufallsvariablen ~
X allgemein
gegeben ist durch
E ( ~
X)
(x) =
sup
X
X :E(X)=x
~
X
(X)
ur x
IR, kann die Fuzzy-Schar von Wahrscheinlichkeitsfunktionen (4.49) bzw. Dich-
tefunktionen (4.45) zur Bildung des Erwartungswertes herangezogen werden, denn jede
Wahrscheinlichkeits- bzw. Dichtefunktion in der Fuzzy-Schar ist Wahrscheinlichkeits-
bzw. Dichtefunktion einer Zufallsvariablen X
supp( ~
X). Es istf¨
ur diskretes ~
X
E ( ~
X) =
y,
E ( ~
X)
(y) ) y
IR,
E ( ~
X)
(y) =
sup
X
supp( ~
X):
xU
x
·p
X
(x)=y
~
X
(X)
(4.68)
57
Vgl. Buckley / Eslami (2004), S. 194 ff., Buckley (2004), S. 200 ff.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
83
und f¨
ur stetiges ~
X
E ( ~
X) =
y,
E ( ~
X)
(y)
y
IR,
E ( ~
X)
(y) =
sup
Y
supp( ~
X):
U
x
·f
X
(x)dx=y
~
X
(Y )
.
(4.69)
Begleitendes Beispiel: Anhand des Beispiels zur unscharfen Poisson-Verteilung soll
die Berechnung des unscharfen Erwartungswertes E ( ~
X) demonstriert werden. Es gilt
ur den Erwartungswert E(X) einer Poisson-verteilten Zufallsvariablen X
po
mit
(0, ):
E(X) = E
(X) =
x=0
x
·
x
·e
-
x!
= 0 +
x=1
x
·
x
·e
-
x!
=
x=1
x
·e
-
(x
-1)!
=
· e
-
·
x=1
x-1
(x
-1)!
=
· e
-
·
x=0
x
x!
Taylorreihe
ur e
=
· e
-
· e
=
Es ist somit
E ( ~
X) = ~
.
(B.4.6)
oller und Beer berechnen mit dieser Methode h¨
ohere unscharfe Momente f¨
ur eindi-
mensionale Fuzzy-Zufallsvariablen. Der unscharfe Erwartungswert ergibt sich als Spezi-
alfall, auch unscharfe Varianz und unscharfe Standardabweichung werden angegeben.
58
Eine weitere M¨
oglichkeit zur Bestimmung eines unscharfen Erwartungswerts geht
anstelle der unscharfen Schar von Wahrscheinlichkeits- bzw. Dichtefunktionen von der
fuzzifizierenden Wahrscheinlichkeits- bzw. Dichtefunktion und deren -Niveaukurven
aus, die Annahme einer unscharfen Zufallsvariablen ist f¨
ur die Konstruktion dieser
Art von Erwartungswert nicht erforderlich.
59
Unter Ausn¨
utzung der Monotonieeigen-
schaft des Erwartungswertfunktionals werden die -Komponenten des unscharfen Er-
wartungswerts bestimmt. Im diskreten Fall gilt
E
V
(X) :=
x
U
x
· p
X
(x)
E
V
(X) :=
x
U
x
· p
X
(x)
und im stetigen Fall
E
V
(X) :=
U
x
· f
X
(x)dx
E
V
(X) :=
U
x
· f
X
(x)dx
Der auf diese Weise gebildete Fuzzy-Erwartungswert soll mit ~
E
V
(X) bezeichnet werden.
~
E
V
(X) hat die -Schnitte
~
E
V
(X)
:= E
V
(X), E
V
(X) .
58
Vgl. M¨
oller / Beer (2004), S. 78 f., M¨
oller (2004), S. 756 f.
59
Viertl (1996), S. 156 ff., wendet diese Form des unscharfen Erwartungswerts zur Definition von
unscharfen Verlusterwartungswerten im Rahmen der unscharfen Bayes'schen Entscheidungslehre an.

84
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Begleitendes Beispiel: Die -Niveaukurven der fuzzifzierenden Wahrscheinlichkeits-
funktion einer unscharfen Poisson-Verteilung wurden bereits in (B.4.3) bestimmt. Dar-
aus ergibt sich ein unscharfer Erwartungswert ~
E
V Po
(X) durch
E
V Po
(X) =
x
IN
0
x
· p
Po
(x
|)
=
x
0,
-
ln -ln
IN
0
x
·
x
·e
-
x!
+
exp
ln - ln
ln -ln
-
ln -ln
-1 !
· 1
IN
0
-
ln
-ln
+
x
-
ln -ln
,
IN
0
x
·
x
·e
-
x!
E
V Po
(X) =
x
IN
0
x
· p
Po
(x
|)
=
x
([
0,
)
IN
0
)
x
·
x
·e
-
x!
+
x
([
,
]
IN
0
)
x
·
x
x
·e
-x
x!
+
x
((
,
)
IN
0
)
x
·
x
·e
-
x!
,
und
~
E
V Po
(X)
= E
V Po
(X), E
V Po
(X) .
Bemerkung:
(i) Man beachte die unterschiedliche Schreibweise f¨
ur E ( ~
X) und ~
E
V
(X). W¨
ahrend
bei E ( ~
X) der Erwartungswert-Operator als Fuzzy-Extension der an sich schar-
fen Erwartungswertfunktion, angewendet auf die Fuzzy Zufallsvariable ~
X, auf-
gefasst wird, ist der unscharfe Erwartungswert ~
E
V
(X) als unscharfes Funktio-
nal, also als Funktional, das ¨
uber eine fuzzifizierenden Wahrscheinlichkeits- bzw.
Dichtefunktion mit Fuzzy-Parameter ~
definiert ist, zu verstehen. Obgleich die
Zufallsvariable eigentlich scharf ist, erh¨
alt man jedenfalls unscharfe Werte liefert.
(ii) Man beachte außerdem, dass der Erwartungswert ~
E
V
(X) kein Fuzzy-Erwartungs-
wert im Sinne von (4.27)-(4.29) ist. Die -Komponenten E
V
(X) und E
V
(X)
sind keine -Komponenten im Sinne von (4.31) oder (4.35), da die -Niveaukurven
der fuzzifizierenden Wahrscheinlichkeits- bzw. Dichtefunktion im Allgemeinen
keine Wahrscheinlichkeits- bzw. Dichtefunktionen sind. Der Fuzzy-Erwartungs-
wert nach ~
E
V
(X) ist eine Verallgemeinerung des gew¨
ohnlichen Erwartungswerts
in dem Sinn, dass sich als Spezialfall f¨
ur klassische Wahrscheinlichkeits- bzw.
Dichtefunktionen der gew¨
ohnliche Erwartungswert ergibt.
Auch mit Hilfe der am Ende von Abschnitt 4.2.1 vorgestellten von Zadeh definier-
ten Wahrscheinlichkeit von unscharfen Ereignissen kann ein Erwartungswert definiert
werden. Es ist f¨
ur ~
A
F(U) der Erwartungswert bez¨uglich P gegeben durch
60
E
P
( ~
A) =
1
P ( ~
A)
x
U
x
·
~
A
(x)p(x)
im diskreten Fall
1
P ( ~
A)
U
x
·
~
A
(x)f (x)dx im stetigen Fall.
60
Vgl. Dubois / Prade (1992), S. 144 f., Comploj (2002), S. 96 f.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
85
4.3
Mehrdimensionale Gebilde aus Fuzzy-Zufalls-
variablen
4.3.1
Fuzzy-Zufallsvektoren
In vielen F¨
allen interessieren nicht nur einzelne zuf¨
allige Gr¨
oßen, sondern zuf¨
allig auf-
tretende Kombinationen von mehreren Merkmalen, welche durch Zufallsvektoren bzw.,
im unscharfen Fall, durch Fuzzy-Zufallsvektoren zu beschreiben sind.
Ist (,
A, P ) ein Wahrscheinlichkeitsraum, sind (U
1
,
C
1
) , ..., (U
m
,
C
m
) messbare R¨
au-
me, und sind X
1
, ..., X
m
m Zufallsvariablen X
i
:
U
i
, i
{1, ..., m}, d.h. X
i
:
U
i
ist f¨
ur i
{1, ...n} eine A-C
i
-messbare Abbildung, dann wird die folgende Bezeichnung
eingef¨
uhrt:
X
(i)
:=
{X
i
:
U
i
|X
i
A-C
i
-messbar
}
Das m-Tupel (X
1
, ..., X
m
) heißt Zufallsvektor der Dimension m.
61
Wird mit
C := C
1
...C
m
:=
(
{C
1
× ... × C
m
|C
1
C
1
, ..., C
m
C
m
}
die Produkt--Algebra bezeichnet,
62
so ist (X
1
, ..., X
m
) eine m-dimensionale
A-C-mess-
bare Abbildung
(X
1
, ..., X
m
) : (,
A, P ) (U
1
× ... × U
m
,
C)
(X
1
, ..., X
m
) ()
:= (X
1
(), ..., X
m
()) .
Die Verteilungsfunktion des Zufallsvektors (X
1
, ...X
m
) ist gleich der gemeinsamen Ver-
teilungsfunktion der Zufallsvariablen X
1
, ..., X
m
, d.h.
F
(X
1
,...,X
m
)
(y
1
, ..., y
m
) = P (
{X
1
y
1
} ... {X
m
y
m
}) =
= P (
{ |(X
1
(
1
)
y
1
)
... (X
m
(
m
)
y
m
)
}) .
Zu beachten ist dabei, dass die einzelnen Zufallsvariablen des Zufallsvektors im Allge-
meinen nicht unabh¨
angig sind, sondern Wechselwirkungen innerhalb des Zufallsvektors
bestehen. Die gemeinsame Verteilungsfunktion des Zufallsvektors ist also im Allgemei-
nen nicht gleich dem Produkt der Verteilungsfunktionen der einzelnen eindimensionalen
Zufallsvariablen.
63
Analoge Definitionen sind f¨
ur Fuzzy-Zufallsvariablen m¨
oglich.
Definition: Ist (,
A, P ) ein Wahrscheinlichkeitsraum, sind U
1
, ..., U
m
(Grund-)Mengen,
ist
F(U
i
) die Menge der Fuzzy-Teilmengen von U
i
ur i
{1, ..., m}, ist M
i
eine -
Algebra gem¨
aß (4.36) von Teilmengen von
F(U
i
), i
{1, ..., m}, und sind ~
X
1
, ..., ~
X
m
61
Vgl. Viertl (2003), S. 69, Bernado / Smith (1994), S. 127.
Bei M¨
oller / Graf / Beer / Sickert (2001), S. 4, M¨
oller / Graf / Beer / Sickert (2002), S. 4, M¨
oller /
Graf / Beer (2003), S. 1569 ff., M¨
oller (2004), S. 754, werden mehrdimensionale Objekte als Fuzzy-
Zufallsvariablen definiert, bei M¨
oller / Beer (2004), S. 66 ff., Sickert / Graf / Reuter (2005), S. 1709,
Beer / Spanos (2005), S. 1725, werden diese h¨
oherdimensionale Objekte als Fuzzy-Zufalsvariablen oder
Fuzzy-Zufallsvektoren bezeichnet, eindimensionale Fuzzy-Zufallsvariablen sind Spezialf¨
alle davon.
62
Vgl. Viertl (2003), S. 33 f.
63
Vgl. Viertl (2003), S. 70, Bernardo / Smith (1994), S. 127 f.

86
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
m Fuzzy-Zufallsvariablen ~
X
i
: (,
A, P ) (F(U
i
),
M
i
), ~
X
i
F(X
(i)
), i
{1, ..., m},
dann heißt
~
X
1
, ..., ~
X
m
:= ~
X
1
... ~
X
m
(4.70)
mit
( ~
X
1
,..., ~
X
m
)
(X
1
, ..., X
m
) = min
~
X
1
(X
1
), ...,
~
X
m
(X
m
)
(4.71)
Fuzzy-Zufallsvektor der Dimension m.
Die Produkt -Algebra von
M
1
, ...,
M
m
wird mit
M
:=
(
{V
1
× ... × V
m
|V
1
M
1
, ...,
V
m
M
m
})
=
M
1
...M
m
(4.72)
bezeichnet. Ein Fuzzy-Zufallsvektor ( ~
X
1
, ..., ~
X
m
)
F(X
1
× ... × X
m
) ist somit eine
m-dimensionale
A-M
-messbare Abbildung
( ~
X
1
, ..., ~
X
m
) : (,
A, P ) (F(U
1
)
× ... × F(U
m
))
( ~
X
1
, ..., ~
X
m
)()
:= ~
X
1
()
... ~
X
m
()
(4.73)
mit
( ~
X
1
,..., ~
X
m
)()
(x
1
, ..., x
m
) = min
~
X
1
()
(x
1
), ...,
~
X
m
()
(x
m
)
(4.74)
ur (x
1
, ..., x
m
)
U
1
× ... × U
m
.
Die Fuzzy-Schar von Verteilungsfunktionen
~~
F
( ~
X
1
,..., ~
X
m
)
(...) des Fuzzy-Zufallsvektors
( ~
X
1
, ..., ~
X
m
) ist gegeben durch
~~
F
( ~
X
1
,..., ~
X
m
)
(...) =
F
(X
1
,...,X
m
)
(...),
~~
F
( ~
X1,..., ~
Xm)
(...)
F
(X
1
,...,X
m
)
(...)
(X
1
, ..., X
m
)
supp( ~
X
1
)
× ... × supp( ~
X
m
),
~~
F
( ~
X1,..., ~
Xm)
(...)
F
(X
1
,...,X
m
)
(...) =
=
sup
(Y1,...,Ym)supp( ~
X1)×...×supp( ~
Xm):
F(Y1,...,Ym)(y1,...,ym)F(X1,...Xm)(y1,...,ym)
(y1,...,ym)U1×...×Um
( ~
X
1
,..., ~
X
m
)
(Y
1
, ..., Y
m
)
.
(4.75)
Aus der Fuzzy-Schar von Verteilungsfunktionen
~~
F
( ~
X
1
,..., ~
X
m
)
(...) des Fuzzy-Zufallsvektors
( ~
X
1
, ..., ~
X
m
) kann mittels der sup-Vereinigung eine fuzzifizierende Verteilungsfunktion
~
F
( ~
X
1
,..., ~
X
m
)
(...) abgeleitet werden. Es ist
~
F
( ~
X1,..., ~
Xm)
(y
1
,...,y
m
)
(p) =
sup
(X1,...,Xm)supp( ~
X1)×...×supp( ~
Xm):
F(X1,...,Xm)(y1,...,ym)=
=P(X1,...,Xm)
(
m
i=1
{Xiyi}
)
=p
min
~
X
1
(X
1
), ...,
~
X
m
(X
m
)
(4.76)

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
87
ur p
[0, 1], f¨ur (y
1
, ..., y
m
)
U
1
× ... × U
m
.
64
ur die -Niveaukurven der konvexen H¨
ulle der fuzzifizierenden Verteilungsfunktion
co ~
F
( ~
X
1
,..., ~
X
m
)
(...) gilt:
F
( ~
X
1
,..., ~
X
m
)
(y
1
, ..., y
m
) = F
(X
1
,...,X
m
)
(y
1
, ..., y
m
)
F
( ~
X
1
,..., ~
X
m
)
(y
1
, ..., y
m
) = F
(X
1
,...,X
m
)
(y
1
, ..., y
m
)
(4.77)
ur (y
1
, ..., y
m
)
U
1
× ... × U
m
ur
(0, 1]. Die Aussage kann analog wie f¨ur eindi-
mensionale Zufallsvariablen nachgewiesen werden.
65
4.3.2
Folgen von Fuzzy-Zufallsvariablen
Neben einzelnen Zufallsvariablen und Zufallsvektoren, welche gleichzeitig auftreten-
de Merkmale an einer einzelnen Untersuchungseinheit beschreiben, sind auch Fol-
gen von Zufallsvariablen, welche das gleiche Merkmal (oder die gleiche Merkmals-
kombination) bei mehreren Untersuchungseinheiten beschreiben, von Interesse. Auch
hier soll die Ber¨
ucksichtigung von unscharfen Merkmalsauspr¨
agungen durch Erweite-
rung des Konzepts auf Folgen von Fuzzy-Zufallsvariablen erm¨
oglicht werden.
66
Deren
Eigenschaften
67
stellen die Basis f¨
ur die Anwendung von Methoden der schließenden
Statistik dar.
Sind (
1
,
A
1
, P
1
), (
2
,
A
2
, P
2
),... Wahrscheinlichkeitsr¨
aume, sind (U
1
,
C
1
), (U
2
,
C
2
),...
messbare R¨
aume, ist (X
1
, X
2
, ...) = (X
i
)
i
IN
eine Folge von Zufallsvariablen, d.h. ist
ur i
IN X
i
:
i
U
i
eine
A
i
-
C
i
-messbare Abbildung, und ist
X
i
=
{X
i
:
i
U
i
|X
i
A
i
-
C
i
-messbar
} f¨ur i IN, und wird der Produktwahrscheinlichkeitsraum von
(
1
,
A
1
, P
1
), ..., (
n
,
A
n
, P
n
) f¨
ur n
IN mit
(
(n)
,
A
(n)
, P
(n)
) := (
1
× ... ×
n
,
A
1
...A
n
, P
1
...P
n
)
bezeichnet, d.h.
A
(n)
=
(
{A
1
× ... × A
n
|A
1
A
1
, ..., A
n
A
n
})
und P
(n)
= (A
1
× ... × A
n
) = P
1
(A
1
)
· ... · P
n
(A
n
),
und der Produktraum von (U
1
,
C
1
), ..., (U
n
,
C
n
) mit
(U
(n)
,
C
(n)
) := (U
1
× ... × U
n
,
C
n
...C
n
),
d.h.
C
(n)
=
(
{C
1
× ... × C
n
|C
1
C
1
, ..., C
n
C
n
}),
so ist f¨
ur n
IN
(X
1
, ..., X
n
) :
1
× ... ×
n
U
1
× ... × U
n
(
1
, ...,
n
)
(X
1
, ..., X
n
)(
1
, ...
n
)
:= (X
1
(
1
), ..., X
n
(
n
))
eine n-dimensionale
A
(n)
-
C
(n)
-messbare Abbildung.
68
64
Vgl. Kruse / Meyer (1987), S. 132.
65
Vgl. Kruse / Meyer (1987), S. 132 ff.
66
Einige Eigenschaften von Folgen von Fuzzy-Zufallsvariablen im Sinn von Puri und Ralescu werden
etwa bei Inoue (1995), S. 347 ff., beschrieben.
67
Vgl. Abschnitt 5.2.
68
Vgl. Ghosh (1970), S. 5.

88
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Die gemeinsame Verteilungsfunktion von (X
1
, ..., X
n
) ist f¨
ur n
IN gegeben durch
69
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) = P
(X
1
,...,X
n
)
(
{X
1
y
1
} ... {X
n
y
n
})
= P (
{(
1
, ...,
n
)
1
× ... ×
n
|(X
1
(
1
)
y
1
)
... (X
n
(
n
)
y
n
)
}).
Gilt f¨
ur (X
1
, ..., X
n
), n
IN, speziell
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) = F
X
1
(y
1
)
· .. · F
X
n
(y
n
) =
n
i=1
F
X
i
(y
i
)
(y
1
, ..., y
n
)
U
1
× ... × U
n
, d.h. ist
P (
{(
1
, ...,
n
)
1
× ... ×
n
|(X
1
(
1
)
y
1
)
... (X
n
(
n
)
y
n
)
}) =
= P (
{
1
1
|X
1
(
1
)
y
1
}) · ... · P ({
n
n
|X
n
(
n
)
y
n
}) =
n
i=1
P (
{
i
i
|X
i
(
i
)
y
i
}) (y
1
, ..., y
n
)
U
1
× ... × U
n
,
so heißt (X
1
, X
2
, ...) = (X
i
)
i
IN
Folge von unabh¨
angigen Zufallsvariablen.
70
Ist speziell
i
=
1
,
A
i
=
A
1
, P
i
= P
1
, U
i
= U
1
,
C
i
=
C
1
i IN und ist
F
X
i
(y) = F
X
1
(y)
i IN,
d.h. ist
P
X
i
(
{X
i
y}) = P ({ |X
i
()
y}) =
= P (
{ |X
1
()
y}) = P
X
1
(
{X
1
y})
y U, i IN, so heißen die Zufallsvariablen X
1
, X
2
, ... identisch (wie X
1
) verteilte
Zufallsvariablen, die Folge (X
1
, X
2
, ...) = (X
i
)
i
IN
heißt Folge von identisch (wie X
1
)
verteilten Zufallsvariablen.
71
Eine Folge von Zufallsvariablen (X
1
, X
2
, ...) = (X
i
)
i
IN
, X
i
: (,
A, P ) (U, C), X
i
A-C-messbar i IN, f¨ur die
F
X
i
(y) = F
X
1
(y)
y U i IN
und
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
i
(y
i
) =
n
i=1
F
X
1
(y
i
)
(y
1
, ...y
n
)
U
n
n IN
gilt, heißt Folge von unabh¨
angigen und identisch (wie X
1
) verteilten Zufallsvariablen
oder Folge von i.i.d. Zufallsvariablen (independent and identically distributed).
Analoge Definitionen sind wiederum f¨
ur Fuzzy-Zufallsvariablen m¨
oglich.
Sind (
1
,
A
1
, P
1
), (
2
,
A
2
, P
2
), ... Wahrscheinlichkeitsr¨
aume, sind U
1
, U
2
(Grund-)Men-
gen, sind f¨
ur jedes i
IN F(U
i
) die Menge der Fuzzy-Teilmengen von U
i
und
M
i
eine
-Algebra von Teilmengen im Sinn von (4.36) von U
i
, ist außerdem ( ~
X
1
, ~
X
2
, ...) =
69
Vgl. Ghosh (1970), S. 6.
70
Vgl. etwa Viertl (2003), S. 81 f., Ghosh (1970), S. 7, Grimmet / Strizaker (1992), S. 13.
71
Vgl. Viertl (2003), S. 102.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
89
( ~
X
i
)
i
IN
eine Folge von Fuzzy-Zufallsvariablen, ~
X
i
F(X
i
) f¨
ur i
IN, und wird f¨ur
n
IN der Produktwahrscheinlichkeitsraum von (
1
,
A
1
, P
1
), ..., (
n
,
A
n
, P
n
) mit
(
(n)
,
A
(n)
, P
(n)
) = (
1
× ... ×
n
,
A
1
...A
n
, P
1
...P
n
)
bezeichnet und der Produktraum von (
F(U
1
),
M
1
), ..., (
F(U
n
),
M
n
) mit
(
F(U)
(n)
, (
M
)
(n)
) = (
F(U
1
)
× ...F(U
n
),
M
1
...M
n
),
so ist das n-Tupel
~
X
1
, ... ~
X
n
:
1
× ... ×
n
F(U
1
)
× ... × F(U
n
)
(
1
, ...,
n
)
~
X
1
, ... ~
X
n
(
1
, ...,
n
) =
=
~
X
1
(
1
)
... ~
X
n
(
n
)
(4.78)
mit
(
~
X
1
,..., ~
X
n
)
(
1
,...,
n
)
(x
1
, ..., x
n
) = min
~
X
1
(
1
)
(x
1
), ...,
~
X
n
(
n
)
(x
n
)
(4.79)
ur n
IN eine n-dimensionale A
(n)
-(
M
)
(n)
-messbare Abbildung.
Die Fuzzy-Schar der gemeinsamen Verteilungsfunktionen von ( ~
X
1
, ... ~
X
n
) ist f¨
ur n
IN (analog zu Fuzzy-Zufallsvektoren) gegeben durch
~~
F
( ~
X
1
,..., ~
X
n
)
(...) =
F
(X
1
,...,X
n
)
(...),
~~
F
( ~
X1,..., ~
Xn)
(...)
F
(X
1
,...,X
n
)
(...)
(X
1
, ..., X
n
)
supp( ~
X
1
)
× ... × supp( ~
X
n
),
~~
F
( ~
X1,..., ~
Xn)
(...)
F
(X
1
,...,X
n
)
(...) =
=
sup
(Y1,...,Yn)supp( ~
X1)×...×supp( ~
Xn):
F(Y1,...,Yn)(y1,...,yn)F(X1,...Xn)(y1,...,yn)
(y1,...,yn)U1×...×Un
( ~
X
1
,..., ~
X
n
)
(Y
1
, ..., Y
n
)
.
(4.80)
Aus der Fuzzy-Schar von gemeinsamen Verteilungsfunktionen
~~
F
( ~
X
1
,..., ~
X
n
)
(...) von ( ~
X
1
, ..., ~
X
n
)
kann wiederum mittels der sup-Vereinigung eine fuzzifizierende gemeinsame Vertei-
lungsfunktion ~
F
( ~
X
1
,..., ~
X
n
)
(...) abgeleitet werden. Es ist
~
F
( ~
X1,..., ~
Xn)
(y
1
,...,y
n
)
(p) =
sup
(X1,...,Xn)supp( ~
X1)×...×supp( ~
Xn):
F(X1,...,Xn)(y1,...,yn)=p
min
~
X
1
(X
1
), ...,
~
X
n
(X
n
)
(4.81)
ur p
[0, 1] f¨ur (y
1
, ..., y
n
)
U
n
.
72
ur die -Niveaukurven der konvexen H¨
ulle der fuzzifizierenden Verteilungsfunktion
co ~
F
( ~
X
1
,..., ~
X
n
)
(...) gilt (wie bei Fuzzy-Zufallsvektoren):
F
( ~
X
1
,..., ~
X
n
)
(y
1
, ..., y
n
) = F
(X
1
,...,X
n
)
(y
1
, ..., y
n
)
F
( ~
X
1
,..., ~
X
n
)
(y
1
, ..., y
n
) = F
(X
1
,...,X
n
)
(y
1
, ..., y
n
)
(4.82)
72
Vgl. Kruse / Meyer (1987), S. 132.

90
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ur (y
1
, ..., y
n
)
U
1
× ... × U
n
ur
(0, 1].
Auch f¨
ur Folgen von Fuzzy-Zufallsvariablen k¨
onnen Folgen von unabh¨
angigen und
von identisch verteilten Fuzzy-Zufallsvariablen definiert werden.
Definition: Ist ((
1
,
A
1
, P
1
), (
2
,
A
2
, P
2
), ...) eine Folge von Wahrscheinlichkeitsr¨
au-
men, ist ((
F(U
1
),
M
1
), (
F(U
2
),
M
2
), ...) eine Folge von messbaren R¨
aumen ¨
uber den
Fuzzy-Teilmengen von Grungmengen U
1
, U
2
, ..., ist außerdem ( ~
X
1
, ~
X
2
, ...) eine Folge
von Fuzzy-Zufallsvariablen, ~
X
i
:
i
F(U
i
)
A
i
-
M
i
-messbar f¨
ur i
IN, von denen
die Fuzzy-Schar der Verteilungsfunktionen
~~
F
~
X
i
(.) gem¨
aß (4.41) ist, und ist n
IN
die Fuzzy-Schar von gemeinsamen Verteilungsfunktionen
~~
F
( ~
X
1
,..., ~
X
n
)
(...) von ( ~
X
1
, ..., ~
X
n
)
gem¨
aß (4.80) gegeben, dann heißt die Folge ( ~
X
i
)
i
IN
Folge von unabh¨
angigen Fuzzy-
Zufallsvariablen, wenn f¨
ur alle n
IN gilt:
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) = F
X
1
(y
1
)
· ... · F
X
n
(y
n
) =
n
i=1
F
X
i
(y
i
)
(4.83)
(X
1
, ..., X
n
)
supp( ~
X
1
)
× ... × supp( ~
X
n
)
(y
1
, ..., y
n
)
U
1
× ... × U
n
mit
~~
F
( ~
X1,..., ~
Xn)
(...)
F
(X
1
,...,X
n
)
(...) =
sup
(Y1,...,Yn)supp( ~
X1)×...×supp( ~
Xn):
n
i=1
FYi(yi)
n
i=1
FXi(yi) (y1,...,yn)U1×...×Un
( ~
X
1
,..., ~
X
n
)
(Y
1
, ..., Y
n
),
(4.84)
d.h.
~~
F
( ~
X
1
,..., ~
X
n
)
(...) =
F
(X
1
,...,X
n
)
(...),
~~
F
( ~
X1,..., ~
Xn)
(...)
F
(X
1
,...,X
n
)
(...)
(X
1
, ..., X
n
)
supp( ~
X
1
)
× ... × supp( ~
X
n
),
~~
F
( ~
X1,..., ~
Xn)
(...)
F
(X
1
,...,X
n
)
(...) =
=
sup
(Y1,...,Yn)supp( ~
X1)×...×supp( ~
Xn):
n
i=1
FYi(yi)
n
i=1
FXi(yi) (y1,...,yn)U1×...×Un
( ~
X
1
,..., ~
X
n
)
(Y
1
, ..., Y
n
)
.
(4.85)
ur Folgen von unabh¨
angigen Fuzzy-Zufallsvariablen ( ~
X
i
)
i
IN
gilt also insbesondere:
- Alle Folgen (X
1
, X
n
, ...)
supp( ~
X
1
)
× supp( ~
X
2
)
× ... sind Folgen von unabh¨angi-
gen Zufallsvariablen.
- F¨
ur alle
(0, 1] gilt: n IN : (X
1
, ..., X
n
)
X
1
× ... × X
n
:
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
i
(y
i
)
(4.86)
(y
1
, ..., y
n
)
U
1
× ... × U
n
.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
91
- Weiter gilt die Eigenschaft, auf der die Definintion einer Folge von unabh¨
angigen
Fuzzy-Zufallsvariablen von Kruse / Meyer beruht:
73
Ist ~
F
~
X
i
(.) die fuzzifizierende
Verteilungsfunktion von ~
X
i
gem¨
aß (4.42) f¨
ur i
IN, und ist ~
F
( ~
X
1
,..., ~
X
n
)
(...) die
gemeinsame fuzzifizierende Verteilungsfunktion von ( ~
X
1
, ..., ~
X
n
) gem¨
aß (4.81) f¨
ur
n
IN. Dann gilt f¨ur Folgen ( ~
X
i
)
i
IN
von unabh¨
angigen Fuzzy-Zufallsvariablen
gem¨
aß (4.83)-(4.85):
~
F
( ~
X
1
,..., ~
X
n
)
(y
1
, ..., y
n
) =
n
i=1
~
F
~
X
i
(y
i
)
(4.87)
ur (y
1
, ..., y
n
)
U
1
× ... × U
n
. Die Forderung (4.87) ist jedoch schw¨
acher als die
Forderung (4.85).
- F¨
ur alle
(0, 1] gilt:
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
i
(y
i
)
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
i
(y
i
)
(4.88)
(y
1
, ..., y
n
)
U
1
× ... × U
n
n IN.
Definition: Ist (,
A, P ) ein Wahrscheinlichkeitsraum, und (F(U), M
) ein messbarer
Raum ¨
uber den Fuzzy-Teilmengen einer Grundmenge U, ist ( ~
X
1
, ~
X
2
, ...) eine Folge von
Fuzzy-Zufallsvariablen, ~
X
i
:
F(U) A-M
-messbar f¨
ur i
IN, f¨ur die f¨ur i IN die
Fuzzy-Schar der Verteilungsfunktionen
~~
F
~
X
i
(.) von ~
X
i
gem¨
aß (4.41) gegeben ist, dann
heißt die Folge ( ~
X
i
)
i
IN
Folge von identisch (wie ~
X
1
) verteilten Fuzzy-Zufallsvariablen,
wenn gilt:
i IN :
~~
F
~
X
i
(y) =
~~
F
~
X
1
(y)
y U
(4.89)
Insbesondere gilt f¨
ur Folgen von identisch verteilten Fuzzy-Zufallsvariablen ( ~
X
i
)
i
IN
:
- Es ist
X
1
supp( ~
X
1
)
i IN:
X
i
supp( ~
X
i
) : F
X
i
(y) = F
X
1
(y)
y U
(4.90)
mit
~
X
i
(X
i
) =
sup
Y1supp( ~
X1):
FXi(y)FY1(y)yU
~
X
1
(Y
1
),
(4.91)
und
i IN X
i
supp ~
X
i
:
X
1
supp( ~
X
1
) : F
X
1
(y) = F
X
i
(y)
y U
(4.92)
mit
~
X
1
(X
1
) =
sup
Yisupp(
~
Xi):
FXi(y)FY1(y)yU
~
X
i
(Y
i
).
(4.93)
73
Vgl. Kruse 843, S. 200, Kruse / Meyer (1987), S. 137, Comploj (1994), S. 141, Comploj (2002),
S. 127.

92
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
- Ferner gilt f¨
ur alle
(0, 1]:
X
1
X
1
i IN X
i
X
i
: F
X
i
(y) = F
X
1
(y)
y U
i IN X
i
X
i
X
1
X
1
: F
X
1
(y) = F
X
i
(y)
y U
(4.94)
- Es existiert zu jedem X
1
supp( ~
X
1
) eine Folge von identisch wie X
1
verteilten
Zufallsvariablen (X
1
, X
2
, ...)
supp( ~
X
1
)
× supp( ~
X
2
)
× ..., d.h.
F
X
i
(y) = F
X
1
(y)
y U i IN
mit
~
X
i
(X
i
) =
sup
Y1supp( ~
X1):
FY1 (y)FXiFX
1
(y)yU
~
X
1
(Y
1
)
i IN.
- Es gilt somit f¨
ur alle
(0, 1]:
X
1
X
1
eine Folge von identisch wie X
1
verteilten Zufallsvariablen (X
1
, X
2
, ...)
X
1
× X
2
× ..., d.h. F
X
i
(y) = F
X
1
(y)
y U i IN.
- Allerdings gilt die Umkehrung im Allgemeinen nicht,
d.h. sind ( ~
X
1
, ~
X
2
, ...) identisch verteilt, so ist eine beliebige Folge von Zufallsva-
riablen (X
1
, X
2
, ...)
supp( ~
X
1
)
× supp( ~
X
2
)
× ... im Allgemeinen nicht identisch
verteilt, d.h. f¨
ur i, j
IN, i = j, ist im Allgemeinen F
(X
i
)
(y) = F
(X
j
)
(y) f¨
ur y
U.
- Ist ~
F
~
X
i
(.) die fuzzifizierende Verteilungsfunktion von ~
X
i
ur i
IN, so gilt f¨ur
eine Folge von identisch (wie ~
X
1
) verteilten Fuzzy-Zufallsvariablen ( ~
X
i
)
i
IN
:
~
F
X
i
(y) = ~
F
X
1
(y)
y U i IN
(4.95)
und
(0, 1] : F
X
i
(y) = F
X
1
(y)
F
X
i
(y) = F
X
1
(y).
(4.96)
Die Eigenschaft (4.95) ist bei Kruse / Meyer
74
die definitorische Eigenschaft f¨
ur
identisch verteilte Fuzzy-Zufallsvariablen. Die Bedingung (4.95) ist jedoch schw¨
a-
cher als die Bedingung (4.89).
Definition: Ist (,
A, P ) ein Wahrscheinlichkeitsraum, und (F(U), M
) ein messbarer
Raum ¨
uber den Fuzzy-Teilmengen einer Grundmenge U, ist ( ~
X
1
, ~
X
2
, ...) eine Folge von
Fuzzy-Zufallsvariablen, ~
X
i
:
F(U) A-M
-messbar f¨
ur i
IN, f¨ur die f¨ur i IN die
Fuzzy-Schar der Verteilungsfunktionen
~~
F
~
X
i
(.) von ~
X
i
gem¨
aß (4.41) gegeben ist, und
ist f¨
ur n
IN die Fuzzy-Schar der gemeinsamen Verteilungsfunktionen
~~
F
( ~
X
1
,..., ~
X
n
)
(...)
von ( ~
X
1
, ..., ~
X
n
) gem¨
aß (4.80) gegeben, dann heißt die Folge ( ~
X
i
)
i
IN
Folge von i.i.d.
74
Vgl. Kruse (1984), S. 200, Kruse / Meyer (1987), S. 141, Comploj (1994), S. 141, Comploj (2002),
S. 128.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
93
(unabh¨
angigen und identisch verteilten) Fuzzy-Zufallsvariablen, wenn gilt:
(i)
~~
F
( ~
X
1
,..., ~
X
n
)
(...) =
F
(X
1
,...,X
n
)
(...),
~~
F
( ~
X1,..., ~
Xn)
(...)
F
(X
1
,...,X
n
)
(...)
(X
1
, ..., X
n
)
supp( ~
X
1
)
× ... × supp( ~
X
n
),
F
(X
1
,...,X
n
)
(y
1
, .., y
n
) =
n
i=1
F
X
i
(y
i
)
(4.97)
(y
1
, ..., y
n
)
U
n
,
~~
F
( ~
X1,..., ~
Xn)
(...)
F
(X
1
,...,X
n
)
(...) =
=
sup
(Y1,...,Yn)supp( ~
X1)×...×supp( ~
Xn):
n
i=1
FYi(yi)
n
i=1
FXi(yi)
(y1,...,yn)U1×...×Un
min
~
X
1
(Y
1
), ...,
~
X
n
(Y
n
)
(ii)
~~
F
~
X
i
(y) =
~~
F
~
X
1
(y)
y U i IN
(4.98)
Ist( ~
X
i
)
i
IN
eine Folge von i.i.d. Fuzzy-Zufallsvariablen nach (4.97)-(4.98), so existiert
zu jedem X
1
supp( ~
X
1
) eine Folge von i.i.d. Zufallsvariablen (X
1
, X
2
, ...)
supp( ~
X
1
)
×
supp( ~
X
2
)
× ... mit:
(i)
F
X
i
(y) = F
X
1
(y)
y U i IN
(ii)
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
i
(y
i
) =
n
i=1
F
X
1
(y
i
)
(y
1
, ..., y
n
)
U
n
n IN
(4.99)
(iii)
~~
F
( ~
X1,..., ~
Xn)
(...)
F
(X
1
,...,X
n
)
(...) =
=
sup
(Y1,...,Yn)supp( ~
X1)×...×supp( ~
Xn):
F(Y1,...,Yn)(y1,...,yn)F(X1,...,Xn)(y1,...,yn)
n
i=1
F
X
1
(yi) (y1,...,yn)Un
min
~
X
1
(Y
1
), ...,
~
X
n
(Y
n
)
=
sup
(Y1,...,Yn)supp( ~
X1)×...×supp( ~
Xn):
n
i=1
FYi(yi)
n
i=1
F
X
1
(yi)
(y1,...,yn)Un
~
X
1
(Y
1
),
bzw. es existiert
(0, 1] zu jedem X
1
X
eine Folge von i.i.d. Zufallsvariablen

94
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(X
1
, X
2
, ...)
X
1
× X
2
× ... mit:
(i)
F
X
i
(y) = F
X
1
(y)
y U i IN
(ii) F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
i
(y
i
) =
n
i=1
F
X
1
(y
i
)
(y
1
, ..., y
n
)
U
n
n IN
(4.100)
Die Umkehrung gilt jedoch im Allgemeinen nicht, d.h. eine beliebige Folge von
Zufallsvariablen (X
1
, X
2
, ..)
supp( ~
X
1
)
×supp( ~
X
2
)
×... ist im Allgemeinen keine Folge
von i.i.d. Zufallsvariablen, denn die Zufallsvariablen X
1
, X
2
, ... sind zwar unabh¨
angig,
doch im Allgemeinen nicht identisch verteilt, im Fall einer parametrischen Verteilung
geh¨
oren sie der gleichen Verteilungsfamilie an, unterscheiden sich jedoch hinsichtlich
des Verteilungsparameters.
Ist f¨
ur i
IN die fuzzifizierende Verteilungsfunktion ~
F
~
X
i
(.) von ~
X
i
gem¨
aß (4.41) ge-
geben, und ist f¨
ur n
IN die gemeinsame fuzzifizierende Verteilungsfunktion ~
F
( ~
X
1
,..., ~
X
n
)
(...)
von ( ~
X
1
, ..., ~
X
n
) gem¨
aß (4.80) gegeben, so gilt f¨
ur eine Folge von i.i.d. Fuzzy-Zufallsva-
riablen ( ~
X
i
)
i
IN
:
(i)
~
F
~
X
i
(y) = ~
F
X
1
(y)
y U, i IN
(4.101)
(ii)
~
F
( ~
X
1
,..., ~
X
n
)
(y
1
, ..., y
n
) =
n
i=1
~
F
~
X
i
(y
i
) =
n
i=1
~
F
~
X
1
(y
i
)
(4.102)
(y
1
, ..., y
n
)
U
n
n IN
Die Eigenschaften (4.101) und (4.102) stellen bei Kruse / Meyer
75
die Grundlage f¨
ur die
Definition einer Folge von i.i.d. Fuzzy-Zufallsvariablen dar. Die Bedingungen (4.101)-
(4.102) sind jedoch schw¨
acher als die Bedingungen (4.97)-(4.98). Ist ( ~
X
i
)
i
IN
eine Fol-
ge von i.i.d. Fuzzy-Zufallsvariablen, so sind f¨
ur
(0, 1] die Folgen (X
i
)
i
IN
und
(X
i
)
i
IN
Folgen von (gew¨
ohnlichen) i.i.d. Fuzzy-Zufallsvariablen, d.h.
(0, 1]:
(i)
F
X
i
(y) = F
X
1
(y)
F
X
i
(y) = F
X
1
(y)
y U i IN
(4.103)
(ii)
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
i
(y
i
) =
n
i=1
F
X
1
(y
i
)
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
i
(y
i
) =
n
i=1
F
X
1
(y
i
)
(4.104)
(y
1
, ..., y
n
)
U
n
n IN
4.3.3
Unscharfe stochastische Prozesse
Die abz¨
ahlbaren Folgen von Zufallsvariablen aus Abschnitt 4.3.2 stellen ihrerseits Spe-
zialf¨
alle von stochastischen Prozessen dar, welche im Allgemeinen ¨
uberabz¨
ahlbar sind.
76
75
Vgl. Kruse (1984), S. 202, Kruse / Meyer (1987), S. 141, Comploj (1994), S. 141, Comploj (2002),
S. 128.
76
Vgl. Viertl (2003), S. 101 und S. 113, Kruse / Meyer (1987), S. 131, Guttorp (1995), S. 5 f.,
Nguyen / Rogers (1989a), S. 127, Krengel (1991), S. 63, Comploj (2002), S. 126.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
95
Indizierte Familien (X
t
)
t
T
von Zufallsvariablen bezeichnet man als stochastische Pro-
zesse, T
IR bezeichnet dabei eine Indexmenge,
77
im Allgemeinen eine Teilmenge der
Zeitachse.
Der Begriff des stochastischen Prozesses wurde auf den Fall unscharfer stocha-
stischer Gr¨
oßen erweitert. Ausgegangen wird dabei von dem allgemeineren Begriff
der unscharfen stochastischen Funktion, die definiert ist als eine unscharfe Abbildung
~
X : U
× F(V); (u, ) ~
X
u
() := ~
X(u, ).
78
U kann dabei eine beliebige Menge
sein.
Ein unscharfer stochastischer Prozess ist dann eine spezielle stochastische Funktion,
bei der die Definitionsmenge eine Teilmenge der Zeitachse ist:
79
Definition: Gegeben ist ein Wahrscheinlichkeitsraum (,
A, P ), T ist eine Teilmenge
der Zeitachse, also T = [0,
) oder T = {t
0
, t
1
, t
2
, ...
}. Ist f¨ur jedes t T die Abbildung
~
X
t
: (,
A, P ) (F(U), M
);
X
t
() eine Fuzzy-Zufallsvariable, dann heißt die
Abbildung
~
X : T
× F(U)
(t, )
~
X(t, ) := ~
X
t
(),
(4.105)
unscharfer stochastischer Prozess. Alternativ kann der unscharfe stochastische Prozess
auch als Familie von Fuzzy-Zufallsvariablen ( ~
X
t
)
t
T
angeschrieben werden. F¨
ur jedes
feste
ist die Abbildung ~
X(., ) bzw. die Familie ( ~
X
t
())
t
T
eine dynamische
Fuzzy-Menge, welche als unscharfe Trajektorie des unscharfen stochastischen Prozesses
bezeichnet wird.
Begleitendes Beispiel: In Abschnitt 2.2 wurde der stochastische Prozess (X
t
)
t
[0,)
,
der die bis zum Zeitpunkt t eingetretenen zuf¨
alligen Ereignisse z¨
ahlt, eingef¨
uhrt, wel-
cher, sofern die durchschnittliche Anzahl der Ereignisse in einem Zeitintervall ¨
uber die
Zeit hinweg konstant bleibt, als Poisson-Prozess bezeichnet wird. In Abschnitt 3.3.2
wurde schließlich in (3.102)-(3.104) ein Konzept zur unscharfen Z¨
ahlung von unschar-
fen Ereignissen vorgestellt, wobei ( ~
A
t
) die unscharfe Anzahl von unscharfen Ereignissen
bis zum Zeitpunkt t beschreibt. ( ~
A
t
)
t
[0,)
ist somit eine dynamische Fuzzy-Menge.
Ist die Anzahl der im betrachteten Zeitintervall auftretenden unscharfen Ereignisse
zuf¨
allig, wie etwa die unscharfe Anzahl der Flutwellen unscharf kritischer H¨
ohe, so ist
( ~
X
t
)
t
[0,)
, ~
X
t
:
F(IN); ~
X
t
() = ~
A
t
der unscharfe Poisson-Prozess, der die
zuf¨
allige unscharfe Anzahl der Flutwellen unscharf kritischer H¨
ohe beschreibt. Die Folge
der unscharfen Anzahlen von Flutwellen kritischer H¨
ohe in disjunkten Zeitintervallen
ist insbesondere eine Folge von i.i.d. Fuzzy-Zufallsvariablen.
Ein unscharfer Erneuerungsprozess auf Basis von Fuzzy-Zufallsvariablen im Sinne
von Kwakernaak wurde von Hwang
80
konstruiert. Die Folge von i.i.d. Zufallsvariablen
77
Vgl. Viertl (2003), S. 113.
78
Vgl. M¨
oller / Graf / Beer / Sickert (2002), S. 5, Sickert / Graf / Beer / M¨
oller (2003), S. 380
f., M¨
oller / Beer (2004), S.79 ff., Sickert / Graf / Reuter (2005), S. 1709 ff., M¨
oller / Beer / Graf /
Sickert (2006), S. 601 f.
79
Vgl. Sickert / Beer / Graf /M¨
oller (2003), S. 380, Sickert / Graf / Reuter (2005), S. 1709, M¨
oller
/ Beer (2004), S.85 und S. 88 f., M¨
oller / Beer / Graf / Sickert (2006), S. 602. In der Definition von
Viertl / Hareter (2004b), S. 53, kann T auch eine allgemeinere Parametermenge sein.
80
Vgl. Hwang (2000), S. 237 ff.

96
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(X
n
)
n
IN
beschreibt im scharfen Fall die Folge der Zeitintervalle zwischen eintretenden
Ereignissen, etwa die Lebensdauern von gleichartigen Bauteilen, welche bei Ausfal-
len nacheinander ersetzt werden. Die Folge der Summe der Lebensdauern (S
n
)
n
IN
,
S
n
=
n
i=1
X
n
, heißt der zur Folge (X
n
)
n
IN
geh¨
orende Erneuerungsprozess. Die Folge
der Anzahlen der jeweils bis zum Zeitpunkt t
0 eingetretenen (Erneuerungs-) Er-
eignisse (N
t
)
t
0
, N
t
= sup
{n IN
0
|S
n
t}, wird als der zum Erneuerungsprozess S
n
geh¨
orende Z¨
ahlprozess bezeichnet. F¨
ur exponentialverteilte Lebensdauern X
t
ist der
dazu geh¨
orende Z¨
ahlprozess Poisson-verteilt.
81
Hwang demonstriert seinen unscharfen Erneuerungsprozess anhand des Beispiels
eines Ger¨
ates, welches von einer Batterie mit Energie versorgt wird, die bei Ausfallen
jeweils durch eine gleichartige ersetzt wird. Da die Lebensdauer von Batterien klarer-
weise unscharf ist, beschreibt die Folge von Fuzzy-Zufallsvariablen ( ~
X
n
)
n
IN
die Folge
der unscharfen Lebensdauern der Batterien.
82
Die Fuzzy-Zufallsvariable ~
S
n
=
n
i=1
~
X
i
beschreibt f¨
ur n
IN die unscharfe Summe der unscharfen Lebensdauern der er-
sten n Batterien. Hwang definiert diesen unscharfen Erneuerungsprozess auf Basis
der -Komponenten X
n
und X
n
der Fuzzy-Zufallsvariablen ~
X
n
im Sinn von Kwa-
kernaak, welche gew¨
ohnliche Zufallsvariblen sind. Die Folgen S
n
=
n
i=1
X
i
und
S
n
=
n
i=1
X
i
definieren die Folge ( ~
S
n
)
n
IN
von Zufallsvariablen im Sinn von Kwa-
kernaak. Schließlich werden die Folgen N
t
= sup
{n IN
0
|S
n
t} und N
t
=
sup
{n IN
0
|S
n
t} definiert. Durch sie ist ein unscharfer Z¨ahlprozess ( ~
N
t
)
t
0
mit
~
N
t
(n) = sup
(0,1]
· 1
[N
t
,N
t
]
(n) f¨
ur n
IN
0
, t
0, gegeben.
83
Dieser unscharfe Erneuerungsprozess und der zugh¨
orige unscharfe Z¨
ahlprozess sind
vom theoretischen Standpunkt aus sehr interessant, allerdings ergibt sich bei der Er-
hebung empirischer Daten das Problem, dass trotz der Unsch¨
arfe der Lebensdauer
einer Batterie der Austausch immer nur zu einem einzigen exakten Zeitpunkt erfolgen
kann. Somit kann die unscharfe Summe der unscharfen Lebensdauern nie tats¨
achlich
konstruiert werden. Eine M¨
oglichkeit den Prozess zu konstruieren ist es allerdings, die
Batterie immer erst zu tauschen, wenn sie "absolut leer" ist, also nicht bereits bei l¨
asti-
gen Funktionsst¨
orungen, und die unscharfen Lebensdauern m¨
oglichkeitstheoretisch zu
interpretieren.
84
Dann macht auch eine Addition der unscharfen Lebensdauern und die
Ableitung eines unscharfen Z¨
ahlprozesses Sinn.
Popova und Wu
85
konstruieren auf Basis der Fuzzy-Zufallsvariablendefinition von
Wu einen Erneuerungsprozess mit unscharfen Erneuerungskosten. Das Entscheidungs-
problem besteht in der Ermittlung eines optimalen Erneuerungszeitpunktes. Bei ihren
osungsvorschl¨
agen wird sehr wohl ber¨
ucksichtigt, dass die Zeitpunkte f¨
ur Erneue-
rungen immer exakt sein m¨
ussen. Daraus werden zwei neue Entscheidungsprobleme
abgeleitet: das zu beachtende -Niveau des tolerierbaren Risikos und die Festlegung
eines exakten Erneuerungszeitpunktes innerhalb des Zeitintervalls auf dem gew¨
ahlten
-Niveau.
86
81
Viertl (2003), S. 114 f.
82
Zur unscharfen Lebensdauer von Batterien vgl. etwa Comploj (2002), S. 37 ff.
83
Vgl. Hwang (2000), S. 239 f.
84
In Abschnitt 3.2.6 in dieser Arbeit finden sich einige Anmerkungen zur M¨
oglichkeitstheorie.
85
Vgl. Popova / Wu (1999), S. 606 ff.
86
Vgl. Popova / Wu (1999), S. 615.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
97
Weitere Arbeiten zu Aspekten von unscharfen stochastischen Prozessen stammen
etwa von Puyin
87
, von Hu, Wu und Shao
88
, von Yoshida
89
und von Ter´
an
90
.
4.3.4
Unscharfe Stichproben
In der schließenden Statistik hat man es im Allgemeinen mit endlichen Folgen von
Zufallsvariablen zu tun.
Ist also (,
A, P ) ein Wahrscheinlichkeitsraum, (U, C) ein messbarer Raum, und ist
X : (,
A, P ) (U, C) eine Zufallsvariable, dann heißt eine endliche Folge von i.i.d.
Zufallsvariablen (X
1
, ..., X
n
), n
IN X
i
:
U f¨ur i {1, .., n}, die unabh¨angig
und identisch wie X verteilt sind, Stichprobe von X vom Umfang n. Eine Stichprobe
(X
1
, ..., X
n
) von X ist also gegeben durch
F
X
i
(y) = F
X
(y)
y U i {1, ..., n}
F
(X
1
,..,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
i
(y
i
) =
n
i=1
F
X
(y
i
)
(y
1
, ..., y
n
)
U
n
.
Ist U
IR ein kontinuierliches Universum und ist C = B(U) die -Algebra der Borel-
Mengen auf U, und ist X eine stetige Zufallsvariable auf (U,
C) mit der Dichtefunktion
f
X
(.) gegeben durch f
X
(x) =
d
dx
F (x) auf U, so lautet f¨
ur eine Stichprobe (X
1
, ..., X
n
)
von X die gemeinsame Dichtefunktion
f
(X
1
,...,X
n
)
(x
1
, ..., x
n
) =
n
i=1
f
X
(x
i
)
(x
1
, ..., x
n
)
U
n
.
Ist U
IR ein diskretes Universum und ist C = P(U), und ist X eine diskrete
Zufallsvariable auf (U,
C) mit der Wahrscheinlichkeitsfunktion p
X
(.) gegeben durch
p
X
(x) = P
X
(
{X = x}) auf U, so lautet f¨ur eine Stichprobe (X
1
, ..., X
n
) von X die
gemeinsame Wahrscheinlichkeitsfunktion
p
(X
1
,...,X
n
)
(x
1
, ..., x
n
) =
n
i=1
p
X
(x
i
)
(x
1
, ..., x
n
)
U
n
.
Basierend auf der Definition der i.i.d. Folgen von Fuzzy-Zufallsvariablen kann, ana-
log zur Definition bei scharfen Zufallsvariablen, der Begriff der unscharfen Stichprobe
definiert werden.
Definition: Ist (,
A, P ) ein Wahrscheinlichkeitsraum, ist (F(U), M
) ein messbarer
Raum ¨
uber den Fuzzy-Teilmengen einer Grundmenge U, ist ~
X :
F(U) eine Fuzzy-
Zufallsvariable, d.h. eine
A-M
-messbare Abbildung, dann heißt eine endliche Folge
( ~
X
1
, ..., ~
X
n
) der L¨
ange n von unabh¨
angigen und identisch wie ~
X verteilten Fuzzy-
Zufallsvariablen unscharfe Stichprobe der Fuzzy-Zufallsvariablen ~
X vom Umfang n.
87
Vgl. Puyin (1997), S. 45 ff.
88
Vgl. Hu / Wu / Shao (2002), S. 111 ff.
89
Vgl. Yoshida / Yasuda / Nakagami / Kurano (2000), S. 135 ff.
90
Vgl. Ter´
an (2006), S. 672 ff.

98
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Eine Stichprobe ( ~
X
1
, ..., ~
X
n
) von ~
X vom Umfang n ist somit gegeben durch:
(i)
~~
F
~
X
i
(y) =
~~
F
~
X
1
(y)
y U i IN
(4.106)
(ii)
~~
F
( ~
X
1
,..., ~
X
n
)
(...) =
F
(X
1
,...,X
n
)
(...),
~~
F
( ~
X1,..., ~
Xn)
(...)
F
(X
1
,...,X
n
)
(...)
(X
1
, ..., X
n
)
supp( ~
X
1
)
× ... × supp( ~
X
n
),
F
(X
1
,...,X
n
)
(y
1
, .., y
n
) =
n
i=1
F
X
i
(y
i
)
(4.107)
(y
1
, ..., y
n
)
U
n
,
~~
F
( ~
X1,..., ~
Xn)
(...)
F
(X
1
,...,X
n
)
(...) =
=
sup
(Y1,...,Yn)supp( ~
X1)×...×supp( ~
Xn):
n
i=1
FYi(yi)
n
i=1
FXi(yi)
(y1,...,yn)U1×...×Un
min
~
X
1
(Y
1
), ...,
~
X
n
(Y
n
)
Ist ( ~
X
1
, ..., ~
X
n
) eine Stichprobe vom Umfang n
IN einer Fuzzy-Zufallsvariablen ~
X,
so
existiert
zu
jeder
Zufallsvariablen
X
supp( ~
X)
eine
Stichprobe
(X
1
, ..., X
n
)
supp( ~
X
1
)
× ... × supp( ~
X
n
) von X mit:
(i)
F
X
i
(y) = F
X
(y)
y U i {1, ..., n}
(ii)
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
i
(y
i
) =
n
i=1
F
X
(y
i
)
(y
1
, ..., y
n
)
U
n
(4.108)
(iii)
~~
F
( ~
X1,..., ~
Xn)
(...)
F
(X
1
,...,X
n
)
(...) =
=
sup
(Y1,...,Yn)supp( ~
X1)×...×supp( ~
Xn):
F(Y1,...,Yn)(y1,...,yn)F(X1,...,Xn)(y1,...,yn)
n
i=1
FX (yi) (y1,...,yn)Un
min
~
X
1
(Y
1
), ...,
~
X
n
(Y
n
)
=
sup
Y supp( ~
X):
n
i=1
FY (yi)
n
i=1
FX (yi)
(y1,...,yn)Un
~
X
(Y )
Es existiert f¨
ur alle
(0, 1] zu jedem X X
eine Stichprobe (X
1
, ..., X
n
)
X
1
×
...
× X
n
von X mit:
(i)
F
X
i
(y) = F
X
(y)
y U i {1, ..., n}
(ii) F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
i
(y
i
) =
n
i=1
F
X
(y
i
)
(y
1
, ..., y
n
)
U
n
(4.109)

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
99
Ist umgekehrt ein n-Tupel (X
1
, ..., X
n
)
supp( ~
X
1
)
× ... × supp( ~
X
n
) gegeben, so
ist dieses im Allgemeinen nicht Stichprobe einer Zufallsvariablen X
supp( ~
X), da
im Allgemeinen f¨
ur i, j
{1, ..., }, i = j gilt: F
X
i
(y) = F
X
j
(y) f¨
ur X
i
supp( ~
X
i
),
X
j
supp(X
j
).
Ist ( ~
X
1
, ..., ~
X
n
) ein n-Tupel von i.i.d. Zufallsvariablen, so ist ( ~
X
1
, ..., ~
X
n
) Stichprobe
jeder Fuzzy-Zufallsvariablen, f¨
ur die (4.106) und (4.107) erf¨
ullt sind. Insbesondere ist
( ~
X
1
, ..., ~
X
n
) Stichprobe von ~
X
i
ur i
{1, ..., n}.
Ist ( ~
X
1
, ..., ~
X
n
) ein n-Tupel von i.i.d. Zufallsvariablen, so kann auf folgende Weise
eine Fuzzy-Zufallsvariable konstruiert werden, von der ( ~
X
1
, ..., ~
X
n
) eine Stichprobe ist:
Zu jedem n-Tupel von (scharfen) i.i.d. Zufallsvariablen (X
1
, ..., X
n
)
supp( ~
X
1
)
× ... ×
supp( ~
X
n
) mit F
X
i
(y)
=
F
X
1
(y) f¨
ur alle y
U i {1, ..., n} und
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
i
(y
i
) =
n
i=1
F
X
1
(y
i
) f¨
ur alle (y
1
, ..., y
n
)
U
n
wird ei-
ne Zufallsvariable X gew¨
ahlt, sodass (X
1
, ..., X
n
) eine Stichprobe von X ist, d.h.
F
X
i
(y) = F
X
(y)
y U i {1, ..., n}
(4.110)
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
(y
i
)
(y
1
, ..., y
n
)
U
n
,
(4.111)
und
~
X
(X) = min
X
1
(X
1
), ...,
~
X
n
(X) .
(4.112)
ur eine Stichprobe ( ~
X
1
, ..., ~
X
n
) einer Fuzzy-Zufallsvariablen ~
X gilt ferner:
~
F
~
X
i
(y) = F
~
X
(y)
y U i {1, ..., n}
(4.113)
~
F
( ~
X
1
,..., ~
X
n
)
(y
1
, ..., y
n
) =
n
i=1
~
F
~
X
(y
i
)
(y
1
, ..., y
n
)
U
n
(4.114)
Außerdem gilt f¨
ur alle
(0, 1]:
(X
1
, ..., X
n
) ist eine Stichprobe von X
und
(X
1
, ..., X
n
) ist eine Stichprobe von X
Ist U
IR ein kontinuierliches Universum, ist ~
X :
F(U) eine Fuzzy-Zufalls-
variable mit stetigen Originalen X
supp( ~
X) und ist ( ~
X
1
, ..., ~
X
n
) eine Stichprobe
von ~
X, so kann f¨
ur ( ~
X
1
, ..., ~
X
n
) die Fuzzy-Schar der gemeinsamen Dichtefunktionen

100
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
~~
f
( ~
X
1
,..., ~
X
n
)
(...) bestimmt werden. Es ist
~~
f
( ~
X
1
,..., ~
X
n
)
(...) =
f
(X
1
,...,X
n
)
(...),
~~
f
( ~
X1,..., ~
Xn)
(...)
f
(X
1
,...,X
n
)
(...)
f
(X
1
,...,X
n
)
(x
1
, ..., x
n
) =
n
i=1
f
X
i
(x
i
)
(x
1
, ..., x
n
)
U
n
,
(X
1
, ..., X
n
)
supp( ~
X
1
)
× ... × supp( ~
X
n
),
~~
f
( ~
X1,..., ~
Xn)
(...)
f
(X
1
,...,X
n
)
(...) =
=
sup
(Y1,...,Yn)supp( ~
X1)×...×supp( ~
Xn):
f(X1,...,Xn)(x1,...,xn)=
n
i=1
fXi(xi)
n
i=1
fYi(xi)
(x1,...,xn)U1×...×Un
( ~
X
1
,..., ~
X
n
)
(Y
1
, ..., Y
n
)
.
(4.115)
Mittels der sup-Vereinigung kann aus der Fuzzy-Schar von gemeinsamen Dichtefunktio-
nen (4.115) eine fuzzifizierende gemeinsame Dichtefunktion ~
f
( ~
X
1
,..., ~
X
n
)
(...) von ( ~
X
1
, ..., ~
X
n
)
abgeleitet werden:
~
f
( ~
X1,..., ~
Xn)
(x
1
,...,x
n
)
(q) =
=
sup
(X1,...,Xn)supp( ~
X1)×...×supp( ~
Xn):
f(X1,...,Xn)(x1,...,xn)=
n
i=1
fXi(xi)=q
min
~
X
1
(X
1
), ...,
~
X
n
(X
n
)
(4.116)
ur q
IR
+
.
Ist f¨
ur i
{1, ..., n} ~
F
~
X
i
(.) die fuzzifizierende Dichtefunktion von ~
X
i
und ist ~
f
~
X
(.)
die fuzzifizierende Dichtefunktion von ~
X, so gilt f¨
ur die fuzzifizierende gemeinsame
Dichtefunktion ~
f
( ~
X
1
,.., ~
X
n
)
:
co ~
f
( ~
X
1
,..., ~
X
n
)
(x
1
, ..., x
n
) =
n
i=1
co ~
f
~
X
i
(x
i
) =
n
i=1
co ~
f
~
X
(x
i
)
(4.117)
Beweis: Die G¨
ultigkeit der ersten Identit¨
at kann, wie folgt, gezeigt werden: Da Dich-
tefunktionen immer positiv sind, gilt f¨
ur beliebiges, aber fixes (x
1
, ..., x
n
)
U
n
ur
(0, 1]:
f
( ~
X
1
,..., ~
X
n
)
(x
1
, ..., x
n
) =
inf
X
1
X
1
,...,X
n
X
n
f
(X
1
,...,X
n
)
(x
1
, ..., x
n
) =
=
inf
X
1
X
1
,...,X
n
X
n
n
i=1
f
X
i
(x
i
)
f
Xi
0
=
n
i=1
inf
X
i
X
i
f
X
i
(x
i
) =
n
i=1
f
~
X
i
(x
i
)
f
( ~
X
1
,..., ~
X
n
)
(x
1
, ..., x
n
) =
inf
X
1
X
1
,...,X
n
X
n
f
(X
1
,...,X
n
)
(x
1
, ..., x
n
) =
=
inf
X
1
X
1
,...,X
n
X
n
n
i=1
f
X
i
(x
i
)
f
Xi
0
=
n
i=1
inf
X
i
X
i
f
X
i
(x
i
) =
n
i=1
f
~
X
i
(x
i
)

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
101
und
co ~
f
( ~
X
1
,..., ~
X
n
)
(x
1
, ..., x
n
)
=
inf
X
1
X
1
,...,X
n
X
n
f
(X
1
,...,X
n
)
(x
1
, ..., x
n
),
sup
X
1
X
1
,...,X
n
X
n
f
(X
1
,...,X
n
)
(x
1
, ..., x
n
)
und
co ~
f
~
X
i
(x
i
)
=
inf
X
i
X
i
f
X
i
, sup
X
i
X
i
f
X
i
ur i
{1, ..., n}
ur
(0, 1]. Die zweite Identit¨at erh¨alt man, wie folgt:
~~
f
~
X
i
(.) =
f
X
i
(.),
~~
f
Xi
(.)
(f
X
i
(.))
f
X
i
(.) =
d
dx
F
X
i
(.), F
X
i
(.)
supp
~~
F
~
X
i
(.) ,
~~
f
~
Xi
(.)
(f
X
i
(.)) =
sup
F (.)
supp
~~
F
~
Xi
(.) :
d
dx
F (x)=
d
dx
F
Xi
(x)=f
Xi
(x)
xU
~~
F
~
Xi
(.)
(F (.))
und
~~
f
~
X
(.) =
f
X
(.),
~~
f
X
(.)
(f
X
(.))
f
X
(.) =
d
dx
F
X
(.), F
X
(.)
supp
~~
F
~
X
(.) ,
~~
f
~
X
(.)
(f
X
(.)) =
sup
F (.)
supp
~~
F
~
X
(.) :
d
dx
F (x)=
d
dx
F
X
(x)=f
X
(x)
xU
~~
F
~
X
(.)
(F (.))
Es ist
~~
F
~
X
i
(.) =
~~
F
~
X
(.)
i {1, ..., n},
daher ist
d
dx
F
X
i
(.),
~~
F
~
Xi
(.)
(F
X
i
(.))
F
X
i
(.)
supp
~~
F
~
X
i
(.)
=
=
d
dx
F
X
(.),
~~
F
~
X
(.)
(F
X
(.))
F
X
(.)
supp
~~
F
~
X
(.)
,
und daher ist
~~
f
~
X
i
(.) =
~~
f
~
X
(.)
i {1, ..., n}.
Somit ist auch ~
f
~
X
i
(.) = ~
f
~
X
(.)
i {1, ..., n}.
Ist U
IR ein diskretes Universum, ist ~
X :
F(U) eine Fuzzy-Zufallsvariable
mit diskreten Originalen X
supp( ~
X), und ist ( ~
X
1
, ..., ~
X
n
) eine Stichprobe von ~
X, so
kann f¨
ur ( ~
X
1
, ..., ~
X
n
) die Fuzzy-Schar der gemeinsamen Wahrscheinlichkeitsfunktionen
~~
p
( ~
X
1
,..., ~
X
n
)
(...) bestimmt werden. Es ist

102
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
~~
p
( ~
X
1
,..., ~
X
n
)
(...) =
p
(X
1
,...,X
n
)
(...),
~~
p
( ~
X1,..., ~
Xn)
(...)
p
(X
1
,...,X
n
)
(...)
p
(X
1
,...,X
n
)
(x
1
, ..., x
n
) =
n
i=1
p
X
i
(x
i
)
(x
1
, ..., x
n
)
U
n
,
(X
1
, ..., X
n
)
supp( ~
X
1
)
× ... × supp( ~
X
n
),
~~
p
( ~
X1,..., ~
Xn)
(...)
p
(X
1
,...,X
n
)
(...) =
=
sup
(Y1,...,Yn)supp( ~
X1)×...×supp( ~
Xn):
p(X1,...,Xn)(x1,...,xn)=
n
i=1
pXi(xi)
n
i=1
pYi(xi)
(x1,...,xn)U1×...×Un
( ~
X
1
,..., ~
X
n
)
(Y
1
, ..., Y
n
)
.
(4.118)
Mittels der sup-Vereinigung kann aus der Fuzzy-Schar von gemeinsamen Wahrschein-
lichkeitsfunktionen (4.118) eine fuzzifizierende gemeinsame Wahrscheinlichkeitsfunkti-
on ~
p
( ~
X
1
,..., ~
X
n
)
(...) von ( ~
X
1
, ..., ~
X
n
) abgeleitet werden:
~
p
( ~
X1,..., ~
Xn)
(x
1
,...,x
n
)
(p) =
=
sup
(X1,...,Xn)supp( ~
X1)×...×supp( ~
Xn):
p(X1,...,Xn)(x1,...,xn)=
n
i=1
pXi(xi)=p
min
~
X
1
(X
1
), ...,
~
X
n
(X
n
)
(4.119)
ur p
[0, 1].
Ist f¨
ur i
{1, ..., n} ~p
~
X
i
(.) die fuzzifizierende Wahrscheinlichkeitsfunktion von ~
X
i
und
ist ~
p
~
X
(.) die fuzzifizierende Wahrscheinlichkeitsfunktion von ~
X, so gilt f¨
ur die fuzzi-
fizierende gemeinsame Wahrscheinlichkeitsfunktion ~
p
( ~
X
1
,.., ~
X
n
)
(...) (analog zum stetigen
Fall):
co ~
p
( ~
X
1
,..., ~
X
n
)
(x
1
, ..., x
n
) =
n
i=1
co ~
p
~
X
i
(x
i
) =
n
i=1
co ~
p
~
X
(x
i
)
(4.120)
Definition: Ist X
P
ein parametrisches stochastisches Modell mit Parameter
,
und ist ~
X gem¨
aß (4.59) eine verteilungstreue Fuzzy-Perzeption von X, d.h.
Y
supp( ~
X)
: Y P
, dann heißt eine unscharfe Stichprobe ( ~
X
1
, ..., ~
X
n
) von ~
X
mit:
(i)
~~
F
~
X
i
(.) =
~~
F
~
X
(.)
i{1, ..., n}
und
(ii)
(X
1
, ..., X
n
)
supp( ~
X
1
)
× ... × supp( ~
X
n
) :
F
(X
1
,...,X
n
)
(y
1
, ..., y
n
) =
n
i=1
F
X
i
(y
i
)
Stichprobe von verteilungstreuen Fuzzy-Perzeptionen der Zufallsvariablen X.

KAPITEL 4 UNSCHARFE STOCHASTISCHE MODELLE
103
ur eine Stichprobe von verteilungstreuen Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) von X
gilt:
(i)
F
X
(.)
supp
~~
F
~
X
i
(.)
i {1, ..., n}
(4.121)
(ii)
i {1, ..., n} X
i
supp( ~
X
i
) :
: X
P
(4.122)
Beweis: (i) folgt, weil F
X
(.)
supp
~~
F
~
X
(.)
und
~~
F
~
X
(.) =
~~
F
~
X
i
(.)
i{1, .., n}.
(ii): Wegen
~~
F
~
X
(.) =
~~
F
~
X
i
(.)
i {1, .., n} gilt i {1, .., n} X
i
supp( ~
X
i
) :
Y
supp( ~
X) : F
X
i
(.) = F
Y
(.) . Die Behauptung (4.122) folgt nun nach (4.59).
Auch f¨
ur die am Ende von Abschnitt 4.2.1 vorgestellte von Zadeh vorgeschlagene
exakte Wahrscheinlichkeit von uscharfen Ereignissen kann die gemeinsame Wahrschein-
lichkeit von mehreren unscharfen Ereignissen definiert werden. F¨
ur die unscharfen Er-
eignisse ( ~
A
1
, ..., ~
A
n
) ist die gemeinsame Wahrscheinlichkeit definiert durch
P ( ~
A
1
, ..., ~
A
n
) :=
x
U
n
i=1
~
A
i
(x)p(x)
im diskreten Fall
U
n
i=1
~
A
i
(x)f (x)dx im stetigen Fall.
Die Ereignisse ~
A
1
, ..., ~
A
n
heißen dann unabh¨
angig, wenn
P ( ~
A
1
, ..., ~
A
n
) =
n
i=1
P ( ~
A
i
)
gilt, also wenn
x
U
n
i=1
~
A
i
(x)p(x) =
n
i=1
x
U
~
A
i
(x)p(x) im diskreten Fall bzw.
U
n
i=1
~
A
i
(x)f (x)dx =
n
i=1 U
~
A
i
(x)f (x)dx im stetigen Fall ist.
91
91
Weitere Details zu gemeinsamen Wahrscheinlichkeiten von unscharfen Ereignissen werden etwa
bei Zadeh (1968), S. 423 ff., Dubois / Prade (1992), S. 141 f., beschrieben, vgl. auch Comploj (2002),
S. 95 f.

Kapitel 5
Klassische Inferenzstatistik f¨
ur
unscharfe Daten
In Kapitel 4 ging man davon aus, dass die Verteilungen der Zufallsvariablen bzw.
die unscharfen Verteilungen der Fuzzy-Zufallsvariablen bekannt seien. Tats¨
achlich sind
die wahren Wahrscheinlichkeitsverteilungen im Allgemeinen jedoch unbekannt. Aufga-
be der schließenden Statistik ist es, aufgrund empirischer Daten die Verteilungen zu
sch¨
atzen und Hypothesen ¨
uber die Verteilungen zu testen.
1
Liegen anstelle der exakten Daten nur unscharfe empirische Daten vor, so m¨
ussen
die Konzepte der schließenden Statistik entsprechend erweitert werden. Ergebnis dieser
Erweiterung sind unscharfe Sch¨
atzungen und unscharfe Tests. Wiederum kann der An-
satz der Modellierung mit Hilfe der in Kapitel 4 beschriebenen Fuzzy-Zufallsvariablen
und ihren theoretischen Momenten gew¨
ahlt werden, welcher sich auf Kwakernaak und
Kruse
2
st¨
utzt.
3
Diesem auch in der vorliegenden Arbeit gew¨
ahlten Konzept steht der
Ansatz von Viertl gegen¨
uber, welcher die Definition von unscharfen stochastischen
Gr¨
oßen vermeidet und die Unsch¨
arfe als ein rein dem empirischen Datenmaterial inne-
wohnendes Ph¨
anomen sieht. Er geht bei seinen Sch¨
atzungen und Tests im Allgemeinen
von unscharfen Stichprobenmomenten und unscharfen relativen H¨
aufigkeiten aus.
4
Interessant ist es, dass diese beiden unterschiedlichen Ans¨
atze bei klassischen sta-
tistischen Sch¨
atzungen formal zu den gleichen Ergebnissen f¨
uhren, wenngleich deren
Interpretation eine andere ist. Diese Ergebnisse zu statistischen Sch¨
atzungen werden
auch in den Abschnitten 5.3-5.4 im Wesentlichen so wiedergegeben, wie sie in der Lite-
ratur zu finden sind. Zu statistischen Tests gibt es dagegen kein einheitliches Konzept,
was aber nicht auf die Unterschiede hinsichtlich der Modellierung mit oder ohne Fuzzy-
Zufallsvariablen zur¨
uckzuf¨
uhren ist. Die wichtigsten Ans¨
atze zu statistischen Tests bei
unscharfen Daten werden hier vorgestellt, und dazu wird versucht, eigene Ideen zur
Konstruktion von Tests mit unscharfen Daten in die Arbeit einzubringen.
Einige weitere interessante Ans¨
atze zu unscharfer klassischer Inferenzstatistik sind
1
Vgl. Viertl (2003), S. 125 ff., Hafner (1989), S. 262 ff.
2
Bei Kruse / Meyer (1987), S. 71 ff., wird f¨
ur die Beschreibung der unscharfen theoretischen Mo-
mente der Fuzzy-Zufallsvariablen die ungl¨
uckliche Bezeichnung als "deskriptive Statistik" verwendet.
3
Vgl. etwa Kwakernaak (1978), S. 6 ff., Kruse / Meyer (1987), S. 71 ff.
4
Vgl. Viertl (1996), S. 85 ff., Viertl (2003), S. 189, Viertl / Hareter (2004b), S. 46 ff., Viertl /
Hareter (2006), S. 52 ff. unf S. 67 ff
104

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
105
in der Literatur noch zu finden,
5
sie werden hier aber nur teilweise kurz beschrieben.
5.1
Statistiken, Entscheidungsregeln und ihre un-
scharfen Erweiterungen
Die schließende Statistik geht von beobachteten Daten aus. Diese werden als Realisatio-
nen einer Stichprobe einer Zufallsvariablen interpretiert, deren Wahrscheinlichkeitsver-
teilung den Beobachtungen zugrunde liegt, welche aber unbekannt ist. Die schließende
Statistik versucht, Aussagen ¨
uber diese unbekannten Wahrscheinlichkeitsverteilungen
zu machen.
Um zu den gew¨
unschten Aussagen zu kommen, arbeitet die schließende Statistik mit
Stichprobenfunktionen oder Statistiken. Es liegt ein Datensatz (x
1
, ..., x
n
)
U
n
vor,
von dem angenommen wird, dass er das n-Tupel der Realistationen einer Stichprobe
(X
1
, ..., X
n
) einer Zufallsvariablen X : (,
A, P ) (U, C) ist, wobei die Wahrschein-
lichkeitsverteilung P nicht bekannt ist. Das n-Tupel (x
1
, ..., x
n
) der Realisationen einer
Stichprobe (X
1
, ..., X
n
) von X heißt auch konkrete Stichprobe von X.
Ist U das Universum der m¨
oglichen (scharfen) Realisationen von X, und wird die
Menge der m¨
oglichen Werte der Statistik mit S bezeichnet, so ist eine Statistik
s(.)
eine Funktion
s :
U
n
S
(x
1
, ..., x
n
)
s(x
1
, ..., x
n
) := .
Vor Erhebung der Stichprobe ist die Statistik s(X
1
, ..., X
n
) ebenfalls eine Zufallsvaria-
ble, deren Verteilung sowohl von der Verteilung der Zufallsvariablen X als auch von der
Funktionsform von s(.) abh¨angt.
6
Die wichtigsten Stichprobenfunktionen der schließen-
den Statistik sind Punktsch¨
atzfunktionen, Konfidenzfunktionen und Teststatistiken.
7
Als Statistik wird dabei sowohl die Stichprobenfunktion selbst als auch ihr Bild
bezeichnet.
Ist
C das Ereignisfeld auf U, so erh¨alt man das zugeh¨orige Ereignisfeld C
n
auf U
n
als die Produkt--Algebra
C
n
=
C...C =
(
{A
1
× ... × A
n
|A
1
C, ..., A
n
C}).
Ist
S :=
(
{S S|s
-1
(S)
C
n
})
die kleinste -Algebra auf S, sodass s(.) eine messbare Abbildung ist, dann ist (S, S)
ein messbarer Raum.
8
Die aus den Stichproben berechneten Statistiken stellen die Basis f¨
ur statistische
Entscheidungen dar. Statistische Entscheidungen erh¨
alt man ¨
uber Entscheidungsfunk-
tionen (Entscheidungsregeln). Bezeichnet man die Menge der m¨
oglichen statistischen
Entscheidungen mit ID, ist U das Universum der m¨
oglichen (scharfen) Realisationen
5
Vgl. Taheri (2003), S. 240 ff.
6
Vgl. Viertl (2003), S. 92.
7
Vgl. Bosch (1993), S. 337 f., Viertl (1999b), S. 247.
8
Vgl. Viertl (2003), S. 126, Viertl / Hareter (2004b), S. 46, Viertl / Hareter (2006), S. 67.

106
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
von X und ist (X
1
, ..., X
n
) eine Stichprobe von X mit Realisationen (x
1
, ..., x
n
)
U
n
,
so kann man eine statistische Entscheidungsfunktion definieren als eine Abbildung
:
U
n
ID
(x
1
, ..., x
n
)
(x
1
, ..., x
n
) =: d.
Das Bild von (.) in ID
d = (x
1
, ..., x
n
)
bezeichnet man als Entscheidung aufgrund von (x
1
, ..., x
n
). Ist
ID :=
(
{D ID|
-1
(D)
C
n
})
die kleinste -Algebra auf ID, sodass (.) eine messbare Abbildung ist, dann ist (ID,
ID)
ein messbarer Raum, genannt Entscheidungsraum. Die Menge aller Entscheidungsfunk-
tionen : U
n
ID bezeichnet man mit
:=
{ : (U
n
,
C
n
)
(ID, ID)|(.) ist C
n
-
ID-messbar}.
Wichtige statistische Entscheidungsfunktionen sind vor allem Punktsch¨
atzfunktionen,
Konfidenzfunktionen, nicht-parametrische Sch¨
atzfunktionen und Testfunktionen. Wich-
tige statistische Entscheidungen sind demnach Sch¨
atzungen (Punkt- oder Bereichs-
sch¨
atzungen f¨
ur Verteilungsparameter und nicht-parametrische Sch¨
atzungen) und sta-
tistische Testentscheidungen bez¨
uglich Hypothesen.
9
Liegen unscharfe Realisationen ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
einer Stichprobe von Fuzzy-
Perzeptionen ( ~
X
1
, ..., ~
X
n
) von X vor, so k¨
onnen mit Hilfe von Fuzzy-Stichprobenfunk-
tionen Fuzzy-Statistiken gebildet werden. Die Fuzzy-Extension s (.) einer Statistik s(.)
s :
(
F(U))
n
F(S)
( ~
A
1
, ..., ~
A
n
)
s (~A
1
, ..., ~
A
n
) =: ~
S
(5.1)
wird als Fuzzy-Stichprobenfunktion oder Fuzzy-Statistik bezeichnet. Das unscharfe
Bild ~
S = s ( ~
A
1
, ..., ~
A
n
), gegeben durch die Zugeh¨
origkeitsfunktion
10
~
S
() =
s ( ~
A
1
,..., ~
A
n
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
s(x1,...,xn)=
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) ,
(5.2)
heißt Fuzzy-Statistik oder unscharfe Statistik. Vor Erhebung der unscharfen Daten
( ~
A
1
, ..., ~
A
n
)
(F(U))
n
ist die Fuzzy-Statistik s ( ~
X
1
, ..., ~
X
n
) eine Fuzzy-Zufallsvariable,
deren unscharfe Verteilung von der Verteilung der Fuzzy-Zufallsvariablen ~
X und von
der Funktionsform von s(.) abh¨angt.
Liegen aufgrund einer Stichprobe von Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) von X die
unscharfen Realisationen ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
vor, so k¨
onnen mit Hilfe von Fuzzy-
Entscheidungsfunktionen Fuzzy-Entscheidungen gebildet werden. Die Fuzzy-Extension
einer Entscheidungsfunktion (.)
:
(
F(U))
n
F(ID)
( ~
A
1
, ..., ~
A
n
)
(~A
1
, ..., ~
A
n
) =: ~
D
(5.3)
9
Vgl. Viertl (2003), S. 126 f.
10
Vgl. Viertl (2001b), S. 21, Viertl / Hareter (2006), S. 67 f.
Als Beispiele f¨
ur unscharfe Statistiken werden von Viertl und Hareter die Berechnung der unscharfen
Stichprobenvarianz (vgl. Viertl / Hareter (2006), S. 68 ff.) und der unscharfen k-ten empirischen
Momente von unscharfen Beobachtungen (vgl. Viertl / Hareter (2006), S. 74 ff.) vorgef¨
urt.

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
107
wird als Fuzzy-Entscheidungsfunktion oder unscharfe Entscheidungsfunktion bezeich-
net. Das unscharfe Bild ~
D = ( ~
A
1
, ..., ~
A
n
), gegeben durch die Zugeh¨
origkeitsfunktion
~
D
(d) =
( ~
A
1
,..., ~
A
n
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
(x1,...,xn)=d
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) ,
(5.4)
heißt Fuzzy-Entscheidung oder unscharfe Entscheidung aufgrund von ( ~
A
1
, ..., ~
A
n
).
5.2
Wichtige Grenzwerts¨
atze der Statistik unter
Unsch¨
arfe
Sch¨
atzungen und Tests in Bezug auf Wahrscheinlichkeitsverteilungen aufgrund von
vorliegenden Daten beruhen auf Konvergenzeigenschaften. Die wichtigsten Konver-
genzeigenschaften und ihre Anwendung auf den unscharfen Fall sind in diesem Ab-
schnitt zusammengefasst.
11
Hauptaugenmerk wird dabei auf die Grenzwerts¨
atze f¨
ur
die bei der Modellierung des Problems im begleitenden Beispiel verwendeten Fuzzy-
Zufallsvariablen im Sinn von Kwakernaak gelegt.
12
Daneben sollen aber auch wichti-
ge Grenzwerts¨
atze f¨
ur den Ansatz von Viertl ohne Fuzzy-Zufallsvariablen formuliert
werden.
13
5.2.1
Starkes Gesetz der großen Zahlen f¨
ur Fuzzy-Zufallsvari-
ablen
Zun¨
achst wird der Fall gew¨
ohnlicher klassischer Zufallsvariablen betrachtet. Ist (,
A, P )
ein Wahrscheinlichkeitsraum, und ist X
1
, X
2
, ... eine Folge von i.i.d. Zufallsvariablen
X
i
: (,
A, P ) (IR, B), so kann aus dieser Folge eine weitere Folge von Zufallsvaria-
blen konstruiert werden, n¨
amlich die Folge der Summen
n
i=1
X
i
: (,
A, P ) (IR, B),
n IN. Weiters wird davon ausgegangen, dass der Erwartungswert von X
1
existiert, al-
11
Ein weiterer wichtiger Grenzwertsatz der Statistik ist der Zentrale Grenzwertsatz, der besagt,
dass die Verteilung der Mittelwerte aus Stichproben gegen eine Normalverteilung konvergiert (vgl.
etwa Viertl (2003), S. 105 ff.).
12
Auch der Zentrale Grenzwertsatz wurde auf Fuzzy-Zufallsvariablen nach Kwakernaak erweitert
(vgl. Kruse / Meyer (1987), S. 163 ff., Boswell / Taylor (1987), S. 331 ff.). Da aber Normalverteilungs-
konvergenz in der vorliegenden Arbeit nirgends vorkommt, wird auf die Beschreibung der unscharfen
Version dieses Grenzwertsatzes verzichtet.
13
Auch f¨
ur Fuzzy-Zufallsvariablen nach anderen Definitionen wurden Grenzwerts¨
atze formuliert,
etwa f¨
ur Fuzzy-Zufallsvariablen nach Puri und Ralescu bei Ralescu / Ralescu (1984), S. 88 f., Klement
/ Puri / Ralescu (1986), S. 171 ff., Proske / Puri (2002), S. 543 ff., K¨
orner (1997), S. 92 f., K¨
orner
(2000), S. 331 ff., Jang / Kwon (1998), S. 97 ff., Feng (2002), S. 237 ff., Inoue (2001), S. 23 ff., Dozzi
/ Merzbach / Schmidt (2001), S. 554 ff., Joo / Kim (2001), S. 499 ff., oder f¨
ur Fuzzy-Zufallsvariablen
nach Wu bei Wu (1999b), S. 250 ff., Wu (2000), S. 254 ff., die Grenzwerts¨
atze f¨
ur seinen eigenen
Ansatz formulierte Kr¨
atschmer (2002), S. 259 ff. Weitere Grenzwerts¨
atze f¨
ur ein Konzept, bei dem es
keine Fuzzy-Zufallsvariablen, sondern unscharfe Realsationen von gew¨
ohnlichen Zufallsvariablen gibt,
werden von Habil / Nasr (2002), S. 791 ff., bewiesen.

108
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
so E(
|X
1
|) < . Dann besagt das Kolmogorov'sche starke Gesetz der großen Zahlen:
14
P
X
1
lim
n
1
n
n
i=1
X
i
= E (X
1
)
= 1
Diese Form der Konvergenz wird auch als fast sichere Konvergenz bezeichnet, in Zei-
chen:
1
n
n
i=1
X
i
f.s.
-
n
E(X
1
)
Eine weitere ¨
aquivalente Schreibweise lautet:
M A, P (M) = 0 : \M : lim
n
1
n
n
i=1
|X
i
()
- E(X
1
)
| = 0
Das starke Gesetz der großen Zahlen wurde von Artstein / Vitale
15
auf kompakte
zuf¨
allige Mengen erweitert: Ist (,
A, P ) ein Wahrscheinlichkeitsraum, und ist (X
i
)
i
IN
eine Folge von i.i.d. zuf¨
alligen Mengen X
i
:
P(IR), f¨ur die gilt E(||X
1
||) < ,
wobei
||X|| := d
H
(X,
{0}) = sup{||x|| |x X}, dann gilt:
1
n
n
i=1
X
i
n
IN
d
H
f.s.
-
n
E (co (X
1
))
Bei Kruse / Meyer
16
findet sich folgende Formulierung des starken Gesetzes der großen
Zahlen f¨
ur zuf¨
allige Mengen:
17
Ist (,
A, P ) ein Wahrscheinlichkeitsraum, ist X
i
:
P(IR), i IN, eine Folge von i.i.d. zuf¨alligen Mengen mit X
i
() =
, i IN,
, und sind
i IN X
i
() := inf X
i
() und X
i
() := sup X
i
() zwei gew¨
ohnliche
Zufallsvariablen, d.h. X
i
und X
i
A-B-messbar i IN, wobei E(|X
1
|) < und
E(
|X
1
|) < , gilt ferner f¨ur (X
i
)
i
IN
und (X
i
)
i
IN
das gew¨
ohnliche starke Gesetz der
großen Zahlen, also
M
1
, M
2
A : P (M
1
) = P (M
2
) = 0:
\M
1
: lim
n
1
n
n
i=1
|X
i
()
- E (X
i
)
| = 0
\M
2
: lim
n
1
n
n
i=1
¯
X
i
()
- E ¯
X
i
= 0,
und ist lim
n
1
n
E (X
i
)
- E ¯
X
i
= 0, dann gilt:
lim
n
d
H
1
n
n
i=1
X
i
(),
1
n
n
i=1
E (co (X
i
))
= 0
bzw.
lim
n
d
H
1
n
n
i=1
X
i
(),
1
n
n
i=1
E (co (X
1
))
= 0
14
Vgl. etwa Viertl (2003), S. 104, Grimmet / Strizaker (1992), S. 30.
15
Vgl. Artstein / Vitale (1975), S. 880 ff.
16
Vgl. Kruse / Meyer (1987), S. 143 ff.
17
Vgl. auch Comploj (1994), S. 144.

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
109
\M, M A mit P (M) = 0, wobei d
H
(.) die Hausdorff-Distanz (3.68) ist.
Dieses starke Gesetz der großen Zahlen in der letzteren Formulierung wurde von
Kruse
18
auf Fuzzy-Zufallsvariablen gem¨
aß (4.12)-(4.22) ¨
ubertragen:
19
Satz: Ist (,
A, P ) ein Wahrscheinlichkeitsraum, ist ~
X
i
:
F
cc
(IR), i
IN, eine
Folge von i.i.d. Fuzzy-Zufallsvariablen mit X
i
und X
i
i IN im Sinne von
(4.18), ist ferner E(
|X
i
|) < und E(|X
i
|) < , und existiert i IN ein M
i
A
mit P (M
i
) = 0 und ~
X
i
()
F
ccb
(IR)
\M
i
, dann
M A mit P (M) = 0 mit
1
n
n
i=1
~
X
i
()
n
IN
d
- E co ~
X
1
(5.5)
\M. Nach (3.76) ist die Schreibweise (5.5) ¨aquivalent zu:
lim
n
d
1
n
n
i=1
~
X
i
(), E
co
~
X
1
= 0
(5.6)
\M, wobei d
(.) die Pseudometrik (3.70) auf
F(IR) ist.
ur ~
X
i
()
F
c
(IR)
i IN und ~
X
i
()
F
cb
(IR)
\M
i
i IN gilt sogar:
lim
n
d
1
n
n
i=1
~
X
i
(), E
~
X
1
= 0
(5.7)
Der Beweis des Satzes findet sich in der zitierten Literatur.
5.2.2
Schwaches Gesetz der großen Zahlen f¨
ur
Fuzzy-Zufallsvariablen
Als eine Folgerung aus dem starken Gesetz der großen Zahlen kann das schwache Gesetz
der großen Zahlen betrachtet werden. Wiederum wird vom klassischen Fall ausgegan-
gen. Ist (,
A, P ) ein Wahrscheinlichkeitsraum, und ist X
1
, X
2
, ... eine Folge von i.i.d.
Zufallsvariablen X
i
: (,
A, P ) (IR, B) mit E(|X
1
|) < , dann gilt:
lim
n
P
X
1
1
n
n
i=1
X
i
- E (X
1
)
= 0
> 0
Diese Form der Konvergenz wird auch als stochastische Konvergenz bzw. Konvergenz
in Wahrscheinlichkeit bezeichnet, in Zeichen:
1
n
n
i=1
X
i
P
- E (X
1
)
Da aus der fast sicheren Konvergenz allgemein die stochastische Konvergenz folgt, ist
das schwache Gesetz der großen Zahlen eine Folgerung aus dem starken. Unter etwas
18
Kruse (1982), S. 236 ff., Kruse / Meyer (1987), S. 143 ff.
19
Vgl. auch Comploj (1994), S. 144 f. Eine Erweiterung findet sich bei Kim (2000), S. 319 ff.

110
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
versch¨
arften Voraussetzungen kann es jedoch auch sehr leicht selbst¨
andig bewiesen
werden.
20
Auch das schwache Gesetz der großen Zahlen kann als Folgerung aus dem star-
ken Gesetz der großen Zahlen f¨
ur unscharfe Daten auf den unscharfen Fall erweitert
werden.
21
Satz: Ist (,
A, P ) ein Wahrscheinlichkeitsraum, und ist ~
X
i
:
F
cc
(IR),
i
IN eine Folge von i.i.d. Fuzzy-Zufallsvariablen (4.97)-(4.98) mit E(
|X
i0
>
|) < und
E(
|X
i0
>
|) < , dann gilt:
1
n
n
i=1
~
X
i
d
P
- E co ~
X
1
(5.8)
bzw. (¨
aquivalente Schreibweise)
lim
n
P
~
X
1
d
1
n
n
i=1
~
X
i
, E
co
~
X
1
= 0
> 0
(5.9)
5.2.3
Bernoulli's Gesetz der großen Zahlen f¨
ur unscharfe
Daten
Bei Viertl, der seine statistischen Analysen f¨
ur unscharfe Daten ohne das Konzept der
Fuzzy-Zufallsvariablen durchf¨
uhrt, wird Bernoulli's Gesetz der großen Zahlen in der
folgenden Version auf unscharfe Daten erweitert.
22
Das Bernoulli-Gesetz f¨
ur scharfe
Daten besagt, dass f¨
ur eine Folge von unabh¨
angigen Beobachtungen einer Zufallsvaria-
blen X : (,
A, P ) (U, C) mit Realisationen x
1
, x
2
, ... und ein vorgegebenes Ereignis
C
C mit der Wahrscheinlichkeit P
X
(C) = P (
{ |X() C}) und zwei beliebig
kleine positive reelle Zahlen
> 0 und > 0, eine Zahl N
,
IN existiert, so dass
n > N
,
ur die relative H¨
aufigkeit f r
n
(C) :=
card(
{i{1,...,n}|x
i
C})
n
gilt:
23
P (
{|fr
n
(C)
- P
X
(C)
| > }) 1 -
ur den Fall unscharfer Beobachtungen ( ~
A
1
, ..., ~
A
n
) ergeben sich unscharfe relative
aufigkeiten f r
n
(C)
F({0,
1
n
,
2
n
, ..., 1
}). Zur Bestimmung dieser unscharfen relativen
aufigkeiten bietet sich, in Anlehnung an das in Abschnitt 3.3.2 beschriebene Verfahren
zur Bestimmung der unscharfen Anzahl der Flutwellen unscharf kritischer H¨
ohe, das
folgende Verfahren an:
24
20
Vgl. Viertl (2003), S. 102 f.
21
Vgl. Kruse / Meyer (1987), S. 169, Taxylor / Seymour / Chen (2001), S. 1245 ff.
22
Vgl. Niculescu / Viertl (1992b), S. 168 ff., Viertl (1996), S. 95 f., Viertl / Hareter (2004b), S. 53 f.
23
Vgl. Niculescu / Viertl (1992b), S. 168, Viertl (1996), S. 95, Hafner (1989), S. 217.
24
Ein alternatives Verfahren zur Bestimmung der unscharfen absoluten H¨
aufigkeiten, aus denen
dann die relativen H¨
aufigkeiten abgeleitet werden, ist das von Viertl vorgeschlagene, zur Konstruk-
tion unscharfer Histogramme entworfene Verfahren (vgl. Viertl (1996), S. 50 ff.). Viertl bestimmt
zuerst die Werte F r
V n0
(C) := card(
{i {1, ..., n}|supp(~A
i
)
C = }) und F r
V n0
(C) := card(
{i
{1, ..., n}|supp(~A
i
)
C}) F¨ur diejenigen ~A
i
mit supp( ~
A
i
)
C = und supp(~A
i
)
C berechnet Viertl
im Anschluss die Kardinalit¨
aten card( ~
A
i
C) und card(~A
i
\C) = card(~A
i
)
- card(~A
i
C). Die ~A
i
, f¨
ur

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
111
Zuerst wird f¨
ur i
{1, ..., n} die unscharfe Ausschluss-Teilmengen-Relation oder
Exklusions-Inklusions-Relation ~
R
\
( ~
A
i
, C)
F({0, 1}) zwischen ~A
i
und C aufgestellt,
die definiert ist durch die Zugeh¨
origkeitsfunktion
~
R
\
( ~
A
i
,C)
(0) :=
~
R
\
( ~
A
i
, C) := sup
{ [0, 1]|A
i
\C = }
~
R
\
( ~
A
i
,C)
(1) :=
~
R
( ~
A
i
, C) := sup
{ [0, 1]|A
i
C}
(5.10)
Die unscharfe absolute H¨
aufigkeit F r
n
(C)
F({0, 1, ..., n}) erh¨alt man in Analogie
zu (3.103) durch unscharfe Aufsummierung der n unscharfen Exklusions-Inklusions-
Relationen
F r
n
(C) :=
n
i=1
~
R
\
( ~
A
i
, C)
(5.11)
Die unscharfe relative H¨
aufigkeit f r
n
(C)
F({0,
1
n
, ...,
n
-1
n
, 1
}) erh¨alt man durch Divi-
sion der unscharfen absoluten H¨
aufigkeit F r
n
(C) durch die Gesamtzahl der Beobach-
tungen n
f r
n
(C) :=
F r
n
(C)
n
(5.12)
bzw.
f r
n
(C)
(
j
n
) :=
F r
n
(C)
(j).
25
Die unscharfe Verallgemeinerung von Bernoulli's Gesetz der großen Zahlen ist der
folgende Satz:
26
Satz: Unter den Voraussetzungen des scharfen Bernoulli-Gesetzes der großen Zahlen
existiert eine Fuzzy-Menge ~
P
C
F({0, 1}) mit
~
P
(P
X
(C)) = 1, und f¨
ur beliebig kleine
die die beiden Werte berechnet wurden, werden nun nach der Gr¨
osse der Werte card(f uzA
i
\C) geord-
net. Nun berechnet Viertl die Zugeh¨
origkeitsfunktion der unscharfen absoluten H¨
aufigkeit F r
V n
(C)
durch
F r
V n
(C)
(j) :=
0
ur j < F r
V n0
(C)
1
ur j = F r
V n0
(C)
1
-
{i:0<card( ~
Ai\C)
card( ~
AF rV
n0
(C)+j \C)}
card( ~
A
i
\C)
card( ~
A
i
)
ur F r
V n0
(C) < j
F r
V n0
(C)
0
ur j > F r
V n0
(C).
Die unscharfe relative H¨
aufigkeit f r
V n
(C) erh¨
alt auch Viertl durch Division von F r
V n
(C) durch n
bzw.
f r
V n
(C)
(
j
n
) :=
F r
V n
(C)
(j).
Der wesentliche Unterschied zwischen beiden Definitionen unscharfer H¨
aufigkeiten besteht darin, dass
ur die H¨
aufigkeiten nach Viertl gilt: f r
V n0
(C) = f r
V n
(C) = f r
V n1
(C) f¨
ur
(0, 1], d.h. die
Unsch¨
arfe besteht hier nur bei den oberen -Komponenten, w¨
ahrend der untere Rand der unscharfen
aufigkeit scharf ist. Bei der in dieser Arbeit vorgestellten Definition von unscharfen H¨
aufigkeiten
sind dagegen der untere und der obere Bereich im Allgemeinen von Unsch¨
arfe gepr¨
agt.
25
Das hier vorgestellte Konzept entspricht dem von Viertl / Hareter (2004b), S. 6 f., Viertl / Hareter
(2006), S. 51 ff.: Dort werden die unscharfen relativen H¨
aufigkeiten mit Hilfe der -Komponenten
f r
(C) =
card({i{1,...,j}|A
i
C=})
n
und f r
(C) =
card({i{1,...,j}|A
i
C})
n
definiert.
26
Vgl. Niculescu / Viertl (1992b), S. 170, Viertl (1996), S. 96, Viertl / Hareter (2004b), S. 53 f.

112
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
positive reelle Zahlen
IR
+
und
IR+ existiert jeweils eine nat¨urliche Zahl N
,
IN, so dass
P
d
V
f r
n
(C)
- ~P
C
>
1 -
(5.13)
wobei d
V
(.) die in (3.71) definierte Distanzfunktion ist.
5.2.4
Die empirische Verteilungsfunktion und der Fundamen-
talsatz der Statistik f¨
ur unscharfe Daten
Sofern die Verteilung einer Zufallsvariablen nicht mit Hilfe von Parametern ausge-
dr¨
uckt werden kann, ist eine Sch¨
atzung der Verteilung mit Hilfe nicht-parametrischer
Sch¨
atzmethoden erforderlich. Bei nicht-parametrischer Sch¨
atzung wird die Verteilungs-
funktion F
X
(.) von X
P
X
mittels der empirischen Verteilungsfunktion gesch¨
atzt. Die
Voraussetzungen f¨
ur diese Art der Sch¨
atzung liefert der Fundamentalsatz der Statistik,
der auch als Gliwenko-Cantelli-Theorem bezeichnet wird. Die empirische Verteilungs-
funktion ist, wie folgt, definiert:
Ausgegangen wird von einer konkreten Stichprobe (x
1
, ..., x
n
) von X. Mittels ei-
ner Permutation perm werden die Zahlen x
1
, ..., x
n
so geordnet, dass gilt: x
perm(1)
x
perm(2)
... x
perm(n)
. Die klassische empirische Verteilungsfunktion F
n
(.) lautet
dann:
F
n
(x) := F
n(x
perm(1)
,...,x
perm(n)
)
(x) =
card i
{1, ..., n} x
perm(i)
x
n
=
0
ur x < x
perm(1)
i
n
ur x
[x
perm(i)
, x
perm(i+1)
)
1
ur x
x
perm(n)
ur x
IR, f¨ur i {1, ..., n - 1}.
Als Erweiterung dieser Definition wird die unscharfe empirische Verteilungsfunktion
definiert.
27
Dabei wird zur Vereinfachung angenommen, dass die Stichproben bereits
der Gr¨
oße nach geordnet sind. Man schreibt also wieder i statt perm(i) f¨
ur i = 1, ..., n.
Definition: Ist ( ~
A
1
, ..., ~
A
n
)
(F(IR))
n
eine konkrete unscharfe Stichprobe einer Fuzzy-
Zufallsvariablen ~
X
~
P
~
X
, dann ist die unscharfe empirische Verteilungsfunktion
~
F
n
(
~
A
1
,..., ~
A
n
) : IR ([0, 1])
x
~
F
n
(
~
A
1
,..., ~
A
n
)(x)
(5.14)
definiert durch
~
F
n( ~
A1,..., ~
An)
(x)
(p) :=
sup
x1supp( ~
A1),...,xnsupp( ~
An):
Fn(x1,...,xn)(x)=p
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
ur p
0,
1
n
,
2
n
, ..., 1
0
sonst.
(5.15)
27
Das hier vorgestellte Konzept entspricht dem von Kruse / Meyer (1987), S. 120 ff., Viertl (1989),
S. 680 ff., Viertl (1996), S. 63 ff. und S. 115 ff., Viertl (2001b), S. 20, Viertl (2003), S. 197 f., Viertl
/ Hareter (2006), S. 58 ff., dargelegten Konzept. Bei Viertl (2001b), S. 20, Viertl (2003), S. 197 f.,
Viertl / Hareter (2006), S. 58 ff., wird zus¨
atzlich eine gegl¨
attete empirische Verteilungsfunktion, bei
der die sprunghaften ¨
Uberg¨
ange teilweise durch stetige ¨
Uberg¨
ange ersetzt werden, definiert und auf
unscharfe Daten angewendet.

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
113
Bemerkung: Es ist insbesondere ~
F
n ~
A
1
,..., ~
A
n
)
(x)
F
0,
1
n
,
2
n
, ..., 1
.
Die Bestimmung der -Niveaukurven ist einfach.
Es besteht folgende Beziehung: F¨
ur (x
1
, ..., x
n
), (y
1
, ..., y
n
) mit x
i
y
i
i {1, ..., n}
gilt:
F
n(x
1
,...,x
n
)
(x)
F
n(y
1
,...,y
n
)
(x)
Daher lauten die -Niveaukurven von ~
F
n ~
A
1
,..., ~
A
n
)
(x)
(0, 1]:
inf F
n(A
1
,...,A
n
)
(x)
= inf F
n(A
1
,...,A
n
)
(x) = F
n(sup A
1
,...,sup A
n
)
(x)
sup F
n(A
1
,...,A
n
)
(x)
= sup F
n(A
1
,...,A
n
)
(x) = F
n(inf A
1
,...,inf A
n
)
(x)
(5.16)
Speziell f¨
ur ( ~
A
1
, ..., ~
A
n
)
(F
cb
(IR))
n
gilt dann:
inf F
n(A
1
,...,A
n
)
(x)
= F
n(a
1
,...,a
n
)
(x) = F
n(A
1
,...,A
n
)
(x)
sup F
n(A
1
,...,A
n
)
(x)
= F
n(a
1
,...,a
n
)
(x) = F
n(A
1
,...,A
n
)
(x)
(5.17)
Abbildung 5.1: Unscharfe empirische Verteilungsfunktion
Damit die empirische Verteilungsfunktion zur Sch¨
atzung der "wahren" Verteilungs-
funktion herangezogen werden kann, m¨
ussen wichtige Eigenschaften dieser empirischen
Verteilungsfunktion nachgewiesen werden. Die Voraussetzung, dass die empirische Ver-
teilungsfunktion eine unverzerrte und konsistente Sch¨
atzung
28
ur die "wahre" Ver-
teilungsfunktion darstellt, die die Grundlage f¨
ur nicht-parametrische Sch¨
atzung der
Verteilung bildet, ergibt sich als Folgerung aus dem Fundamenalsatz von Gliwenko-
Cantelli. Im scharfen Fall besagt der Fundamentalsatz folgendes:
Ist (,
A, P ) ein Wahrscheinlichkeitsraum, ist X : (, A, P ) (IR, B) eine (gew¨ohn-
liche) Zufallsvariable, und ist X
F
X
, wobei
F
X
(x) = P
X
(
{X x}) = P ({ |X() x})
28
Zu Unverzerrtheit und Konsistenz von Sch¨
atzungen siehe Abschnitt 5.3.

114
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ur x
IR die "wahre" Verteilungsfunktion von X ist, ist weiter (X
i
)
i
IN
eine Folge
von i.i.d. verteilten Zufallsvariablen X
i
F
X
i IN mit den Realisationen (x
i
)
i
IN
,
x
i
IR i IN, und ist die empirische Verteilungsfunktion
F
n
(x) := F
n(x
1
,...,x
n
)
(x) =
1
n
card
{i {1, ..., n} |x
i
x}
ur x
IR, n IN wie oben definiert, dann gilt:
F
n
(x)
f.s.
- F
X
(x)
bzw. (¨
aquivalente Schreibweise)
P
X
lim
n
sup
x
IR
|F
n
(x)
- F
X
(x)
| = 0
= 1
Da allgemein aus der fast sicheren Konvergenz die stochastische folgt (vgl. Abschnitt
5.2.2), kann aus der fast sicheren Konvergenz der Folge der empirischen Verteilungs-
funktionen gegen die "wahre" Verteilungsfunktion die stochastische Konvergenz gefol-
gert werden:
F
n
(x)
P
-
n
F
X
(x)
Der Fundamentalsatz wurde von Kruse / Meyer auf den unscharfen Fall verallge-
meinert. Als Voraussetzung wurde zun¨
achst folgendes Lemma formuliert:
29
Lemma: Ist (,
A, P ) ein Wahrscheinlichkeitsraum, ist I IR eine konvexe Teilmenge
von IR, ist f¨
ur x
I A
i
(x)
A, i IN, eine Folge von (in der Komponente x)
aufsteigenden und (in der Komponente i) paarweise unabh¨
angigen Teilmengen von ,
d.h.
x I, i, j IN: (i = j) (A
i
(x) und A
j
(x) unabh¨
angig), f¨
ur die außerdem
x I, i IN: P (A
i
(x)) = P (A
1
(x)) gilt, dann gilt:
M A : P (M) = 0 : lim
n
sup
x
I
1
n
n
i=1
1
A
i
(x)
()
- P (A
1
(x)) = 0
\M.
Die m¨
oglichen Verallgemeinerungen des Fundamentalsatzes von Gliwenko-Cantelli
sind im folgenden Satz zusammengefasst:
30
Satz: Ist (,
A, P ) ein Wahrscheinlichkeitsraum, ist ~
X eine Fuzzy-Zufallsvariable ~
X :
(,
A, P ) (F(IR), M
), ~
X
~
F
~
X
, und ist ( ~
X
i
)
i
IN
eine Folge von i.i.d. Fuzzy-
Zufallsvariablen mit der gemeinsamen unscharfen Verteilungsfunktion ~
F
~
X
(.), sind au-
ßerdem ( ~
A
i
)
i
IN
, ~
A
i
F(IR) i IN, die unscharfen Realisationen der ( ~
X
i
)
i
IN
, und ist
die unscharfe empirische Verteilungsfunktion ~
F
~
X
(.) nach (5.14)-(5.17) gegeben durch
~
F
n
(x) = ~
F
n( ~
A
1
,..., ~
A
n
)
(x) f¨
ur n
IN f¨ur x IR, dann gilt:
(i)
x IR M(x) A, P (M(x)) = 0 : \M(x):
~
F
n
(x)
d
- ~
F
~
X
(x)
(5.18)
d.h. lim
n
d
~
F
n
(x), ~
F
~
X
(x) = 0
29
Vgl. Kruse / Meyer (1987), S.176 ff., vgl. auch Comploj (1994), S.159 f.
30
Vgl. Kruse-Meyer (1987), S. 184 ff., vgl. auch Comploj (1994), S. 159 f.

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
115
(ii)
M A, P (M) = 0 : \M:
~
F
n
(x)
n
IN
d
H
, I
Q
- ~
F
~
X
(x)
(5.19)
d.h. lim
n
d
H
F
n
(x)
, F
X
(x)
= 0
(0, 1] IQ
Der Satz wird bei Kruse / Meyer bewiesen.
31
5.3
Punktsch¨
atzung f¨
ur unscharfe
Verteilungsparameter
angt die Verteilung von einem Verteilungsparameter ab, so ist es Aufgabe der schlie-
ßenden Statistik, diesen zu sch¨
atzen und G¨
utekriterien f¨
ur die Sch¨
atzung anzugeben.
32
Ausgegangen wird von einem parametrischen stochastischen Modell X
P
, wobei
X eine klassische Zufallsvariable X : (,
A, P ) (U, C) ist. Um den Verteilungspa-
rameter zu kennen, m¨
usste der gesamte Wahrscheinlichkeitsraum erfasst werden.
Da dies im Allgemeinen nicht m¨
oglich ist, muss eine Stichprobe (X
1
, ..., X
n
) von X
gezogen werden, um daraus mittels einer Sch¨
atzfunktion den unbekannten Parame-
ter zu sch¨
atzen. Sind nun x
1
, ..., x
n
die Realisationen der X
1
, ..., X
n
auf U, dann ist
eine Sch¨
atzfunktion (.) eine Abbildung aus dem Realisationenraum U in den Para-
meterraum , die jeder konkreten Stichprobe (x
1
, ..., x
n
) einen Sch¨
atzwert ^
ur den
Parameter zuordnet, also
:
U
n
(x
1
, ..., x
n
)
(x
1
, ..., x
n
) =: ^
.
Die Punksch¨
atzfunktion (.) ist sowohl Statistik, als auch Entscheidungsfunktion. Vor
Erhebung der Daten (x
1
, ..., x
n
) ist (X
1
, ..., X
n
) eine Zufallsvariable. Der Entschei-
dungsraum der Entscheidungsfunktion (.) entspricht dem Parameterraum ID = .
Als m¨
ogliche G¨
utekriterien f¨
ur Sch¨
atzfunktionen bzw. Folgen von Sch¨
atzfunktio-
nen gelten Unverzerrtheit, Effizienz und Konsistenz. Eine Sch¨
atzfunktion (.) heißt
unverzerrt (oder erwartungstreu), wenn E((X
1
, ..., X
n
)) = .
33
.
Eine unverzerrte Sch¨
atzfunktion (.) heißt effizient (oder varianzminimal), wenn
V ar
(
(X
1
, ..., X
n
))
V ar
((X
1
, ..., X
n
)),
, wobei (.) eine beliebige unver-
zerrte Sch¨
atzfunktion ist.
Eine Folge von Sch¨
atzfunktionen (
n
(.))
n
IN
, die f¨
ur n
IN definiert ist durch
n
(X
1
, ..., X
n
) := (X
1
, ..., X
n
), heißt konsistent, wenn sie stochastisch gegen den Pa-
rameter konvergiert, also lim
n
P
(
|
n
- | ) = 0 > 0.
31
Vgl. Kruse / Meyer (1987), S. 185 ff.
32
Die folgende Darstellung orientiert sich an Comploj (1994), S. 146 ff., Comploj (2002), S. 133 ff.
33
Wird eine Sch¨
atzfunktion durch einen mehrteiligen Parameter beschrieben, etwa = (,
2
) im
Fall der Normalverteilung, so m¨
ussen die einzelnen Teilparameter einzeln gesch¨
atzt werden. Eine
Funktion, die dem Gesamtparameter einen Teilparameter zuordnet, heißt Raffung, der Teilparameter
selbst heißt dann geraffter Parameter. In obiger Definition ist dann der Parameter durch den gerafften
Parameter zu ersetzen (vgl. Viertl (2003), S. 128)

116
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Ein m¨
ogliches G¨
utekriterium f¨
ur den Sch¨
atzwert ^
ist die Eigenschaft der Maximum-
Likelihood oder Plausibilit¨
at. Ein Sch¨
atzwert heißt Maximum-Likelihood-Sch¨
atzwert
(plausibler Sch¨
atzwert), wenn die Likelihood-Funktion (.
|x
1
, ..., x
n
) in ^
maximal ist,
also (^
|x
1
, ..., x
n
) = max
(
|x
1
, ..., x
n
).
34
Die Likelihoodfunktion ist definiert als die
gemeinsame Wahrscheinlichkeitsfunktion bzw. Dichtefunktion der Stichprobe X
1
, ..., X
n
als Funktion des Verteilungsparameters bei fixierter konkreter Stichprobe (x
1
, ..., x
n
),
d.h. im diskreten Fall ist (
|x
1
, ..., x
n
) := p(x
1
, ..., x
n
|) =
n
i=1
p(x
i
|) und im stetigen
Fall ist (
|x
1
, ..., x
n
) := f (x
1
, ..., x
n
|) =
n
i=1
f (x
i
|).
Im Fall eines unscharfen parametrischen stochastischen Modells ~
X
~
F
~
X
mit der
unscharfen Stichprobe ( ~
X
1
, ..., ~
X
n
) gem¨
aß (4.106)-(4.107) geht man von einer konkreten
unscharfen Stichprobe aus, die nun definiert wird.
Definition: Sind ( ~
A
1
, ..., ~
A
n
), ~
A
i
F(U) f¨ur i {1, ..., n}, die unscharfen Realisatio-
nen der unscharfen Stichprobe ( ~
X
1
, ..., ~
X
n
) von ~
X mit den Zugeh¨
origkeitsfunktionen
~
A
1
(x
1
), ...,
~
A
n
(x
n
), dann heißt der Fuzzy-Vektor
( ~
A
1
, ..., ~
A
n
) := ~
A
1
... ~A
n
(5.20)
mit
( ~
A
1
,..., ~
A
n
)
(x
1
, ..., x
n
) = min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(5.21)
konkrete unscharfe Stichprobe der unscharfen Stichprobe ( ~
X
1
, ..., ~
X
n
). Viertl
35
bezeich-
net (5.20) als kombiniertes unscharfes Stichprobenelement und das Verfahren (5.21) als
Kombination unscharfer Beobachtungen. Die -Schnitte (A
1
, ..., A
n
)
der unscharfen
konkreten Stichprobe ( ~
A
1
, ..., ~
A
n
) erh¨
alt man aus den -Schnitten A
1
, ..., A
n
der un-
scharfen Realisationen mittels:
(A
1
, ..., A
n
)
:= A
1
× ... × A
n
(5.22)
Eine unscharfe Sch¨
atzfunktion wird als die Fuzzy-Extension einer scharfen Sch¨
atz-
funktion definiert.
36
Definition: Ist ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
eine konkrete unscharfe Stichprobe der unschar-
fen Stichprobe ( ~
X
1
, ..., ~
X
n
) von ~
X mit ~
X
~
F
~
, ~
F(), ~ unbekannt, dann heißt die
Abbildung
:
(
F(U))
n
F()
( ~
A
1
, ..., ~
A
n
)
(~A
1
, ..., ~
A
n
) =:
^~
(5.23)
mit
^~
(^
) =
( ~
A
1
,..., ~
A
n
)
(^
) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
(x1,...,xn)=^
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
34
Wiederum kann an die Stelle des Parameters der geraffte Parameter treten.
35
Vgl. Viertl (1992), S. 124, Viertl (1996), S. 76 ff., Viertl (1997), S. 548 ff., Viertl (1999b), S. 246
f., Viertl (2001b), S. 21, Viertl (2002d), S. 201, Viertl (2003), S. 191 f., Viertl / Hareter (2006), S. 26
ff.
36
Vgl. Kruse (1984), S. 202 ff., Kruse / Meyer (1987), S. 194 f., Viertl (1992), S. 124 f., Viertl (1996),
S. 102 f., Viertl (1997), S. 557 ff., Viertl (1999b), S. 247, Viertl (2002d), S. 202 f., Viertl (2003), S.
193 f., Viertl (2004), S. 657 f., Viertl / Hareter (2004b), S. 46 f., Viertl / Hareter (2006), S. 77 ff.

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
117
unscharfe Sch¨
atzfunktion.
^~ heißt unscharfer Sch¨atzwert f¨ur den unscharfen Vertei-
lungsparameter ~
. Die Fuzzy-Sch¨
atzfunktion (.) ist Fuzzy-Stichprobenstatistik und
Fuzzy-Entscheidungsfunktion.
( ~
X
1
, ..., ~
X
n
) ist vor Erhebung der unscharfen Da-
ten eine Fuzzy-Zufallsvariable, deren Verteilung von der Funktion (.) und von der
Verteilung der Fuzzy-Zufallsvariablen ~
X, von der ~
X
1
, ..., ~
X
n
verteilungstreue Fuzzy-
Perzeptionen sind, abh¨
angt. Fuzzy-Entscheidungsraum der Fuzzy-Entscheidungsfunk-
tion (.) ist
F(ID) = F().
Als G¨
utekriterien f¨
ur unscharfe Sch¨
atzfunktionen werden hier Unverzerrtheit und
Konsistenz betrachtet:
37
Definition: Ist ~
X
1
, ~
X
2
, ... eine Folge von i.i.d. Fuzzy-Zufallsvariablen ~
X
i
()
F
c
(IR),
38
~
X
i
~
F
~
i IN, ist (.) eine unscharfe Sch¨atzfunktion (5.23) f¨ur ~, und ist n IN
n
(.) definiert durch:
n
( ~
X
1
, ..., ~
X
n
) = ( ~
X
1
, ..., ~
X
n
),
(5.24)
(i) dann heißt
n
(.) unverzerrte unscharfe Sch¨
atzfunktion
:
E
n
~
X
1
, ..., ~
X
n
= ~
n IN,
(5.25)
(ii) die Folge (
n
(.))
n
IN
heißt konsistente Folge von unscharfen Sch¨
atzfunktionen
:
lim
n
P
~
d
n
~
X
1
, ..., ~
X
n
, co
~
= 0 > 0,
(5.26)
(iii) und die Folge (
n
(.))
n
IN
heißt stark konsistente Folge von unscharfen Sch¨
atz-
funktionen
:
M A, P (M) = 0 : \M :
lim
n
d
n
~
X
1
(), ..., ~
X
n
() , ~
= 0.
(5.27)
Die beiden folgenden Ergebnisse sind wesentlich f¨
ur die schließende Statistik mit
unscharfen Daten.
39
Satz: Ausgegangen wird von einer Folge X
1
, X
2
, ... von klassischen i.i.d. Zufallsva-
riablen mit X
i
F
,
i IN, und einer Folge ~
X
1
, ~
X
2
, ... von i.i.d. Fuzzy-
Zufallsvariablen mit ~
X
i
()
F
cb
(IR)
, ~
X
i
~
F
~
, ~
F(), i IN.
37
Vgl. Kruse (1984), S. 203 f., Kruse / Meyer (1987), S. 197 f.
38
Bei Kruse / Meyer (1987), S. 197 f., und auch bei Comploj (1994) S. 148 werden allgemeiner
~
X
i
()
F
cc
(IR) betrachtet. ~
muss dann in den Definitionen durch co ~
ersetzt werden.
39
Bei Kruse / Meyer (1987), S. 198 ff. wird der allgemeinere Fall ~
X
i
()
F
b
(IR) gezeigt. Dazu wird
co
n
(.) definiert durch
co
n
: (
F(U))
n
F
c
() : ( ~
A
1
, ..., ~
A
n
)
(co
n
)( ~
A
1
, ..., ~
A
n
) := co (
n
( ~
A
1
, ..., ~
A
n
))
In den Aussagen sind dann jeweils die Sch¨
atzfunktion und der gesch¨
atzte Parameter durch ihre konvexe
ulle zu ersetzen.

118
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(i) Ist (
n
(.))
n
IN
eine Folge von klassischen unverzerrten Sch¨
atzfunktionen f¨
ur den
klassischen Parameter , dann gilt f¨
ur die -Schnitte:
(
n
(.))
n
IN
ist eine Folge von unverzerrten Sch¨
atzfunktionen f¨
ur
(
n
(.))
n
IN
ist eine Folge von unverzerrten Sch¨
atzfunktionen f¨
ur
Dabei ist:
n
(X
1
; ..., X
n
) := inf
n
(X
1
, ..., X
n
)
n
(X
1
; ..., X
n
) := sup
n
(X
1
, ..., X
n
) ,
(5.28)
wobei X
1
, ..., X
n
die -Schnitte (4.16) der Fuzzy-Zufallsvariablen sind, und
:= inf 0
¯
und
:= sup 0
¯
,
(5.29)
wobei 0
¯
die -Schnitte des unscharfen Parameters ~
sind.
(ii) Ist weiter (
n
(.))
n
IN
eine konsistente Folge von klassischen Sch¨
atzfunktionen f¨
ur
den klassischen Parameter , dann gilt f¨
ur die -Schnitte:
(
n
(.))
n
IN
ist eine Folge von konsistenten Sch¨
atzfunktionen f¨
ur
(
n
(.)
)
n
IN
ist eine Folge von konsistenten Sch¨
atzfunktionen f¨
ur
,
wobei
n
(.)
,
n
(.)
gem¨
aß (5.28), und
,
gem¨
aß (5.29) definiert sind.
Spezialfall: Ist ~
X
1
, ~
X
2
, ... eine Folge von i.i.d. Fuzzy-Zufallsvariablen ~
X
i
()
F
cb
(IR)
i IN, dann ist
n
~
X
1
, ..., ~
X
n
:=
~
X
1
... ~
X
n
n
(5.30)
ur n
IN eine unverzerrte unscharfe Sch¨atzfunktion f¨ur E ( ~
X
1
)
F
cb
(IR).
n
(.)
n
IN
ist eine konsistente Folge von Sch¨
atzfunktionen f¨
ur E ( ~
X
1
). Es ist
n
(X
1
, ..., X
n
) =
1
n
· (X
1
, ..., X
n
)
n
(X
1
, ..., X
n
) =
1
n
· (X
1
, ..., X
n
)
(5.31)
Begleitendes Beispiel: X
Po
ist eine Poisson-verteilte Zufallsvariable mit der
Wahrscheinlichkeitsfunktion p
Po
(x
|) =
x
·e
-
x!
ur x
IN
0
,
IR
+
. ( ~
X
1
, ..., ~
X
n
) ist
eine Stichprobe von verteilungstreuen Fuzzy-Perzeptionen von X mit Realisationen
( ~
A
1
, ..., ~
A
n
)
F
cb
(IR
+
)
n
. In Abschnitt 4.2.2 in (4.4) wurde gezeigt, dass f¨
ur den Parame-
ter der Poisson-Verteilung = E(X) gilt, bzw. im unscharfen Fall ~
= E ( ~
X). Nach
(5.30) ist
~
X
1
, ..., ~
X
n
=
~
X
1
... ~
X
n
n
eine unverzerrte Sch¨
atzfunktion f¨
ur ~
= E ( ~
X).
Somit ist
^~ =
1
n
· ~A
1
... ~A
n
(B.5.1)
ein erwartungstreuer Fuzzy-Sch¨
atzer f¨
ur den Fuzzy-Parameter ~
.
Mit Hilfe des gesch¨
atzten Parameters
^~ k¨onnen analog zu (B.4.1)-(B.4.4) die gesch¨atzte

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
119
Fuzzy-Schar von Wahrscheinlichkeitsfunktionen, deren gesch¨
atzte -Niveaukurven, so-
wie die gesch¨
atzte unscharfe Verteilungsfunktion der Poisson-verteilten Fuzzy-Zufalls-
variablen ~
X abgeleitet werden.
Begleitendes numerisches Beispiel: Aus einer Stichprobe soll die Verteilung der
Poisson-verteilten Zufallsvariablen X, die die Anzahl der Flutwellen, die pro Jahr die
kritische Marke erreichen, beschreibt, gesch¨
atzt werden. Nach einem Beobachtungszeit-
raum von 3 Jahren liege aus der Stichprobe von verteilungstreuen Fuzzy-Perzeptionen
( ~
X
1
, ~
X
2
, ~
X
3
) von X die unscharfe konkrete Stichprobe
( ~
A
1
, ~
A
2
, ~
A
3
) =
0.2
0.8
1
0.5
8
9
10
11
,
0.7
1
0.6
11
12
13
,
0.5
1
0.8
6
7
8
vor.
Nach (B.5.1) ist
^~ =
1
3
( ~
A
1
~A
2
~A
3
) ein erwartungstreuer Fuzzy-Sch¨
atzer f¨
ur den
unscharfen Verteilungsparameter ~
. Es ist
^~ =
1
3
·
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
25
26
27
28
29
30
31
32
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
8.33
8.67
9.00
9.33
9.67
10.00
10.33
10.67
(N.5.1)
mit den -Schnitten der konvexen H¨
ulle
co
^~
=
[8.33, 10.67] f¨
ur 0 <
0.2
[8.67, 10.67] f¨
ur 0.2 <
0.5
[9, 10.33]
ur 0.5 <
0.6
[9, 10]
ur 0.6 <
0.7
[9.33, 10]
ur 0.7 <
0.8
9.67
ur 0.8 <
1.
(N.5.2)
Abbildung 5.2: Unscharfer gesch¨
atzter Verteilungsparameter und konvexe H¨
ulle
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
8.33 8.67 9.00 9.33 9.67 10.00 10.33 10.67
()
^~
-
8.33 8.67 9.00 9.33 9.67 10.00 10.33 10.67
co
^~
Die unscharfe Schar von Wahrscheinlichkeitsfunktionen der gesch¨
atzten unscharfen
Poisson-Verteilung lautet daher nach (B.4.1):
~
~
p
Po
(x
|
^~) =
8.33
x
·e
-8.33
x!
· 1
IN
0
(x), 0.2 ,
8.67
x
·e
-8.67
x!
· 1
IN
0
(x), 0.5 ,
9.00
x
·e
-9.00
x!
· 1
IN
0
(x), 0.7 ,
9.33
x
·e
-9.33
x!
· 1
IN
0
(x), 0.8 ,
9.97
x
·e
-9.67
x!
· 1
IN
0
(x), 1 ,
10.00
x
·e
-10.00
x!
· 1
IN
0
(x), 0.8 ,
10.33
x
·e
-10.33
x!
· 1
IN
0
(x), 0.6 ,
10.67
x
·e
-10.67
x!
· 1
IN
0
(x), 0.5
(N.5.3)

120
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Nach (B.4.3) k¨
onnen die -Niveaukurven p
Po
(x
|co ^) und p
Po
(x
|co ^) der auf Ba-
sis der konvexen H¨
ulle des gesch¨
atzten Parameters gesch¨
atzten fuzzifizierenden Wahr-
scheinlichkeitsfunktion co ~
p
Po
(x
|co ^) bestimmt werden. Es ist
ur 0 <
0.2:
10.67
-8.33
ln(10.67)
-ln(8.33)
= 9.45,
ur 0.2 <
0.5:
10.67
-8.67
ln(10.67)
-ln(8.67)
= 9.63,
ur 0.5 <
0.6:
10.33
-9.00
ln(10.33)
-ln(9.00)
= 9.65,
ur 0.6 <
0.7:
10.00
-9.00
ln(10.00)
-ln(9.00)
= 9.49,
ur 0.7 <
0.8:
10.00
-9.33
ln(10.00)
-ln(9.33)
= 9.66.
Daher ist f¨
ur 0 <
0.2:
p
Po
(x
|co
^~) =
10.67
x
·e
-10.67
x!
· 1
IN
0
(x) f¨
ur 0
x 9
8.33
x
·e
-8.33
x!
· 1
IN
0
(x)
ur 10
x <
p
Po
(x
|co
^~) =
8.33
x
·e
-8.33
x!
· 1
IN
0
(x)
ur 0
x 8
9
x
·e
-9
x!
· 1
IN
0
(x)
ur x = 9
10
x
·e
-10
x!
· 1
IN
0
(x)
ur x = 10
10.67
x
·e
-10.67
x!
· 1
IN
0
(x) f¨
ur 11
x <
ur 0.2 <
0.5:
p
Po
(x
|co
^~) =
10.67
x
·e
-10.67
x!
· 1
IN
0
(x) f¨
ur 0
x 9
8.67
x
·e
-8.67
x!
· 1
IN
0
(x)
ur 10
x <
p
Po
(x
|co
^~) =
8.67
x
·e
-8.67
x!
· 1
IN
0
(x)
ur 0
x 8
9
x
·e
-9
x!
· 1
IN
0
(x)
ur x = 9
10
x
·e
-10
x!
· 1
IN
0
(x)
ur x = 10
10.67
x
·e
-10.67
x!
· 1
IN
0
(x) f¨
ur 11
x <
ur 0.5 <
0.6:
p
Po
(x
|co
^~) =
10.33
x
·e
-10.33
x!
· 1
IN
0
(x) f¨
ur 0
x 9
9
x
·e
-9
x!
· 1
IN
0
(x)
ur 10
x <
p
Po
(x
|co
^~) =
9
x
·e
-9
x!
· 1
IN
0
(x)
ur 0
x 9
10
x
·e
-10
x!
· 1
IN
0
(x)
ur x = 10
10.33
x
·e
-10.33
x!
· 1
IN
0
(x) f¨
ur 11
x <
ur 0.6 <
0.7:
p
Po
(x
|co
^~) =
10
x
·e
-10
x!
· 1
IN
0
(x) f¨
ur 0
x 9
9
x
·e
-9
x!
· 1
IN
0
(x)
ur 10
x <
p
Po
(x
|co
^~) =
9
x
·e
-9
x!
· 1
IN
0
(x)
ur 0
x 9
10
x
·e
-10
·
1
IN
0
(x)x! f¨
ur 10
x <
ur 0.7 <
0.8:
p
Po
(x
|co
^~) =
10
x
·e
-10
x!
· 1
IN
0
(x)
ur 0
x 9
9.33
x
·e
-9.33
x!
· 1
IN
0
(x) f¨
ur 10
x <
p
Po
(x
|co
^~) =
9.33
x
·e
-9.33
x!
· 1
IN
0
(x) f¨
ur 0
x 9
10
x
·e
-10
x!
· 1
IN
0
(x)
ur 10
x <

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
121
ur 0.8 <
1:
p
Po
(x
|co
^~)
p
Po
(x
|co
^~)
=
9.67
x
·e
-9.67
x!
· 1
IN
0
(x)
ur 0 < <
ur die gesch¨
atzte unscharfe Verteilungsfunktion ergibt sich nach (B.4.4)-(B.4.5)
~
~
F
Po
(y
|
^~) = e
-8.33
·
y
x=0
8.33
x!
· 1
IN
(x), 0.2 ,
e
-8.67
·
y
x=0
8.67
x!
· 1
IN
(x), 0.5 , e
-9.00
·
y
x=0
9.00
x!
· 1
IN
(x), 0.7 ,
e
-9.33
·
y
x=0
9.33
x!
· 1
IN
(x), 0.8 , e
-9.67
·
y
x=0
9.67
x!
· 1
IN
(x), 1 ,
e
-10.00
·
y
x=0
10.00
x!
·1
IN
(x), 0.8 , e
-10.33
·
y
x=0
10.33
x!
·1
IN
(x), 0.6 ,
e
-10.67
·
y
x=0
10.67
x!
· 1
IN
(x), 0.5
(N.5.4)
bzw.
F
Po
(x
|
^~) =
e
-8.33
·
y
x=0
8.33
x!
· 1
IN
(x) f¨
ur 0 <
0.2
e
-8.67
·
y
x=0
8.67
x!
· 1
IN
(x) f¨
ur 0.2 <
0.5
e
-9.00
·
y
x=0
9.00
x!
· 1
IN
(x) f¨
ur 0.5 <
0.7
e
-9.33
·
y
x=0
9.33
x!
· 1
IN
(x) f¨
ur 0.7 <
0.8
F
Po
(x
|^) =
e
-10.67
·
y
x=0
10.67
x!
· 1
IN
(x) f¨
ur 0 <
0.5
e
-10.33
·
y
x=0
10.33
x!
· 1
IN
(x) f¨
ur 0.5 <
0.6
e
-10.00
·
y
x=0
10.00
x!
· 1
IN
(x) f¨
ur 0.6 <
0.8
F
Po
(x
|^) = e
-9.67
·
y
x=0
9.67
x!
· 1
IN
(x) f¨
ur 0.8 <
1 .
Graphische Darstellungen einer Fuzzy-Schar von Poisson-Wahrscheinlichkeitsfunkti-
onen, der -Niveaukurven einer fuzzifizierenden Poisson-Wahrscheinlichkeitsfunktion
sowie einer unscharfen Poisson-Verteilungsfunktion finden sich in Abschnitt 4.2.2 (Ab-
bildung 4.1, Abbildung 4.2 und Abbildung 4.3).
Neben der hier beschriebenen Methode zur Parametersch¨
atzung mit unscharfer
Stichprobeninformation wurden in der Literatur auch zahlreiche andere Vorschl¨
age
gemacht. Yao und Hwang definieren eine Sch¨
atzmethode, die ¨
ubrigens nur eine un-
scharfe Messung neben n
- 1 exakten Messungen bei einer Stichprobe vom Umfang
n zul¨
asst, bei der sie den unscharfen Messwert analog zu (4.57) defuzzifizieren und
darauf die Sch¨
atzfunktion anwenden, also ^
Y H
= (x
1
, ..., CoG( ~
A
i
)
· card(~A
i
), ..., x
n
).
Es wird gezeigt, dass diese Methode Unverzerrtheit und Effizienz
40
sowie Maximum-
Likelihood
41
erh¨
alt, sofern die Sch¨
atzfunktion (.) diese Eigenschaften erf¨
ullt. Wang
zeigt Unverzerrtheit und Konsistenz f¨
ur Punktsch¨
atzungen, die zwar auf der Defini-
tion von Fuzzy-Zufallsvariablen von Puri und Ralescu beruhen,
42
die aber bei An-
wendung auf unscharfe Daten ebenfalls mit der Fuzzy-Extension der urspr¨
unglichen
Punktsch¨
atzfunktion berechnet werden und somit zum gleichen Ergebnis f¨
uhren wie
der hier vorgestellte Zugang zur klassischen Punktsch¨
atzung. Corral und Gil erwei-
tern die Maximum-Likelihood-Sch¨
atzung auf unschafe Stichprobeninformationen.
43
Die
40
Vgl. Yao / Hwang (1996), S. 208 ff.
41
Vgl. Hwang / Yao (1996), S. 344 ff.
42
Vgl. Wang (2004), S. 93 ff.
43
Vgl. Corral / Gil (1984), S. 63 ff., Gil / Corral / Gil (1985), S. 26 ff.

122
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Methode der Minimum--Divergenz-Sch¨
atzung wird von Men´
endez auf unscharfe Be-
obachtungen erweitert.
44
Mit der Streuung von unscharfen Sch¨
atzungen, basierend auf
Zufallsvariablen nach Puri und Ralescu besch¨
aftigen sich Garc´ia, Lubiano und Alonso.
45
Auf Basis der eigenen Definition von Fuzzy-Zufallsvariablen wird auch von Wu ein un-
scharfer Punktsch¨
atzer vorgeschlagen, welcher selbst wieder eine Fuzzy-Zufallsvariable
ist, f¨
ur die unscharfer Erwartungswert und unscharfe Varianz berechnet werden.
46
Unscharfe Punktsch¨
atzer, die nicht auf unscharfen Beobachtungen beruhen, son-
dern deren -Schnitte f¨
ur
(0, 1] durch Konfidenzintervalle mit unterschiedlichen
¨
Uberdeckungswahrscheinlichkeiten 1
- , (0, 1), gegeben sind, schlagen Buckley
47
bzw. Wagner
48
vor. Mit Hilfe einer monoton fallenden Transformation : [0, 1]
[0, 1];
() =: 1 - mit
1
<
2
1 -
1
= (
1
) > 1
-
2
= (
2
) werden den
-Niveaus ¨
Uberdeckungswahrscheinlichkeiten zugeordnet. Buckley setzt 1
- =
ur
(0, 0.99] und 1 - = 0.01 f¨ur [0.99, 1].
49
Wagner berechnet nur weni-
ge Konfidenzintervalle und erh¨
alt dabei stufenf¨
ormige Fuzzy-Sch¨
atzer.
50
Man beachte,
dass diese Fuzzy-Sch¨
atzer mit zunehmendem Stichprobenumfang an Unsch¨
arfe verlie-
ren, w¨
ahrend bei unscharfen Sch¨
atzern aufgrund unscharfer Messungen die Unsch¨
arfe
vom Stichprobenumfang unabh¨
angig ist.
51
Wagner berechnet auch Fuzzy-Sch¨
atzer f¨
ur
unscharfe Verteilungen, die unterschiedlichen Verteilungsfamilien angeh¨
oren. Die Zu-
geh¨
origkeitsfunktionen der unscharfen einzelnen Sch¨
atzer werden dabei zuerst mit Ge-
wichungsfaktoren, die aus den p-Werten der Anpassungstests f¨
ur die entsprechenden
Verteilungen abgeleitet werden, multipliziert, dann werden die gewichteten unscharfen
Sch¨
atzer mit Hilfe der Vereinigungsoperation (3.22) f¨
ur unscharfe Mengen zu einem
umfassenden Fuzzy-Sch¨
atzer aggregiert.
52
5.4
Sch¨
atzung unscharfer Konfidenzbereiche
Eine weitere Aufgabe der klassischen schließenden Statistik ist die Angabe von Konfi-
denzbereichen.
53
Geht man wiederum aus von dem klassischen stochastischen Modell
X
F
und der Stichprobe (X
1
, ..., X
n
) von X, so soll ein Teilbereich K
des
Parameterraums bestimmt werden, in dem der unbekannte Parameter mit vorgege-
bener Wahrscheinlichkeit 1
- liegt. 1 - heißt dann ¨Uberdeckungswahrscheinlichkeit
ur wird im Allgemeinen = 0.05 (95 %-ige ¨
Uberdeckungswahrscheinlichkeit) oder
= 0.01 (99 %-ige ¨
Uberdeckungswahrscheinlichkeit) gew¨
ahlt.
Ein solcher Bereich wird konstruiert mit Hilfe einer Funktion k(.), die jeder konkre-
ten Stichprobe (x
1
, ..., x
n
) von X einen Bereich K
zu vorgegebenem Niveau 1 -
44
Vgl. Men´
endez (1998), S. 101 ff.
45
Vgl. Garc´ia / Lubiano / Alonso (2001), S. 165 ff.
46
Vgl. Wu (2003a), S. 104 ff.
47
Vgl. Buckley / Eslami (2004), S. 194, Buckley (2005), S. 512 f.
48
Vgl. Wagner (2003), S. 41 ff.
49
Vgl. Buckley / Eslami (2004), S. 194, Buckley (2005), S. 512 f.
50
Vgl. Wagner (2003), S. 41 ff.
51
Vgl. dazu die Aussage in Abschnitt 2.3.
52
Vgl. Wagner (2003), S. 43 ff.
53
Vgl. etwa Pratt / Raiffa / Schlaifer (1995), S. 522 ff., Hafner (1989), S. 443 ff., Kinney (1997), S.
110 f. und S. 294 ff., Nguyen / Rogers (1989b), S. 137 ff., Krengel (1991), S. 71 ff., Viertl (2003), S.
141 ff., Viertl (2004), S. 659, Viertl / Hareter (2006), S. 78 f.

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
123
zuordnet:
k :
IR
n
P()
(x
1
, ..., x
n
)
k(x
1
, ..., x
n
) := K
Die Funktion k(.) heißt Konfidenzfunktion. Das Bild der Konfidenzfunktion heißt Kon-
fidenzbereich.
Definitorisches Kriterium f¨
ur eine Konfidenzfunktion ist somit die Forderung
P
(
{ k(X
1
, ..., X
n
)
}) = 1 - .
(5.32)
Spezialfall: Ist speziell = IR oder ein zusammenh¨
angender Teilbereich von IR, etwa
= IR
+
oder ein kompaktes Intervall von IR, etwa = [0, 1], so ist der Konfidenz-
bereich f¨
ur den Parameter
des stochastischen Modells ein kompaktes reelles
Intervall, gegeben durch eine Konfidenzfunktion
k :
IR
n
I(IR)
(x
1
, ..., x
n
)
k(x
1
, ..., x
n
) := [k(x
1
, ..., x
n
), k(x
1
, ..., x
n
)].
k(X
1
, ..., X
n
) und k(X
1
, ..., X
n
) sind zwei Statistiken, f¨
ur die gilt:
P
(
{ [k(X
1
, ..., X
n
), k(X
1
, ..., X
n
)]
})
= P
(
{ [k(X
1
, ..., X
n
),
) (-, k(X
1
, ..., X
n
)]
}) = 1 - .
Die Konfidenzfunktion k(.) ist somit Entscheidungsfunktion, Entscheidungsraum ist die
Menge aller kompakten reellen Intervalle
I(IR). Die Entscheidungsfunktion ist durch
zwei Stichprobenstatistiken k(X
1
, ..., X
n
) und k(X
1
, ..., X
n
) gegeben, Bildraum der Sta-
tistiken S ist der Parameterraum = IR (oder ein zusammenh¨
angender Teilraum
von IR). Vor Erhebung der Stichprobe sind die beiden Statistiken k(X
1
, ..., X
n
) und
k(X
1
, ..., X
n
) Zufallsvariablen.
Die beiden Intervalle [k(X
1
, ..., X
n
),
) und (-, k(X
1
, ..., X
n
)] sind dabei spezielle
Konfidenzintervalle, welche nach oben bzw. unten offen sind.
ur ein nach oben offenes Konfidenzintervall K
1
= [k
1
(X
1
, ..., X
n
),
) mit P
(
{
[k
1
(X
1
, ..., X
n
),
)}) = 1 -
1
und ein nach unten offenes Konfidenzintervall K
2
=
(
-, k
2
(X
1
, ..., X
n
)] mit P (
{ (-, k
2
(X
1
, ..., X
n
)]
}) = 1-
2
, wobei k
1
(X
1
, ..., X
n
) <
k
2
(X
1
, ..., X
n
) ist, ist [k
1
(X
1
, ..., X
n
), k
2
(X
1
, ..., X
n
)] ein zweiseitiges Konfidenzintervall
mit ¨
Uberdeckungswahrscheinlichkeit
P (
{ [k
1
(X
1
, ..., X
n
), k
2
(X
1
, ..., X
n
)]
})
= P
(
{ [k
1
(X
1
, ..., X
n
),
) (-, k
2
(X
1
, ..., X
n
)]
})
= P
(
{ (-, k
2
(X
1
, ..., X
n
)]
\(-, k
1
(X
1
, ..., X
n
))
})
= P
(
{ (-, k
2
(X
1
, ..., X
n
)]
}) - P ({ (-, k
1
(X
1
, ..., X
n
))
})
= P
(
{ (-, k
2
(X
1
, ..., X
n
)]
}) - (1 - P ({ [k
1
(X
1
, ..., X
n
),
)}))
= (1
-
2
)
- (1 - (1 -
1
)) = 1
-
2
-
1
=: 1
- ,
wobei :=
1
+
2
ist.
Dieses Modell soll auf den unscharfen Fall ¨
ubertragen werden. F¨
ur Konfidenzfunk-
tionen wurden in der Literatur ein horizontaler und ein vertikaler Zugang definiert, die
beiden Zug¨
ange sind, wie gezeigt werden wird, ¨
aquivalent.

124
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Definition:
54
Ist ~
X
~
F
~
ein unscharfes parametrisches stochastisches Modell, ist
( ~
X
1
, ..., ~
X
n
) eine unscharfe Stichprobe von ~
X, ist ( ~
A
1
, ..., ~
A
n
)
(F(IR))
n
eine konkrete
unscharfe Stichprobe von ( ~
X
1
, ..., ~
X
n
), und ist k : IR
n
P() eine Konfidenzfunktion
zum Niveau 1
- , die (5.32) erf¨ullt, dann heißt die Abbildung
k :
(
F(IR))
n
F
cc
()
( ~
A
1
, ..., ~
A
n
))
k (~A
1
, ..., ~
A
n
) := ~
K
(5.33)
mit
~
K
() =
k ( ~
A
1
,..., ~
A
n
)
() =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
(x1,...,xn)
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(5.34)
unscharfe Konfidenzfunktion zum Niveau 1
- .
Das unscharfe Bild ~
K der unscharfen Konfidenzfunktion k (.) heißt unscharfer Konfi-
denzbereich mit ¨
Uberdeckungswahrscheinlichkeit 1
- .
Bemerkung: Ist insbesondere = IR, so ist ~
K
F
c
(IR) ein Fuzzy-Intervall, genannt
unscharfes Konfidenzintervall oder Fuzzy-Konfidenzintervall.
55
Satz: Ist ~
X
~
F
~
ein unscharfes parametrisches stochastisches Modell, ist ( ~
X
1
, ..., ~
X
n
)
eine unscharfe Stichprobe von ~
X mit ~
X
i
()
F
cc
(IR)
i {1, ..., n} , und
ist ~
K ein Fuzzy-Konfidenzbereich, d.h. das Bild einer Fuzzy-Konfidenzfunktion k (.)
nach (5.32)-(5.34), dann gilt f¨
ur alle unscharfen Stichproben ( ~
X
1
, ..., ~
X
n
) von ~
X mit
~
X
i
()
F
cc
(IR)
i {1, ..., n} [0, 1) f¨ur die strikten -Schnitte 0
¯
>
des
Fuzzy-Verteilungsparameters ~
F() von ~
X:
P
0
¯
>
k (X
1
(), ..., X
n
())
>
1 -
(5.35)
Umgekehrt ist jede Fuzzy-Extension einer Funktion nach (5.33)-(5.34), die (5.35) erf¨
ullt,
eine Fuzzy-Konfidenzfunktion im Sinne von (5.32)-(5.34).
56
Beweis: Es l¨
asst sich unschwer zeigen, dass die beiden Definitionen ¨
aquivalent sind:
Ist
0
¯
>
, dann gilt
K
>
~
K
() >
k (A
1
, ..., A
n
)
>
P
k (A
1
, ..., A
n
)
>
1 -
P
k (X
1
(), ..., X
n
())
>
1 - .
Satz:
57
Ist X
F
ein (gew¨
ohnliches) stochastisches Model, ist (X
1
, ..., X
n
) eine
klassische Stichprobe von X, und sind k, k : IR
n
IR zwei Konfidenzfunktionen,
so dass [k(X
1
, ..., X
n
),
) ein Konfidenzintervall mit ¨Uberdeckungswahrscheinlichkeit
54
Diese Definition stammt von Viertl (vgl. Viertl (1992), S. 125 f., Viertl (1996), S. 109 ff., Viertl
(1997), S. 559 ff., Viertl (2001b), S. 22 f., Viertl (2002d), S. 204, Viertl (2003), S. 194 f., Viertl (2004),
S. 659 f., Viertl / Hareter (2004b), S. 47 f., Viertl / Hareter (2006), S. 79 f.).
55
Auch f¨
ur einen gerafften (unscharfen) Parameter kann ein unscharfes Konfidenzintervall angegeben
werden. (Vgl. Viertl (2004), S. 661 f.)
56
Diese Eigenschaft wird bei Kruse / Meyer (1987), S. 204, Kruse / Meyer (1988), S. 117, als
definitorische Eigenschaft der Fuzzy-Konfidenzfunktion bzw. des Fuzzy-Konfidenzbereichs angef¨
uhrt.
57
Beweis siehe Kruse / Meyer (1987), S. 204 ff.

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
125
1
-
1
und (
-, k(X
1
, ..., X
n
)] ein Konfidenzintervall mit ¨
Uberdeckungswahrschein-
lichkeit 1
-
2
sind, gilt außerdem k(x
1
, ..., x
n
)
k(x
1
, ..., x
n
)
(x
1
, ..., x
n
)
IR
n
, ist
~
X
~
F
~
die unscharfe Erweiterung von X
F
, und und ist ( ~
X
1
, ..., ~
X
n
) eine unscharfe
Stichprobe von ~
X, dann ist ~
K mit den -Schnitten
(K)
= [k
, k
]
F
c
(IR)
(0, 1]
(5.36)
ein unscharfes Konfidenzintervall mit ¨
Uberdeckungswahrscheinlichkeit 1
- mit
:=
1
+
2
, wobei
k
:
(
F(IR))
n
IR
( ~
A
1
, ..., ~
A
n
)
k
( ~
A
1
, ..., ~
A
n
)
:=
inf
(x
1
,...,x
n
)
A
1
×...×A
n
{y IR|k(x
1
, ..., x
n
)
y},
k
:
(
F(IR))
n
IR
( ~
A
1
, ..., ~
A
n
)
k
( ~
A
1
, ..., ~
A
n
)
:=
sup
(x
1
,...,x
n
)
A
1
×...×A
n
{y IR|k(x
1
, ..., x
n
)
y.}
(5.37)
Sind speziell k
, k
: IR
n
IR in allen n Komponenten stetig und monoton steigend,
so erh¨
alt man als Spezialfall von (5.36)-(5.37) ~
K mit K
= [k
k
], wobei
k
( ~
A
1
, ..., ~
A
n
) = k(inf A
1
, ..., inf A
n
)
k
( ~
A
1
, ..., ~
A
n
) = k(sup A
1
, ..., sup A
n
).
Begleitendes Beispiel: F¨
ur das stochastische Modell X
Po
soll aufgrund ei-
ner Stichprobe (X
1
, ..., X
n
) von X ein Konfidenzintervall [k(X
1
, ..., X
n
), k(X
1
, ..., X
n
)]
mit ¨
Uberdeckungswahrscheinlichkeit 1
- f¨ur den Verteilungsparmeter der Poisson-
verteilten Zufallsvariablen X gefunden werden. Die Stichprobe liefert die konkreten
Daten (x
1
, ..., x
n
). Es muss gelten P (
{ [k(x
1
, ..., x
n
), k(x
1
, ..., x
n
)]
}) = 1 - bzw.
P (
{ (-, k(x
1
, ..., x
n
)]
}{ [k(x
1
, ..., x
n
),
)}) = P ({ (-, k(x
1
, ..., x
n
)]
}
{ / (-, k(x
1
, ..., x
n
))
}) = P ({ k(x
1
, ..., x
n
)
}) - P ({ < k(x
1
, ..., x
n
)
}) = 1- =
(1
-
2
)
- (1 - (1 -
1
)) mit
1
+
2
= . Diese Bedingung kann auch mit Hilfe der in
Abschnitt 5.3 definierten Likelihoodfunktion, welche dazu noch normiert werden muss,
formuliert werden:
P (
{ [k(x
1
, ..., x
n
), k(x
1
, ..., x
n
)]
}) =
k(x1,...,xn)
k(x1,...,xn)
(
|x
1
,...,x
n
)d
-
(
|x
1
,...,x
n
)d
=
k(x
1
,...,x
n
)
-
(
|x
1
,...,x
n
)d
-
(
|x
1
,...,x
n
)d
-
k(x
1
,...,x
n
)
-
(
|x
1
,...,x
n
)d
-
(
|x
1
,...,x
n
)d
= (1
-
2
)
- (1 - (1 -
1
)) = 1
-
Die Likelihoodfunktion (.
|x
1
, ..., x
n
) ist gleich der gemeinsamen Wahrscheinlichkeits-
funktion von (x
1
, ..., x
n
) als Funktion von , d.h. (
|x
1
, ..., x
n
) = p
(
x
1
, ..., x
n
|), bzw.
aus der Unabh¨
angigkeit der X
1
, ..., X
n
folgt, dass (
|x
1
, ..., x
n
) =
n
i=1
p(x
i
|). Die

126
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Normierung, d.h. die Division durch
-
(
|x
1
, ..., x
n
)d, ist erforderlich, um die f¨
ur
eine Wahrscheinlichkeit notwendige Bedingung P (
{ (-, )}) = 1 zu erf¨ullen.
Ist X speziell Poisson-verteilt, also p
Po
(x
|) =
x
·e
-
x!
, so erh¨
alt man f¨
ur die normierte
Likelihoodfunktion
(
|x
1
, ..., x
n
)
-
(
|x
1
, ..., x
n
)
=
n
i=1
xi
·e
-
x
i
!
0
n
i=1
xi
·e
-
x
i
!
d
=
n
i=1
x
i
· e
-
0
n
i=1
x
i
· e
-
d
=
n
i=1
x
i
· e
-n
0
n
i=1
x
i
· e
-n
d
.
Es ist
0
n
i=1
x
i
· e
-n
d =
-
n
i=1
k=0
(
n
i=1
x
i
)!
·
n
i=1xi-k
·e
-n
(
n
i=1
x
i
-k)!·n
k+1
=0
=
n
i=1
x
i
!
· n
-
(
n
i=1
x
i
+1
).
ur die normierte Likelihoodfunktion erh¨
alt man somit
(
|x
1
, ..., x
n
)
-
(
|x
1
, ..., x
n
)
=
n
i=1
x
i
· e
-n
(
n
i=1
x
i
)!
· n
-
(
n
i=1
x
i
+1
)
=
n(
n
i=1
x
i
+1
) ·
n
i=1
x
i
· e
-n
(
n
i=1
x
i
+ 1)
= f
(
|
n
i=1
x
i
+ 1,
1
n
).
Die normierte Likelihoodfunktion ist somit gerade die Dichtefunktion einer invertierten
Gammaverteilung mit den Parametern
n
i=1
x
i
+ 1 und
1
n
.
Es ist somit
P
f
(.
|
n
i=1
x
i
+1,
1
n
)
(
{ k(x
1
, ..., x
n
)
}) =
k(x
1
,...,x
n
)
0
f
(
|
n
i=1
x
i
+ 1,
1
n
)d
=
k(x
1
,...,x
n
)
0
n
(
n
i=1xi
+1
)
·
n
i=1xi
·e
-n
(
n
i=1
x
i
)
!
d = 1
-
2
k(x
1
, ..., x
n
) =
1
-
2
(
n
i=1
x
i
+1,
1
n
)
und
P
f
(.
|
n
i=1
x
i
+1,
1
n
)
(
{ < k(x
1
, ..., x
n
)
}) =
k(x
1
,...,x
n
)
0
f
(
|
n
i=1
x
i
+ 1,
1
n
)d
=
k(x
1
,...,x
n
)
0
n
(
n
i=1xi
+1
)
·
n
i=1xi
·e
-n
(
n
i=1
x
i
)
!
d =
1
k(x
1
, ..., x
n
) =
1
(
n
i=1
x
i
+1,
1
n
)
,
wobei
(
n
i=1
x
i
+1,
1
n
)
das -Quantil der Gamma-Verteilung mit den Parametern
n
i=1
x
i
+
1 und
1
n
darstellt.
Liegen nun aufgrund einer Stichprobe von verteilungstreuen Fuzzy-Perzeptionen
( ~
X
1
, ... ~
X
n
) die unscharfen Daten ( ~
A
1
, ..., ~
A
n
) vor, so m¨
ussen f¨
ur jede invertierte Gam-
maverteilung f
(
|
n
i=1
x
i
+ 1,
1
n
) mit Parameter
n
i=1
x
i
+ 1
supp
n
i=1
~
A
i
1
die Quantile
1
(
n
i=1
x
i
+1,
1
n
)
und
1
-
2
(
n
i=1
x
i
+1,
1
n
)
bestimmt werden, und es ist
k :
(
F(IN))
n
F(IR)
( ~
A
1
, ..., ~
A
n
)
k (~A
1
, ..., ~
A
n
)

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
127
mit
[k
, k
] =
inf
n
i=1
x
i
n
i=1
A
i
1
(
n
i=1
x
i
+1,
1
n
)
,
sup
n
i=1
x
i
n
i=1
A
i
1
-
2
(
n
i=1
x
i
+1,
1
n
)
(B.5.2)
(0, 1].
Begleitendes numerisches Beispiel: Mit den unscharfen numerischen Angaben aus
Abschnitt 5.3 zu der begleitenden Fallstudie soll ein unscharfes zweiseitiges Konfidenz-
intervall mit ¨
Uberdeckungswahrscheinlichkeit 1
- = 0.95 angegeben werden. Es wird
1
=
2
= 0.05/2 = 0.025 gew¨
ahlt.
Es m¨
ussen also f¨
ur
3
i=1
x
i
supp
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
25
26
27
28
29
30
31
32
die Quanti-
le
1
(
3
i=1
x
i
+1,
1
3
)
=
0.025(
3
i=1
x
i
+1,
1
3
)
und
1
-
2
(
3
i=1
x
i
+1,
1
3
)
=
0.975(
3
i=1
x
i
+1,
1
3
)
bestimmt
werden. Es ist
0.025(26,
1
3
)
= 5.6613,
0.925(26,
1
3
)
= 12.3016,
3
i=1
~
A
i
1
(26) = 0.2
0.025(27,
1
3
)
= 5.9311,
0.925(27,
1
3
)
= 12.6987,
3
i=1
~
A
i
1
(27) = 0.5
0.025(28,
1
3
)
= 6.2019,
0.925(28,
1
3
)
= 13.0945,
3
i=1
~
A
i
1
(28) = 0.7
0.025(29,
1
3
)
= 6.4739,
0.925(29,
1
3
)
= 13.4893,
3
i=1
~
A
i
1
(29) = 0.8
0.025(30,
1
3
)
= 6.7470,
0.925(30,
1
3
)
= 13.8829,
3
i=1
~
A
i
1
(30) = 1
0.025(31,
1
3
)
= 7.0210,
0.925(31,
1
3
)
= 14.2756,
3
i=1
~
A
i
1
(31) = 0.8
0.025(32,
1
3
)
= 7.2960,
0.925(32,
1
3
)
= 14.6673,
3
i=1
~
A
i
1
(32) = 0.6
0.025(33,
1
3
)
= 7.5719,
0.925(33,
1
3
)
= 15.0581,
3
i=1
~
A
i
1
(33) = 0.5
und ~
K hat die -Schnitte
K
=
[5.6613, 15.0581] f¨
ur 0 <
0.2
[5.9311, 15.0581] f¨
ur 0.2 <
0.5
[6.2019, 14.6673] f¨
ur 0.5 <
0.6
[6.2019, 14.2756] f¨
ur 0.6 <
0.7
[6.4739, 14.2756] f¨
ur 0.7 <
0.8
[6.7470, 13.8829] f¨
ur 0.8 <
1
(N.5.5)
5.5
Statistische Tests mit unscharfen Daten
Neben Sch¨
atzungen (Punkt-, Bereichs- und nicht-parametrische Sch¨
atzung) ist das Te-
sten statistischer Hypothesen eine weitere wichtige Aufgabe der schließenden Statistik.
5.5.1
Hypothesen und Testfunktionen unter Unsch¨
arfe
Eine statistische Hypothese ist eine bestimmte Annahme ¨
uber die Verteilung P
X
ei-
ner Zufallsvariablen X. Eine solche Annahme kann das Vorliegen einer bestimmten
Verteilung (einfache Hypothese) oder mehrerer m¨
oglicher Verteilungen (zusammen-
gesetzte Hypothese) beinhalten. Ist die Verteilung bis auf den Verteilungsparameter

128
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Abbildung 5.3: Unscharfes Konfidenzintervall
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
5.66
6.75
13.88
15.06
~
K
bekannt und sind lediglich ¨
uber diesen Annahmen zu treffen, so spricht man von
Parameterhypothesen.
58
Formal kann eine Hypothese, wie folgt, dargestellt werden: Ausgegangen wird von
einem Wahrscheinlichkeitsraum (,
A, P ) und einer Zufallsvariablen X : (, A, P )
(U,
C). Man definiert Q := {Q|Q ist m¨ogliche Wahrscheinlichkeitsverteilung P
X
von X
}.
Q kann die Menge aller Wahrscheinlichkeitsverteilungen oder eine Teilmenge davon
sein, etwa eine Verteilungsfamilie, also die Menge aller Verteilungen, die sich nur durch
ihren Parameter unterscheiden. Eine Hypothese
H Q ist dann eine Teilmenge von
Q:
59
H := {Q|Q ist angenommene Wahrscheinlichkeitsverteilung P
X
von X
}
Um Hypothesen zu testen wird im Allgemeinen ein Hypothesenpaar, bestehend aus
Nullhypothese und Alternativhypothese, formuliert. Die Nullhypothese
H
0
enth¨
alt die
eigentlich zu testende Hypothese ¨
uber die vorliegende Verteilung, w¨
ahrend die Alter-
nativhypothese alle ¨
ubrigen m¨
oglichen Verteilungen zusammenfasst, also
H
1
=
Q\H
0
.
Bei Parameterhypothesen stellt insbesondere die Nullhypothese einen Teilbereich des
Parameterraums
H
0
dar, w¨ahrend die Alternativhypothese den Rest des Parame-
terraums
H
1
=
\H
0
widerspiegelt.
60
Ein statistischer Test ist ein Verfahren zur Entscheidung ¨
uber das Zutrefffen der
Nullhypothese
H
0
mit m¨
oglichst geringer Fehlerwahrscheinlichkeit. Die beiden m¨
ogli-
chen Fehler sind der Fehler erster Art, d.h. die Verwerfung einer richtigen Hypothese,
und der Fehler zweiter Art, d.h. die Annahme einer falschen Hypothese. Bei vielen stati-
stischen Tests wird nur die Wahrscheinlichkeit eines Fehlers erster Art ber¨
ucksichtigt.
61
Es muss unterschieden werden zwischen einfachen und zusammengesetzten Hypo-
thesen. Eine einfache Hypothese ist eine Aussage ¨
uber das Vorliegen einer einzigen
spezifischen Verteilung. Die einfache Parameterhypothese geht von einem einzigen Pa-
rameterwert aus. Sowohl Nullhypothese als auch Alternativhypothese k¨
onnen einfache
58
Vgl. Viertl (2003), S. 148, Pratt / Raiffa / Schlaifer (1995), S. 529, Hafner (1989), S. 368 ff.,
Kinney (1997), S. 113 f., Krengel (1991), S. 97, Nguyen / Rogers (1989b), S. 190.
59
Vgl. Viertl (2003), S. 148, Hafner (1989), S. 370 f., Krengel (1991), S. 97, Nguyen / Rogers (1989b),
S. 193.
60
Der Fall, dass durch Nullhypothese und Alternativhypothese nicht der gesamte m¨
ogliche Parame-
terraum abgedeckt wird, wird in der vorliegenden Arbeit ausgeschlossen.
61
Vgl. Viertl (2003), S. 149 f., Pratt / Raiffa / Schlaifer (1995), S. 529, Hafner (1989), S. 373 f.,
Kinney (1997), S. 114, Krengel (1991), S. 97, Nguyen / Rogers (1989b), S. 193.

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
129
oder zusammengesetzte Hypothesen sein.
62
Beim Test von Parameterhypothesen ist, je nach Struktur des Hypothesenpaars, zu
unterscheiden zwischen einseitigen und zweiseitigen Tests. Bei einseitigen Tests liegt
die Nullhypothese im Inneren des Parameterraums, die Alternativhypothese, welche
den Rest des Parameterraums abzudecken hat, verteilt sich dann auf beide Seiten links
und rechts von der Nullhypothesen. H¨
aufig werden mittels zweiseitiger Tests einfache
Nullhypothesen getestet, d.h. die Nullhypothese besteht in diesem Fall nur aus einem
einzigen Element,
H
0
=
{
0
} bzw. H
0
: =
0
, die Alternativhypothese beschreibt dann
den gesamten Parameterraum ohne das Element
0
,
H
1
=
\{
0
} bzw. H
1
: =
0
. Bei
einseitigen Tests muss unterschieden werden zwischen Tests mit rechtsseitiger Alterna-
tivhypothese
H
0
:
0
,
H
1
: >
0
und Tests mit linksseitiger Alternativhypothese
H
0
:
0
,
H
1
: <
0
.
Formal kann ein statistischer Test, wie folgt, beschrieben werden. Ist (,
A, P ) ein
Wahrscheinlichkeitsraum, ist X : (,
A, P ) (U, C) eine Zufallsvariable, ist (X
1
, ...X
n
)
eine Stichprobe von X, und sind (x
1
, ..., x
n
) die Realisationen der (X
1
, ..., X
n
), und ist
außerdem
H
0
eine statistische (Null-)Hypothese, dann ist ein statistischer Test eine
Abbildung
: U
n
{0, 1}
(x
1
, ..., x
n
)
(x
1
, ..., x
n
) =
0 falls
H
0
durch (x
1
, ..., x
n
) best¨
atigt wird
1 falls
H
0
durch (x
1
, ..., x
n
) nicht best¨
atigt wird.
Dabei soll f¨
ur die Fehlerwahrscheinlichkeit erster Art gelten
P
X
(
{
= 1
|F
X
H
0
}) = P ({ |(
(X
1
(), ..., X
2
()) = 1
|F
X
H
0
)
}) .
bestimmt dabei das Signifikanzniveau des Tests.
63
Im Allgemeinen wird = 0.05
oder = 0.01 gew¨
ahlt.
Der Entscheidungsraum einer Testfunktion
(.) besteht nur aus zwei Elementen
ID =
{0, 1}. Der Stichprobenraum U
n
wird damit in zwei Teilr¨
aume geteilt:
den Annahmebereich
-1
(0) =
{(x
1
, ..., x
n
)
|
(x
1
, ..., x
n
) = 0
} und
den Verwerfungsbereich
-1
(1) =
{(x
1
, ..., x
n
)
|
(x
1
, ..., x
n
) = 1
}
Liegen aufgrund einer Stichprobe von Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) einer Zu-
fallsvariablen X unscharfe Daten ( ~
A
1
, ..., ~
A
n
) vor, so muss das Konzept verallgemeinert
werden. Bei der Formulierung der Hypothesen muss bedacht werden, dass die Daten
Realisationen von Fuzzy-Zufallsvariablen sind, denen eine unscharfe Verteilung zugrun-
de liegt. Daraus ergeben sich zwei M¨
oglichkeiten zu Verallgemeinerung der Formulie-
rung von Null- und Alternativhypothese. Entweder wird das Hypothesenpaar trotz
Vorliegen von Unsch¨
arfe scharf formuliert, und der Test f¨
uhrt dann gegebenenfalls zu
einer unscharfen Verwerfung bzw. Annahme der Nullhypothese, oder als Nullhypothe-
se (und damit auch als Alternativhypothese) wird eine Menge von Fuzzy-Verteilungen
angenommen, Verwerfung bzw. Annahme der unscharfen Nullhypothese ist wiederum
im Allgemeinen nur unscharf m¨
oglich.
62
Vgl. etwa Viertl (2003), S. 148, Wald (12947), S. 13.
63
Vgl. Viertl (2003), S. 149, Pratt / Raiffa / Schlaifer (1995), S. 529 f., Hafner (1989), S. 372 f.,
Krengel (1991), S. 97, Nguyen / Rogers (1989b), S. 190 und S. 194.

130
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Definition: Ist (,
A, P ) ein Wahrscheinlichkeitsraum, ist X : (, A, P ) (U, C) eine
Zufallsvariable, ist ~
X eine verteilungstreue Fuzzy-Perzeption von X, ist ( ~
X
1
, ..., ~
X
n
) ei-
ne unscharfe Stichprobe von ~
X mit Realisationen ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
, und ist
Q :=
{Q|Q ist m¨ogliche klassische Wahrscheinlichkeitsverteilung P
X
von X
}, dann kann ei-
ne Nullhypothese
H
0
¨
uber die klassische Verteilung von X aufgrund der verteilungs-
treuen Fuzzy-Perzeption ~
X definiert werden als:
H
0
:=
{Q |Q ist angenommene scharfe
Wahrscheinlichkeitsverteilung P
X
eines Originals X von ~
X
(5.38)
Speziell f¨
ur parametrische stochastische Gr¨
oßen X
P
und deren Fuzzy-Perzeptionen
~
X
~
P
~
onnen die folgenden Verallgemeinerungen von Paaren aus scharfen Null- und
Alternativhypothesen formuliert werden:
(i) Einfache Nullhypothese mit zweiseitiger Alternativhypothese
H
0
: ~
=
0
H
1
: ~
=
0
(5.39)
(ii) Einseitige Nullhypothese mit rechtsseitiger Alternativhypothese (f¨
ur Parameter
in eindimensionalen Parameterr¨
aumen)
H
0
: ~
0
H
1
: ~
0
(5.40)
(iii) Einseitige Nullhypothese mit linksseitiger Alternativhypothese (f¨
ur Parameter in
eindimensionalen Parameterr¨
aumen)
H
0
: ~
0
H
1
: ~
0
(5.41)
Bemerkung: Gleichheits- und Ungleichheitszeichen in (5.39)-(5.41) sind dabei wie
folgt zu interpretieren:
~
=
0
:
X supp ~
X : X
P
0
,
~
=
0
:
X supp ~
X : X
P
: =
0
~
0
:
X supp ~
X : X
P
:
0
,
~
0
:
X supp ~
X : X
P
: >
0
~
0
:
X supp ~
X : X
P
:
0
,
~
0
:
X supp ~
X : X
P
: <
0
Der Zugeh¨
origkeitsgrad
~
X
(X) eines Originals X zur Fuzzy-Zufallsvariablen ~
X ist nicht
Gegenstand der Hypothese, sondern wird in der Testfunktion bei der Bestimmung der
Fuzzy-Testentscheidung ber¨
ucksichtigt.
Definition: Ist (,
A, P ) ein Wahrscheinlichkeitsraum, ist X : (, A, P ) (U, C) eine
Zufallsvariable, ist ~
X eine verteilungstreue Fuzzy-Perzeption von X, und ist ( ~
X
1
, ..., ~
X
n
)
eine unscharfe Stichprobe von ~
X mit Realisationen ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
, und ist
Q
:=
{ ~
Q
| ~
Q ist m¨
ogliche unscharfe Wahrscheinlichkeitsverteilung ~
P
~
X
von ~
X
}, dann ist
eine unscharfe Nullhypothese
H
0
eine unscharfe Teilmenge
H
0
Q
:
H
0
:=
~
Q
| ~
Q ist angenommene unscharfe
Wahrscheinlichkeitsverteilung ~
P
~
X
von ~
X
(5.42)

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
131
Speziell f¨
ur unscharfe parametrische stochastische Modelle ~
X
~
P
~
onnen die fol-
genden Verallgemeinerungen von Paaren aus scharfen Null- und Alternativhypothesen
formuliert werden:
64
(i) Einfache Nullhypothese mit zweiseitiger Alternativhypothese
H
0
: co ~
= ~
0
H
1
: co ~
= ~
0
(5.43)
(ii) Einseitige Nullhypothese mit rechtsseitiger Alternativhypothese (f¨
ur Parameter
in eindimensionalen Parameterr¨
aumen)
H
0
: co ~
~
0
H
1
: co ~
> ~
0
(5.44)
(iii) Einseitige Nullhypothese mit linksseitiger Alternativhypothese (f¨
ur Parameter in
eindimensionalen Parameterr¨
aumen)
H
0
: co ~
~
0
H
1
: co ~
< ~
0
(5.45)
Bemerkung: Die Ungleichheitszeichen in den Hypothesenformulierungen (5.44) und
(5.45) bedeuten:
co ~
~
0
(0, 1] : inf 0
¯
inf 0
¯0
bzw. co ~
= min co ~
, ~
0
co ~
~
0
(0, 1] : sup 0
¯
sup 0
¯0
bzw. co ~
= min co ~
, ~
0
co ~
> ~
0
(0, 1] : inf 0
¯
> inf 0
¯0
co ~
< ~
0
(0, 1] : sup 0
¯
< sup 0
¯0
Sind die scharfen oder unscharfen Hypothesen f¨
ur die Fuzzy-Zufallsvariablen for-
muliert, so k¨
onnen auch Testfunktionen, welche zur Verwerfung oder Annahme der
scharfen oder unscharfen Nullhypothese f¨
uhren sollen, formuliert werden.
Definition:
65
Ausgegangen wird von einem Wahrscheinlichkeitsraum (,
A, P ) und
einer Fuzzy-Zufallsvariablen ~
X : (,
A, P ) (F(U), M
). Ist ( ~
X
1
, ..., ~
X
n
) eine un-
scharfe Stichprobe von ~
X mit Realisationen ( ~
A
1
, ..., ~
A
n
), ist ferner
(0, 1) ein vorge-
gebenes Signifikanzniveau, und ist
H
0
eine scharfe statistische Hypothese, dann heißt
die Abbildung
:
(
F(U))
n
F({0, 1})
( ~
A
1
, ..., ~
A
n
)
( ~
A
1
, ..., ~
A
n
),
(5.46)
die definiert ist durch
( ~
A
1
, ..., ~
A
n
)
:=
(A
1
, ..., A
n
)
=
{0} wenn
(x
1
, ..., x
n
) = 0
(x
1
, ..., x
n
)
A
1
× ... × A
n
{1} wenn
(x
1
, ..., x
n
) = 1
(x
1
, ..., x
n
)
A
1
× ... × A
n
{0, 1} sonst
(5.47)
64
Vgl. Kruse / Meyer (1987), S. 222 ff.
65
Diese Definition beruht im Wesentlichen auf dem Ansatz von Gebhardt (1992), S. 140 f.

132
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
und
( ~
A
1
,..., ~
A
n
)
(e) = sup
(0,1]
· 1
(A
1
,...,A
n
)
(e)
= sup
(0, 1]
(A
1
, ..., A
n
)
e
(5.48)
ur e
{0, 1}, wobei
(x
1
, ..., x
n
)
{0, 1} eine scharfe Testfunktion mit Fehlerwahr-
scheinlichkeit ist, unscharfer statistischer Test f¨
ur
H
0
mit Fehlerwahrscheinlichkeit
.
66
Bemerkung: Unter den Bedingungen der vorhergehenden Definition ist (aufgrund
von (3.12) und (3.34)) ist die durch den horizontalen Zugang (5.47)-(5.48) definierte
unscharfe Testfunktion (5.46) ¨
aquivalent der ¨
uber den vertikalen Zugang definierten
unscharfen Testfunktion mit der Zugeh¨
origkeitsfunktion
~
( ~
A
1
,..., ~
A
n
)
(e) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
(x1,...,xn)=e
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(5.49)
Definition: Ausgegangen wird von einem Wahrscheinlichkeitsraum (,
A, P ) und ei-
ner Fuzzy-Zufallsvariablen ~
X : (,
A, P ) (F(U), M
). Ist ( ~
X
1
, ..., ~
X
n
) eine un-
scharfe Stichprobe von ~
X mit Realisationen ( ~
A
1
, ..., ~
A
n
), ist
H
0
eine unscharfe stati-
stische Hypothese, ist ferner
(0, 1) ein vorgegebenes Signifikanzniveau, und ist
(x
1
, ..., x
n
)
{0, 1} eine scharfe Testfunktion mit Fehlerwahrscheinlichkeit f¨ur
Q
Q
,
1
=0
/Q
= ~
Q
H
0
, dann heißt die Abbildung
~
:
(
F(U))
n
F({0, 1})
( ~
A
1
, ..., ~
A
n
)
~
( ~
A
1
, ..., ~
A
n
),
(5.50)
66
Neben diesem Ansatz von Gebhardt, der f¨
ur unscharfe Daten als -Niveaus der Fuzzy-
Entscheidungen sowohl 0, 1 als auch
{0, 1} zul¨asst, schl¨agt Viertl einen Ansatz vor, welcher als Ent-
scheidungen Fuzzy-Singletons auf
{0, 1} liefert:
Ist (,
A, P ) ein Wahrscheinlichkeitsraum, ist X : (, A, P ) (U, C) eine Zufallsvariable, und ist
( ~
X
1
, ..., ~
X
n
) eine unscharfe Stichprobe von unscharfen Wahrnehmungen von X mit Realisationen
( ~
A
1
, ..., ~
A
n
)
(F(U))
n
, ist ferner
H
0
eine Nullhypothese ¨
uber die klassische Verteilung von X mit
Alternativhypothese
H
1
und ist
: U
n
{0, 1} der klassische Test, der die Hypothese H
0
pr¨
uft,
dann ist die Abbildung
V
:
(
F(U))
n
{0, 1} × (0, 1] F({0, 1})
( ~
A
1
, ..., ~
A
n
)
V
( ~
A
1
, ..., ~
A
n
) :=
(0, 1
-
0
)
ur
0
<
1
(1, 1
-
1
)
ur
0
1
,
wobei
0
:=
[0, 1) (A
1
>
, ..., A
n
>
{(x
1
, ..., x
n
)
U
n
|
(x
1
, ..., x
n
) = 0
}
1
:=
[0, 1) (A
1
>
, ..., A
n
>
{(x
1
, ..., x
n
)
U
n
|
(x
1
, ..., x
n
) = 1
} ,
ein unscharfer Test.
Vgl. Viertl (1992), S. 126 f.

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
133
die definiert ist durch
(x
1
, ..., x
n
)
:=
{0} wenn
(x
1
, ..., x
n
) = 0
Q Q
,
1
=0
/Q
= ~
Q
H
0
{1} wenn
(x
1
, ..., x
n
) = 1
Q Q
,
1
=0
/Q
= ~
Q
H
0
{0, 1} sonst
(5.51)
und
~
(x
1
,...,x
n
)
(e) = sup
(0,1]
· 1
(x
1
,...x
n
)
(e)
= sup
(0, 1]
(x
1
, ..., x
n
)
e
(5.52)
ur e
{0, 1}, und schließlich
~
( ~
A
1
,..., ~
A
n
)
(e) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An),
(x1,...,xn)supp(
~
(x1,...,xn)):
(x1,...,xn)=e
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
),
~
(x
1
,...,x
n
)
(e) , (5.53)
unscharfer statistischer Test f¨
ur
H
0
mit Fehlerwahrscheinlichkeit .
Unscharfe Testergebnisse f¨
ur scharfe Hypothesen beim Vorliegen von unscharfen
Daten ~
A
1
, ..., ~
A
n
definieren R¨
omer und Kandel aufgrund unscharfer Zugeh¨
origkeit der
Daten zu Annahmeraum und Verwerfunsraum:
67
( ~
A
1
,..., ~
A
n
)
(0) =
sup
(x
1
,...,x
n
)
(supp( ~
A
1
)
×...×supp( ~
A
n
))
-1
(0)
min
{
f uzA
1
(x
1
), ...,
~
A
n
(x
n
)
}
( ~
A
1
,..., ~
A
n
)
(1) =
sup
(x
1
,...,x
n
)
(supp( ~
A
1
)
×...×supp( ~
A
n
))
-1
(1)
min
{
f uzA
1
(x
1
), ...,
~
A
n
(x
n
)
}
Als Fuzzy-Mengen ¨
uber der Menge der m¨
oglichen Wahrscheinlichkeitsverteilungen
werden unscharfe Hypothesen in dem Ansatz von Arnold und Gerke angesehen. Speziell
im Fall parametrischer Hypothesen ist eine unscharfe Hypothese dann eine Fuzzy-
Menge
H
F() mit der Zugeh¨origkeitsfunktion
H
:
[0, 1]. F¨ur das Paar
aus unscharfen Hypothesen
H
0
und
H
1
mit den Zugeh¨
origkeitsfunktionen
H
0
(.) und
H
1
(.) wird ein verallgemeinerter randomisierter Test
68
konstruiert
69
und am Beispiel
eines unscharfen Hypothesentests im linearen Regressionsmodell vorgef¨
uhrt.
70
Die folgenden Abschnitte sollen drei ¨
aquivalente M¨
oglichkeiten zur Definition der
Testfunktion
(.) vorgestellt und auf unscharfe Daten angewandt werden. Alle drei
oglichkeiten beruhen auf der Verteilung bzw. asymptotischen Verteilung der Teststa-
tistik.
67
Vgl. R¨
omer / Kandel (1995), S. 15 ff.
68
Bei einem randomisierten Test wird einer konkreten Stichprobe (x
1
, ..., x
n
) einer Zufallsvariablen
X in einem stochastischen Modell X
P
nicht eine Entscheidung
(x
1
, ..., x
n
)
{0, 1} zugeordnet,
sondern die Wahrscheinlichkeit, mit welcher die Entscheidung
(x
1
, ..., x
n
) = 1 gew¨
ahlt und damit
die Nullhypothese
H
0
verworfen wird.
69
Vgl. Arnold / Gerke (2003), S. 82 ff.
70
Vgl. Arnold / Gerke (2003), S. 85 ff.

134
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
5.5.2
Unscharfe Teststatistiken und unscharfer Vergleich mit
kritischen Werten
Die Standardmethode zur Durchf¨
uhrung eines statistischen Tests erfolgt durch Be-
rechnung einer Teststatistik aus der Stichprobe und Vergleich von deren Resultat
mit einem kritischen Wert. Eine Teststatistik, auch als Pr¨
ufgr¨
oße bezeichnet, ist so-
mit eine Statistik /t(x
1
, ..., x
n
), welche den Realisationen (x
1
, ..., x
n
) einer Stichpro-
be (X
1
, ..., X
n
) einer Zufallsvariablen X einen Wert zuordnet, der eine Aussage ¨
uber
Verwerfung oder Annahme der Nullhypothese
H
0
erm¨
oglichen soll. Vor Erhebung der
Daten ist /t(X
1
, ..., X
n
) eine Zufallsvariable. Diese Zufallsvariable /t(X
1
, ..., X
n
) hat wie-
derum eine Wahrscheinlichkeitsverteilung. Nach der jeweiligen Verteilung der Teststa-
tistik wird der Test dann auch meist bezeichnet. Die wichtigsten Tests sind demnach
Chiquadrat-Test, t-Test, und F -Test. Anstelle der Verteilung der Teststatistik wird oft
die asymptotische Verteilung betrachtet, d.h. die Verteilung an die sich die eigentli-
che Verteilung der Teststatistik bei zunehmendem Stichprobenumfang n immer weiter
ann¨
ahert.
Eine Teststatistik /t(.) ist somit eine Abbildung vom Stichprobenraum U
n
in den
Definitionsbereich der gew¨
unschten (asymptotischen) Testverteilung, der hier nur all-
gemein als Bildraum S einer Statistik bezeichnet werden soll:
/t :
U
n
S
(x
1
, ..., x
n
)
/t(x
1
, ..., x
n
)
Außerdem soll eine Teststatistik so konzipiert sein, dass allein bei Betrachtung des
Wertes /t(x
1
, ..., x
n
) eine Entscheidung
/t
(/t(x
1
, ..., x
n
)) =
(x
1
, ..., x
n
) m¨
oglich sein
soll. Insgesamt soll also gelten:
P
/t(X
1
,...,X
n
)
(
{
/t
(/t(X
1
, ..., X
n
)) = 0
|F
X
H
0
}) = 1 -
P
/t(X
1
,...,X
n
)
(
{
/t
(/t(X
1
, ..., X
n
)) = 1
|F
X
H
0
}) =
Diese Bedingung ist gerade dann erf¨
ullt, wenn
(.) folgendermaßen definiert wird:
(x
1
, ..., x
n
) =
0 falls /t(x
1
, ..., x
n
)
(1
-)/t(X
1
,...,X
n
)
1 falls /t(x
1
, ..., x
n
) >
(1
-)/t(X
1
,...,X
n
)
(1
-)/t(X
1
,...,X
n
)
ist dabei das 1
--Quantil der Verteilung der Teststatistik.
(1
-)/t(X
1
,...,X
n
)
wird auch als kritischer Wert bezeichnet. Die Quantile der die wichtigsten Verteilungen
sind tabelliert, und moderne Software erm¨
oglicht auch eine Berechnung der ben¨
otigten
Quantilwerte.
Liegen aufgrund einer Stichprobe von Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) einer Zu-
fallsvariablen X unscharfe Daten ( ~
A
1
, ..., ~
A
n
) vor, so muss das Konzept verallgemei-
nert werden. Wiederum muss unterschieden werden zwischen scharfen und unscharfen
Hypothesen.
Die Durchf¨
uhrung des unscharfen statistischen Tests aufgrund unscharfer Daten f¨
ur
scharfe statistische Hypothesen erfolgt ¨
uber die Berechnung der unscharfen Teststati-
stik
/t :
U
n
F(S)
( ~
A
1
, ..., ~
A
n
)
/t (~A
1
, ..., ~
A
n
)
(5.54)

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
135
mit
/t ( ~
A
1
,..., ~
A
n
)
(t) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
/t(x1,...,xn)=t
min
~
A
1
(x
1
), ...,
~
A
N
(x
n
)
(5.55)
ur t
S, die die Fuzzy-Extension der gew¨ohnlichen Teststatistik /t(x
1
, ..., x
n
) f¨
ur die
scharfe Hypothese darstellt.
71
Die -Niveaus der Fuzzy-Entscheidung erh¨
alt man durch
Vergleich der /t(x
1
, ..., x
n
)
/t (A
1
, ..., A
n
) mit dem kritischen Wert
(1
-)/t(X
1
,...,X
n
)
,
d.h.
(A
1
, ..., A
n
) =
{0} falls /t(x
1
, ..., x
n
)
/t (A
1
, ..., A
n
) :
/t(x
1
, ..., x
n
)
(1
-)/t(X
1
,...,X
n
)
{1} falls /t(x
1
, ..., x
n
)
/t (A
1
, ..., A
n
) :
/t(x
1
, ..., x
n
) >
(1
-)/t(X
1
,...,X
n
)
{0, 1} falls /t(x
1
, ..., x
n
)
/t (A
1
, ..., A
n
) :
/t(x
1
, ..., x
n
)
(1
-)/t(X
1
,...,X
n
)
und
/t(x
1
, ..., x
n
)
/t (A
1
, ..., A
n
) :
/t(x
1
, ..., x
n
) >
(1
-)/t(X
1
,...,X
n
)
,
(5.56)
und durch anschließende Bestimmung der Zugeh¨
origkeitsfunktion
( ~
A
1
,..., ~
A
n
)
(e) = sup
(0,1]
· 1
(A
1
,...,A
n
)
(e)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An),:
(x1,...,xn)=e
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(5.57)
ur e
{0, 1} nach (5.48) und (5.49).
Ein unscharfer Test
(.) aufgrund unscharfer Daten ( ~
A
1
, ..., ~
A
n
) f¨
ur eine scharfe
Hypothese kann auch aufgefasst werden als eine Abbildung einer speziellen unscharfen
Gr¨
oßer-Kleinergleich-Relation im Sinne von (3.83) ~
R
~
>
/t ( ~
A
1
, ..., ~
A
n
),
1
-/t(X
1
,...,X
n
)
auf
( ~
A
1
, ..., ~
A
n
)
F({0, 1}) mit
( ~
A
1
,..., ~
A
n
)
(1) =
~
R
~
>
( /t ( ~
A
1
, ..., ~
A
n
),
1
-/t(X
1
,...,X
n
)
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
/t(x1,...,xn)>1-/t(X
1,...,X
n)
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
( ~
A
1
,..., ~
A
n
)
(0) =
~
R
~
( /t ( ~
A
1
, ..., ~
A
n
),
1
-/t(X
1
,...,X
n
)
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
/t(x1,...,xn)1-/t(X
1,...,X
n)
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(5.58)
Soll eine unscharfe Hypothese gepr¨
uft werden, so ergibt sich f¨
ur jede Verteilung
Q
Q
,
1
=0
/Q
= ~
Q, ~
Q
H
0
eine eigene Teststatistik, insgesamt ergibt sich
somit eine Fuzzy-Schar von Teststatistiken
~
~
/t(.). Die unscharfe Teststatistik erh¨
alt man
71
Vgl. auch Viertl(1996), S. 129 f., Viertl (1997), S. 561 f., Viertl (2002), S. 204 ff., Viertl (2003),
S. 199 f., Viertl (2004), S. 663 f., Viertl / Hareter (2006), S. 80 ff.

136
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
dann als die Fuzzy-Extension der von der Fuzzy-Schar
~
~
/t(.) induzierten fuzzifizierenden
Teststatistik
~
/t :
U
n
F(S)
( ~
A
1
, ..., ~
A
n
)
~/t(~A
1
, ..., ~
A
n
)
(5.59)
mit
~
/t( ~
A
1
,..., ~
A
n
)
(t) =
sup
/t(.)supp(
~
~
/t(.)),(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
/t(x1,...,xn)=t
min
~
~
/t(.)
(/t(.)),
~
A
1
(x
1
), ...,
~
A
N
(x
n
)
(5.60)
ur t
S. Die Fuzzy-Testentscheidung erh¨alt man dann durch
(A
1
, ..., A
n
) =
{0} falls /t(.)/t
(.),
(x
1
, ..., x
n
)
(A
1
× ... × A
n
) :
/t(x
1
, ..., x
n
)
(1
-)/t(X
1
,...,X
n
)
{1} falls /t(.)/t
(.),
(x
1
, ..., x
n
)
(A
1
× ... × A
n
) :
/t(x
1
, ..., x
n
) >
(1
-)/t(X
1
,...,X
n
)
{0, 1} falls /t(.)/t
(.),
(x
1
, ..., x
n
)
(A
1
× ... × A
n
) :
/t(x
1
, ..., x
n
)
(1
-)/t(X
1
,...,X
n
)
und
/t(.)/t
(.),
(x
1
, ..., x
n
)
(A
1
× ... × A
n
) :
/t(x
1
, ..., x
n
) >
(1
-)/t(X
1
,...,X
n
)
(5.61)
und
~
( ~
A
1
,..., ~
A
n
)
(e) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An),
(x1,...,xn)supp(
~
(x1,...,xn)):
(x1,...,xn)=e
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
),
~
(x
1
,...,x
n
)
(e)
(5.62)
ur e
{0, 1} nach (5.53).
Ein unscharfer Test ~
(.) aufgrund unscharfer Daten ( ~
A
1
, ..., ~
A
n
) f¨
ur eine unscharfe
Hypothese kann wiederum auch aufgefasst werden als eine Abbildung einer unscharfen
Gr¨
oßer-Kleinergleich-Relation im Sinne von (3.83) ~
R
~
>
~
/t( ~
A
1
, ..., ~
A
n
), ~
1
-~/t(X
1
,...,X
n
)
auf ~
( ~
A
1
, ..., ~
A
n
)
F({0, 1}) mit
~
( ~
A
1
,..., ~
A
n
)
(1) =
~
R
~
>
(~
/t( ~
A
1
, ..., ~
A
n
), ~
1
-~/t(X
1
,...,X
n
)
)
=
sup
/t(.)supp(
~
~
/t(.)),
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
/t(x1,...,xn)>1-/t(X
1,...,X
n)
min
~
~
/t(.)
(/t(.)),
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
~
( ~
A
1
,..., ~
A
n
)
(0) =
~
R
~
(~
/t( ~
A
1
, ..., ~
A
n
), ~
1
-~/t(X
1
,...,X
n
)
)
=
sup
/t(.)supp(
~
~
/t(.)),
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
/t(x1,...,xn)1-/t(X
1,...,X
n)
min
~
~
/t(.)
(/t(.)),
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(5.63)
Beim unscharfen Test aufgrund unscharfer Daten f¨
ur eine scharfe Hypothese (5.63) han-
delt es sich deshalb um einen Spezialfall der unscharfen Gr¨
oßer-Kleinergleich-Relation,

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
137
Abbildung 5.4: Unscharfe Teststatistik und unscharfer kritischer Wert
weil die Unsch¨
arfe der Testfunktion ~
/t(.) in beiden zu vergleichenden Fuzzy-Gr¨
oßen
~
/t( ~
A
1
, ..., ~
A
n
) und ~
1
-~/t(X
1
,...,X
n
)
vorkommt.
Wichtige Tests um zu ¨
uberpr¨
ufen, ob zwei Stichproben hinsichtlich einer Eigen-
schaft aus der gleichen Grundgesamtheit stammen oder sich voneinander unterschei-
den, sind z-Test, t-Test und F -Test zur Pr¨
ufung der Gleichheit der Mittelwerte und der
Chi-Quadrat-Test zur Pr¨
ufung der Gleichheit der Varianz. Nach der hier vorgestellten
Methode wurden von R¨
omer und Kandel z-Test, t-Test, F -Test und Chi-Quadrat-Test
ur unscharfe Daten und klassische Hypothesen formuliert.
72
t-Tests f¨
ur unscharfe Da-
ten wurden von Viertl
73
ur klassische Hypothesen und von Watanabe und Imaizumi
74
ur unscharfe Hypothesen formuliert, ein F -Test und ein z-Test von Montenegro und
anderen
75
, Chi-Quadrat-Tests unter Unsch¨
arfe wurden von Gebhardt
76
und von Mon-
tenegro, Casals, Lubiano und Gil
77
entworfen. Der Chi-Quadrat-Anpassungstest wurde
von Gil, Corral und Gil
78
auf unscharfe Beobachtungen ausgeweitet. K¨
orner
79
erweiter-
te asymptotische Tests f¨
ur Momente auf Fuzzy-Zufallsvariablen nach Puri und Ralescu,
basierend auf dem Zentralen Grenzwertsatz.
Ein wichtiger Test ist etwa der Likelihood-Quotienten-Test oder Plausibilit¨
atsquo-
tiententest.
80
Dabei werden f¨
ur ein parametrisches stochastisches Modell X
P
,
X :
U, mit unbekanntem Parameter die beiden einfachen Hypothesen H
0
:
=
0
und
H
1
: =
1
gegeneinander getestet. Aus den Realisationen (x
1
, ..., x
n
)
von n unabh¨
angigen und identisch wie X verteilten Zufallsvariablen X
1
, ..., X
n
wird
72
Vgl. R¨
omer / Kandel (1995), S. 18 ff.
73
Vgl. Viertl (1992), S. 126 f.
74
Vgl. Watanabe / Imaizumi (1993), S. 167 ff.
75
Vgl. Montenegro / Casals / Lubiano / Gil (2001), S. 92 f., Montenegro / Colubi / Casals / Gil
(2004), S. 31 ff.
76
Vgl. Gebhardt (1992), S. 140 f.
77
Vgl. Montenegro / Casals / Lubiano / Gil (2001), S. 93.
78
Vgl. Gil / Corral / Gil (1988), S. 95 ff.
79
Vgl. K¨
orner (2000), S. 333 ff.
80
Vgl. Viertl (2003), S. 151 f.

138
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
der Quotient der Likelihoodwerte gebildet: L(x
1
, ..., x
n
|
1
,
0
) =
(
1
|x
1
,...,x
n
)
(
0
|x
1
,...,x
n
)
, wobei
(
|x
1
, ..., x
n
) =
p(x
1
,...,x
n
|)
im diskreten Fall
f (x
1
,...,x
n
|)
im stetigen Fall . Der Liklihood-Quotient wird mit ei-
nem aus dem vorgegebenen Signifikanzniveau zu bestimmenden kritischen Wert k
vergichen. Die
H
0
wird verworfen, denn L(x
1
, ..., x
n
|
1
,
0
) > k
.
81
.
In der Literatur finden sich einige Ans¨
atze f¨
ur eine Fuzzifikation des Likelihood-
Quotienten-Tests. So bieten Yao und Hwang
82
einen Ansatz, der scharfe Hypothesen
mit unscharfer Stichprobeninformation testet. Aufbauend auf der Wahrscheinlichkeits-
definition f¨
ur unscharfe Ereignisse von Zadeh (4.57) wird ein exakter Likelihoodquotient
berechnet. ¨
Ahnlich wird bei Casals und Gil
83
vorgegangen, die allgemein f¨
ur ihre stati-
stischen Tests die Wahrscheinlichlichkeitsdefinition von Zadeh verwenden.
84
Taheri und
Behboodian
85
testen unscharfe einfache Hypothesen mit exakten Stichprobendaten.
Analog zu (4.57) werden die unscharfen Werte der Likelihoodfunktion defuzzifiziert,
indem deren Tr¨
agerelemente mit den Werten der Zugeh¨
origkeitsfunktion gewichtet und
integriert werden. Der Test wird mit Hilfe des Quotienten aus den defuzzifizierten Li-
kehoodwerten durchgef¨
uhrt.
Allgemeine statistische Testmethoden auf Basis von unscharfer Information wer-
den bei Casals, Gil und Gil vorgeschlagen.
86
Von Wu wird eine Testmethode mit un-
scharfen Daten auf Basis der eigenen Zufallsvariablendefinition vorgeschlagen.
87
Eine
zusammenfassende Beschreibung einiger der vorgeschlagenen Methoden findet sich bei
Grzegorzewski und Hryniewicz.
88
Eine unscharfe Testmethode die weder auf unschar-
fen Beobachtungen beruht, noch unscharfe Hypothesen testet, sondern lediglich darauf
abzielt, mehr Information zu verwenden, schl¨
agt Buckley vor. Er konstruiert, analog
zu der am Ende von Abschnitt 5.3 vorgestellten Konstruktionsmethode f¨
ur einen Para-
metersch¨
atzer, eine unscharfe Teststatistik ~
/t
B
(x
1
, ..., x
n
), deren -Schnitte durch ihre
Konfidenzintervalle mit ¨
Uberdeckungswahrscheinlichkeit 1
- f¨ur (0, 0.99] und
0.01 f¨
ur
[0.99, 1] gegeben sind.
89
Er konstruiert aus den Konfidenzintervallen f¨
ur
die Teststatistik auch einen unscharfen kritischen Wert, f¨
ur die weitere Vorgehensweise
wird aber nur der klassische kritische Wert
1
-/t(x
1
,...,x
n
)
verwendet. Die scharfe Te-
stentscheidung wird dann getroffen, indem die zu pr¨
ufende Nullhypothese verworfen
wird, wenn der Quotient
card(~
/t
B
(x
1
,...,x
n
)
{tsupp(~/t
B
(x
1
,...,x
n
))
|t>
1
-/t(x
1,...,x
n)
})
card(~
/t
B
(x
1
,...,x
n
))
gr¨
oßer als eine
vorher festzulegende Zahl
[0.5, 1] ist, ansonsten wird sie angenommen.
90
81
Eine
Weiterentwicklung
des
Likehood-Quotiententests
ist
der
sequentiellen
Likelihood-
Quotiententest (SPRT). Dessen Fuzzifikation wird ausf¨
uhrlich in Abschnitt 8.6.3 besprochen
82
Yao / Hwang (1996), S. 211 ff.
83
Vgl. Casals / Gil (1989), S. 215 ff.
84
Vgl. Casals / Gil / Gil (1986a), S. 175 ff.
85
Vgl. Taheri / Behboodian (1999), S. 3 ff.
86
Vgl. Casals / Gil / Gil (1986b), S. 71 ff.
87
Vgl. Wu (2005), S. 30 ff.
88
Vgl. Grzegorzewski / Hryniewicz (1997), S. 203 ff.
89
Vgl. Buckley (2005), S. 513 ff.
90
Vgl. Buckley (2005), S. 514 ff.

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
139
5.5.3
Unscharfe Inklusion in unscharfen Konfidenzintervallen
Geht es ausschließlich um die ¨
Uberpr¨
ufung von parametrischen Hypothesen, so kann ein
Zusammenhang zwischen Teststatistiken und Konfidenzintervallen durch ein Gleichset-
zen der ¨
Uberdeckungswahrscheinlichkeit des Konfindenzintervalls mit dem Signifikanz-
niveau des statistischen Tests hergestellt werden. Die Formeln f¨
ur die Konfidenzin-
tervalle sind Ableitungen aus der Verteilung der Teststatistiken f¨
ur die entsprechende
Parameterhypothese, die spezielle Berechnung der Teststatistiken wiederum folgt aus
den ¨
Uberlegungen zu Konfidenzintervallen.
91
.
In einem parametrischen stochastischen Modell X
P
wird ein Konfidenzinter-
vall k(X
1
, ..., X
n
) f¨
ur den Verteilungsparameter mit ¨
Uberdeckungswahrscheinlichkeit
1
- aufgrund einer Stichprobe (X
1
, ..., X
n
) von X definiert durch die Forderung
P
(
{ k(X
1
, ..., X
n
)
}) = 1 - nach (5.32). Andererseits soll f¨ur Teststatistik und
Testfunktion zur Pr¨
ufung einer parametrischen Hypothese
H
0
gegen die Hypo-
these
H
1
=
\H
0
gelten P
(
{
(/t(X
1
, ..., X
n
)) = 0
| H
1
}) = P
(
{/t(X
1
, ..., X
n
)
(1
-)/t(X
1
,...,X
n
)
| H
1
}) = 1 - .
Es liegt somit nahe den folgenden Test mit Fehlerwahrscheinlichkeit erster Art von
1
- zu definieren:
:
U
n
{0, 1}
(x
1
, ..., x
n
)
(x
1
, ..., x
n
) =
0 falls
H
0
k(x
1
, ..., x
n
)
1 sonst
,
wobei k(x
1
, ..., x
n
) ein Konfidenzintervall f¨
ur mit ¨
Uberdeckungswahrscheinlichkeit
1
- ist.
Dieser Ansatz kann auf den Fall unscharfer Daten ¨
ubertragen werden. Ausgegangen
wird von einer Stichprobe ( ~
X
1
, ..., ~
X
n
) von verteilungstreuen Fuzzy-Perzeptionen einer
Zufallsvariablen X : (,
A, P ) (IR, B), mit X P
, zu der man die unscharfen Daten
( ~
A
1
, ..., ~
A
n
)
F(IR) erh¨alt. Außerdem ist die Abbildung k = [k, k] : IR
n
I
k
(IR) eine
Konfidenzfunktion, die scharfen Daten (x
1
, ..., x
n
)
IR
n
ein Konfidenzintervall mit
¨
Uberdeckungswahrscheinlichkeit 1
- zuordnet, und k : (F(IR))
n
F
c
(IR) ist die
Fuzzy-Extension von k(.) mit k
, k
: (
F(IR))
n
I
k
(IR) nach (5.33)-(5.37).
(i) Ist
H
0
{Q
| IR} eine scharfe parametrische Hypothese, dann ist durch die
Fuzzy-Testfunktion
:
(
F(IR))
n
F({0, 1})
( ~
A
1
, ..., ~
A
n
)
( ~
A
1
, ..., ~
A
n
)
=
0,
( ~
A
1
,..., ~
A
n
)
(0) , 1,
( ~
A
1
,..., ~
A
n
)
(1)
(5.64)
mit
( ~
A
1
,..., ~
A
n
)
(0) = sup
[0, 1] mit Q
H
0
gilt:
k
( ~
A
1
, ..., ~
A
n
), k
( ~
A
1
, ..., ~
A
n
)
( ~
A
1
,..., ~
A
n
)
(1) = sup
[0, 1] mit Q
H
0
mit:
/
k
( ~
A
1
, ..., ~
A
n
), k
( ~
A
1
, ..., ~
A
n
)
(5.65)
91
Vgl. auch Viertl (2003), S. 141 ff., Hafner (1989), S. 459 ff.

140
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ein unscharfer Test f¨
ur die scharfe Hypothese
H
0
mit Fehlerwahrscheinlichkeit
erster Art von definiert.
(ii) Ist
H
0
{ ~Q
~
|~ F(IR)} eine unscharfe parametrische Hypothese, dann ist
durch die Fuzzy-Testfunktion
~
:
(
F(IR))
n
F({0, 1})
( ~
A
1
, ..., ~
A
n
)
~
( ~
A
1
, ..., ~
A
n
)
=
0,
~
( ~
A
1
,..., ~
A
n
)
(0) , 1,
~
( ~
A
1
,..., ~
A
n
)
(1)
(5.66)
mit
~
( ~
A
1
,..., ~
A
n
)
(0) = sup
[0, 1]
mit Q
Q
: ~
Q
~
H
0
gilt:
k
( ~
A
1
, ..., ~
A
n
), k
( ~
A
1
, ..., ~
A
n
)
~
( ~
A
1
,..., ~
A
n
)
(1) = sup
[0, 1]
mit Q
Q
: ~
Q
~
H
0
mit:
/
k
( ~
A
1
, ..., ~
A
n
), k
( ~
A
1
, ..., ~
A
n
)
(5.67)
ein unscharfer Test f¨
ur die unscharfe Hypothese
H
0
mit Fehlerwahrscheinlichkeit
erster Art von definiert.
Begleitendes numerisches Beispiel: Mit Hilfe eines unscharfen Konfidenzintervalls
soll zu den Angaben des begleitenden Beispiels aus Abschnitt 5.3 die scharfe einseitige
Nullhypothese
H
0
:
13.7 ¨uber den Verteilungsparameter der Poisson-Verteilung,
welche die Wahrscheinlichkeitsverteilung der Anzahl der Flutwellen kritischer H¨
ohe im
Jahr beschreibt, gegen die scharfe rechtsseitige Alternativhypothese
H
1
: > 13.7 gete-
stet werden. Als Wahrscheinlichkeit eines Fehlers erster Art soll = 0.05 angenommen
werden.
Analog zur Vorgangsweise in Abschnitt 5.4 muss ein unscharfes Konfidenzintervall
~
K f¨
ur mit ¨
Uberdeckungswahrscheinlichkeit 1
- = 0.95 angegeben werden, anders
als dort handelt es sich hier, da nur die einseitige Nullhypothese
H
0
:
13.7 getestet
werden soll, um ein einseitiges Konfidenzintervall. Es muss somit f¨
ur jede f¨
ur jede in-
vertierte Gammaverteilung f
(
|
3
i=1
x
i
+ 1,
1
3
) mit Parameter
3
i=1
x
i
+ 1
supp
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
25
26
27
28
29
30
31
32
1
das
Quantil
1
-(
3
i=1
x
i
+1,
1
3
)
=
0.95(
3
i=1
x
i
+1,
1
3
)
bestimmt werden. Es ist
0.95(26,
1
3
)
= 11.6387,
3
i=1
~
A
i
1
(26) = 0.2;
0.95(27,
1
3
)
= 12.0255,
3
i=1
~
A
i
1
(27) = 0.5
0.95(28,
1
3
)
= 12.4114,
3
i=1
~
A
i
1
(28) = 0.7;
0.95(29,
1
3
)
= 12.7963,
3
i=1
~
A
i
1
(29) = 0.8
0.95(30,
1
3
)
= 13.1803,
3
i=1
~
A
i
1
(30) = 1;
0.95(31,
1
3
)
= 13.5635,
3
i=1
~
A
i
1
(31) = 0.8
0.95(32,
1
3
)
= 13.9459,
3
i=1
~
A
i
1
(32) = 0.6;
0.95(33,
1
3
)
= 14.3275,
3
i=1
~
A
i
1
(33) = 0.5
und ~
K ist gegeben durch
K
=
(0, 14.3275] f¨
ur 0 <
0.5
(0, 13.9459] f¨
ur 0.5 <
0.6
(0, 13.5635] f¨
ur 0.6 <
0.8
(0, 13.1803] f¨
ur 0.8 <
1
(N.5.6)

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
141
ur
(0, 1].
Es ist (0, 13.7]
[k
( ~
A
1
, ~
A
2
, ~
A
3
), k
( ~
A
1
, ~
A
2
, ~
A
3
)] = (0, k
( ~
A
1
, ~
A
2
, ~
A
3
)] f¨
ur
(0, 0.6]
und (0, 13.7]
[k
( ~
A
1
, ~
A
2
, ~
A
3
), k
( ~
A
1
, ~
A
2
, ~
A
3
)] = (0, k
( ~
A
1
, ~
A
2
, ~
A
3
)] f¨
ur
(0.6, 1].
Daher lautet die unscharfe Testentscheidung zu dem scharfen Hypothesenpaar
H
0
,
H
1
:
~
A
1
, ~
A
2
, ~
A
3
=
0.6
1
0
1
(N.5.7)
Abbildung 5.5: Klassische Hypothese und unscharfes Konfidenzintervall
-
6
0.0
0.5
0.6
0.8
1.0
13.18
14.36
()
~
K
H
0
13.7
0
Einige Ans¨
atze f¨
ur statistische Tests mit unscharfe Daten werden von Grzegorzewski
vorgestellt. Einer der Vorschl¨
age von Grzegorzewski
92
entspricht im Wesentlichen der
hier vorgestellten Methode. Grzegorzewski
93
schl¨
agt dann noch einen weiteren Ansatz
vor, in dem die Nullhypothese stets als unscharfe einfache Hypothese formuliert ist, f¨
ur
drei verschiedene Arten von scharfen Alternativhypothesen werden Tests formuliert.
Grzegorzewski verwendet f¨
ur seine Formulierungen der scharfen Alternativhypothesen
die in Abschnitt 3.2.6 beschriebene Beziehung der Notwendigkeit strikter Dominanz
nach der Definition von Dubois und Prade. Es handelt sich bei dem Ansatz um eine
Erweiterung und Verbesserung des Ansatzes f¨
ur statistische Tests mit unscharfen Daten
von Kruse und Meyer.
94
Es werden nur unscharfe Wahrscheinlichkeitsverteilungen mit
konvexen Parametern betrachtet.
92
Vgl. Grzegorzewski (2000), S. 503 ff.
93
Vgl. Grzegorzewski (2002), S. 216 ff.
94
Bei Kruse / Meyer (1987), S. 222 ff., wird versucht, einen scharfen Test f¨
ur unscharfe Hypothe-
sen zu formulieren, welcher hier in verallgemeinerter Form dargestellt werden soll. Ist X
P
X
ein
klassisches stochastisches Modell, wobei P
X
unbekannt ist, ist
H
0
=
{Q|Q angenommen} eine Nullhy-
pothese ¨
uber die Verteilung von X, und ist
(X
1
, ..., X
n
) eine Testfunktion f¨
ur
H
0
mit Irrtumswahr-
scheinlichkeit
(0, 1), ist außerdem ~
X
1
, ..., ~
X
n
eine unscharfe Stichprobe von n verteilungstreuen
Fuzzy-Perzeptionen von X mit Realisationen ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
, und ist die zu testende unscharfe
Nullhypothese
H
0
die Menge der unscharfen Verteilungen ~
Q mit den -Schnitten Q
=
{Q|Q Q
}
ur
(0, 1], dann werden die Abbildungen:
: (
F(IR))
n
{0, 1}; (~A
1
, ..., ~
A
n
)
( ~
A
1
, ..., ~
A
n
) :=
0
ur
(x
1
, ..., x
n
) = 0 (
(x
1
, ..., x
n
)
A
1
× ... × A
n
)
(Q Q
)
Q
1
ur (
(x
1
, ..., x
n
)
A
1
× ... × A
n
)
(Q
:
Q Q
) :
(x
1
, ..., x
n
) = 1
definiert. F¨
ur N
IN werden
1
, ...,
N
,
i
[0, 1) f¨ur i {1, ..., N}, und K {1, ..., N} definiert. Dann ist die Abbildung

142
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Die unscharfe einfache Nullhypothese lautet stets
H
0
: ~
= ~
0
.
Die scharfe rechtsseitige Alternativhypothese lautet f¨
ur ein frei w¨
ahlbares
[0, 1]
H
1
: N ec(~
> ~
0
)
,
wobei N ec(~
> ~
0
) = 1
- sup
supp(~),
0
supp(~
0
):
0
min
~
(),
~
0
(
0
)
ist. Ist ~
K ein
einseitiges unscharfes Konfidenzintervall mit ¨
Uberdeckungswahrscheinlichkeit 1
- mit
den -Schnitten [k
( ~
A
1
, ..., ~
A
n
),
) auf Basis der unscharfen Realisationen ~A
1
, ..., ~
A
n
einer Stichprobe von Fuzzy-Zufallsvariablen ~
X
1
, ..., ~
X
n
ur
(0, 1], so ist die Abbil-
dung
G
( ~
A
1
, ..., ~
A
n
) =
1 falls (
0
)
< k
( ~
A
1
, ..., ~
A
n
)
0
sonst
ein statistischer Test f¨
ur die Hypothesen
H
0
und
H
1
mit einer Fehlerwahrscheinlichkeit
erster Art von .
Die scharfe linksseitige Alternativhypothese lautet f¨
ur ein frei w¨
ahlbares
[0, 1]
H
1
: N ec(~
0
> ~
)
.
Ist ~
K ein einseitiges unscharfes Konfidenzintervall mit ¨
Uberdeckungswahrscheinlichkeit
1
- mit den -Schnitten (, k
( ~
A
1
, ..., ~
A
n
)] auf Basis der unscharfen Realisationen
~
A
1
, ..., ~
A
n
einer Stichprobe von Fuzzy-Zufallsvariablen ~
X
1
, ..., ~
X
n
ur
(0, 1], so ist
die Abbildung
G
( ~
A
1
, ..., ~
A
n
) =
1 falls (
0
)
> k
( ~
A
1
, ..., ~
A
n
)
0
sonst
ein statistischer Test f¨
ur die Hypothesen
H
0
und
H
1
mit einer Fehlerwahrscheinlichkeit
erster Art von .
Die scharfe zweiseitige Alternativhypothese lautet f¨
ur ein frei w¨
ahlbares
[0, 1]
H
1
: N ec(~
= ~
0
)
,
wobei N ec(~
> ~
0
) = max
{Nec(~
0
> ~
), N ec(~
= ~
0
)
} ist. Ist ~K ein zweiseitiges
unscharfes Konfidenzintervall mit ¨
Uberdeckungswahrscheinlichkeit 1
- mit den -
Schnitten [k
( ~
A
1
, ..., ~
A
n
), k
( ~
A
1
, ..., ~
A
n
)] auf Basis der unscharfen Realisationen ~
A
1
, ...,
KM
: (
F(IR))
n
{0, 1}; (~A
1
, ..., ~
A
n
)
KM
( ~
A
1
, ..., ~
A
n
) :=
0
ur
n
i
=1
i
( ~
A
1
, ..., ~
A
n
) < K
1
ur
n
i
=1
i
( ~
A
1
, ..., ~
A
n
)
K
dann ein scharfer Test f¨
ur die unscharfe Hypothese
H
0
mit Irrtumswahrscheinlichkeit
·
K
N
.
Bei Kruse / Meyer (1987), S. 222 ff., wurde nur der Spezialfall des Tests f¨
ur parametrische unscharfe
Hypothesen mit Hilfe unscharfer Konfidenzintervalle dargestellt.
Da bei diesem Test Signifikanzniveau des Tests und -Niveaus der Fuzzy-Mengen vermischt werden,
geht die Errungenschaft der Theorie der unscharfen Mengen verloren, es erfolgt eine Vermengung von
Unsch¨
arfe und Wahrscheinlichkeit. Ein weiterer Kritikpunkt ist die willk¨
urliche Wahl der -Schnitte
und ihrer Anzahl. Unscharfen Tests oder der Formulierung scharfer Hypothesen ist daher der Vorzug
zu geben. (Vgl. auch Grzegorzewski / Hryniewicz (1997), S. 212 f., Grzegorzewski (2002), S. 216.

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
143
~
A
n
einer Stichprobe von Fuzzy-Zufallsvariablen ~
X
1
, ..., ~
X
n
ur
(0, 1], so ist die
Abbildung
G
( ~
A
1
, ..., ~
A
n
) =
1 falls
(
0
)
< k
( ~
A
1
, ..., ~
A
n
)
(
0
)
> k
( ~
A
1
, ..., ~
A
n
)
0
sonst
ein statistischer Test f¨
ur die Hypothesen
H
0
und
H
1
mit einer Fehlerwahrscheinlichkeit
erster Art von .
5.5.4
Unscharfe Wahrscheinlichkeitswerte
Bei der Durchf¨
uhrung von statistischen Tests mit Hilfe von statistischer Software wird
neben der Teststatistik auch ein Wahrscheinlichkeitswert (p-Wert, probability value)
ausgegeben. In der Literatur wird diesem Wert eher wenig Bedeutung beigemessen, in
praktischen Anwendungen werden Testentscheidungen im Allgemeinen auf dem Wahr-
scheinlichkeitswert aufgebaut.
In Abschnitt 5.5.2 wurden Testentscheidungen aufgrund des Vergleichs einer Test-
statistik mit einem kritischen Wert formuliert. Die Teststatistik /t(X
1
, ..., X
n
) aufgrund
der Stichprobe (X
1
, ..., X
n
) einer Zufallsvariablen X nimmt nach Erhebung der Daten
(x
1
, ..., x
n
) den Wert /t(x
1
, ..., x
n
) an. Der kritische Wert ist gegeben als das 1
- -
Quantil der Verteilung oder asymptotischen Verteilung der Teststatistik. Wie bei der
Methode des Vergleichs mit dem kritischen Wert wird bei der Methode der Entschei-
dung nach dem Wahrscheinlichkeitswert die konkrete Teststatistik /t(x
1
, ..., x
n
)
S
aufgrund der Daten (x
1
, ..., x
n
)
U
n
berechnet. Da die Teststatistik als Zufallsvariable
jedoch eine bestimmte Verteilung oder asymptotische Verteilung aufweist, kann auch
der Wert F
/t(X
1
,...,X
n
)
(/t(x
1
, ..., x
n
)) berechnet werden. F
/t(X
1
,...,X
n
)
(.) ist dabei die Ver-
teilungsfunktion der Verteilung bzw. asymptotischen Verteilung der Teststatistik. Den
eigentlichen Wahrscheinlichkeitswert p erh¨
alt man durch
p = 1
- F
/t(X
1
,...,X
n
)
(/t(x
1
, ..., x
n
)).
Die auf dem Wahrscheinlichkeitswert basierte Testfunktion wird dann definiert durch
:
U
n
{0, 1}
(x
1
, ..., x
n
)
(x
1
, ..., x
n
)
0 falls p = 1
- F
/t(X
1
,...,X
n
)
(/t(x
1
, ..., x
n
))
1 falls p = 1
- F
/t(X
1
,...,X
n
)
(/t(x
1
, ..., x
n
)) < ,
wobei
(0, 1) die Wahrscheinlichkeit eines Fehlers erster Art darstellt. Der Vorteil
der Bestimmung eines Wahrscheinlichkeitswertes gegen¨
uber dem einfachen Vergleich
mit dem kritischen Wert besteht vor allem darin, dass durch den Wahrscheinlichkeits-
wert die Fehlerwahrscheinlichkeit erster Art explizit berechnet wird.
Dieses Konzept ist auch auf den Fall unscharfer Daten und scharfer oder unscharfer
Hypothesen anwendbar.
Definition: Ausgegangen wird von einem klassischen stochastischen Modell X
P
X
und einer scharfen Hypothese
H
0
¨
uber die Verteilung von X. F¨
ur eine Stichprobe

144
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(X
1
, ..., X
n
) von X ist dabei /t(X
1
, ..., X
n
) eine Teststatistik zur Pr¨
ufung der Hy-
pothese
H
0
, und es gilt daf¨
ur /t(X
1
, ..., X
n
)
P
/t(X
1
,...,X
n
)
bzw. /t(X
1
, ..., X
n
)
asympt
P
/t(X
1
,...,X
n
)
. ( ~
X
1
, ..., ~
X
n
) ist eine Stichprobe von verteilungstreuen Fuzzy-Perzeptionen
von X, welche die unscharfen Daten ( ~
A
1
, ..., ~
A
n
) liefert. Die Fuzzy-Extension der Test-
statistik /t(X
1
, ..., X
n
) ist dann eine Fuzzy-Zufallsvariable /t ( ~
X
1
, ..., ~
X
n
), f¨
ur welche gilt
/t ( ~
X
1
, ..., ~
X
n
)
~
P
/t ( ~
X
1
,..., ~
X
n
)
bzw. /t ( ~
X
1
, ..., ~
X
n
)
asympt
~
P
/t ( ~
X
1
,..., ~
X
n
)
, und ~
F
/t ( ~
X
1
,..., ~
X
n
)
(.)
ist die unscharfe Verteilungsfunktion der (asymptotischen) Fuzzy-Verteilung der Fuzzy-
Zufallsvariablen /t ( ~
X
1
, ..., ~
X
n
). Dann ist der unscharfe Wahrscheinlichkeitswert ~
P =
~
P
/t ( ~
A
1
,..., ~
A
n
)
gegeben durch die Zugeh¨
origkeitsfunktion
~
P
(p) =
~
P
/t( ~
A1,..., ~
An)
(p)
:= sup
{ [0, 1] |(x
1
, ..., x
n
)
A
1
× ... × A
n
:
1
- F
/t(X
1
,...,X
n
)
(/t(x
1
, ..., x
n
)) = p
(5.68)
ur p
(0, 1). Einen unscharfen Test mit Signifikanzniveau 1 - f¨ur die scharfe Hypo-
these
H
0
erh¨
alt man dann durch
:
(
F(U))
n
F({0, 1})
( ~
A
1
, ..., ~
A
n
)
( ~
A
1
, ..., ~
A
n
)
=
0,
( ~
A
1
,..., ~
A
n
)
(0) , 1,
( ~
A
1
,..., ~
A
n
)
(1)
(5.69)
und
( ~
A
1
,..., ~
A
n
)
(0) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
p=1-F/t(X1,...,Xn)(/t(x1,...,xn))
~
P
/t( ~
A1,..., ~
An)
(p)
( ~
A
1
,..., ~
A
n
)
(1) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
p=1-F/t(X1,...,Xn)(/t(x1,...,xn))<
~
P
/t( ~
A1,..., ~
An)
(p).
(5.70)
Wird der Vergleich des unscharfen Wahrscheinlichkeitswertes ~
P
/t ( ~
A
1
,..., ~
A
n
)
mit der (ex-
akten) tolerierten Fehlerwahrscheinlichkeit erster Art als unscharfe Kleiner-Gr¨
oßergleich-
Relation ~
R
~
<
~
P
/t ( ~
A
1
,..., ~
A
n
)
, im Sinne von (3.84) aufgefasst, so gilt
( ~
A
1
,..., ~
A
n
)
(1) =
~
R
~
<
(~
P
/t ( ~
A
1
,..., ~
A
n
)
, )
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
p=1-F/t(X1,...,Xn)(/t(x1,...,xn))<
~
P
/t( ~
A1,..., ~
An)
(p)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
p=1-F/t(X1,...,Xn)(/t(x1,...,xn))<
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
( ~
A
1
,..., ~
A
n
)
(0) =
~
R
~
(~
P
/t ( ~
A
1
,..., ~
A
n
)
, )
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
p=1-F/t(X1,...,Xn)(/t(x1,...,xn))
~
P
/t( ~
A1,..., ~
An)
(p)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
p=1-F/t(X1,...,Xn)(/t(x1,...,xn))
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(5.71)
Definition: Ausgegangen wird von einem unscharfen stochastischen Modell ~
X
~
P
~
X
und einer unscharfen Hypothese
H
0
¨
uber die Verteilung von ~
X. F¨
ur eine unscharfe

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
145
Stichprobe ( ~
X
1
, ..., ~
X
n
) von ~
X ist dabei
~
~
/t( ~
X
1
, ..., ~
X
n
) eine Fuzzy-Schar von Teststati-
stiken zur Pr¨
ufung der unscharfen Hypothese
H
0
, und es soll
~
~
/t( ~
X
1
, ..., ~
X
n
)
~
P
~
~
/t( ~
X
1
,..., ~
X
n
)
bzw.
~
~
/t( ~
X
1
, ..., ~
X
n
)
asympt
~
P
~
~
/t( ~
X
1
,..., ~
X
n
)
gelten. Es liegen die unscharfen Daten ( ~
A
1
, ..., ~
A
n
)
vor, f¨
ur welche man die Fuzzy-Teststatistik ~
/t( ~
A
1
, ..., ~
A
n
) erh¨
alt. Ist f¨
ur /t(.)
supp(
~
~
/t(.))
~
F
/t ( ~
X
1
,..., ~
X
n
)
(.) die unscharfe Verteilungsfunktion der (asymptotischen) Fuzzy-Vertei-
lung der Fuzzy-Zufallsvariablen /t ( ~
X
1
, ..., ~
X
n
), dann ist der unscharfe Wahrscheinlich-
keitswert ~
P = ~
P
~
~
/t( ~
A
1
,..., ~
A
n
)
gegeben durch die Zugeh¨
origkeitsfunktion
~
P
(p) =
~
P
~
~
/t( ~
A1,..., ~
An)
(p)
:= sup
[0, 1] (x
1
, ..., x
n
)
A
1
× ... × A
n
, /t(.)
/t
(.) :
1
- F
/t(X
1
,...,X
n
)
(/t(x
1
, ..., x
n
)) = p
(5.72)
ur p
(0, 1). Einen unscharfen Test mit Signifikanzniveau 1 - f¨ur die unscharfe
Hypothese
H
0
erh¨
alt man dann durch
~
:
(
F(U))
n
F({0, 1})
( ~
A
1
, ..., ~
A
n
)
~
( ~
A
1
, ..., ~
A
n
)
=
0,
~
( ~
A
1
,..., ~
A
n
)
(0) , 1,
~
( ~
A
1
,..., ~
A
n
)
(1)
(5.73)
und
~
( ~
A
1
,..., ~
A
n
)
(0) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An),/t(.)supp(
~
~
/t(.)):
p=1-F/t(X1,...,Xn)(/t(x1,...,xn))
~
P
~
~
/t( ~
A1,..., ~
An)
(p)
~
( ~
A
1
,..., ~
A
n
)
(1) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An),/t(.)supp(
~
~
/t(.)):
p=1-F/t(X1,...,Xn)(/t(x1,...,xn))<
~
P
~
~
/t( ~
A1,..., ~
An)
(p).
(5.74)
Der Vergleich des unscharfen Wahrscheinlichkeitswertes ~
P
~
~
/t( ~
A
1
,..., ~
A
n
)
mit der (exakten)
tolerierten Fehlerwahrscheinlichkeit erster Art kann wiederum als unscharfe Kleiner-
Gr¨
oßergleich-Relation ~
R
~
<
~
P
~
~
/t( ~
A
1
,..., ~
A
n
)
, im Sinne von (3.84) aufgefasst werden, daher
gilt
~
( ~
A
1
,..., ~
A
n
)
(1) =
~
R
~
<
(~
P
~
~
/t( ~
A
1
,..., ~
A
n
)
, )
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An),/t(.)supp(
~
~
/t(.)):
p=1-F/t(X1,...,Xn)(/t(x1,...,xn))<
~
P
~
~
/t( ~
A1,..., ~
An)
(p)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An)/t(.)supp(
~
~
/t(.)):
p=1-F/t(X1,...,Xn)(/t(x1,...,xn))<
min
~
~
/t(.)
(/t(.)),
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
~
( ~
A
1
,..., ~
A
n
)
(1) =
~
R
~
(~
P
~
~
/t( ~
A
1
,..., ~
A
n
)
, )
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An)/t(.)supp(
~
~
/t(.)):
p=1-F/t(X1,...,Xn)(/t(x1,...,xn))
~
P
~
~
/t( ~
A1,..., ~
An)
(p)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An),/t(.)supp(
~
~
/t(.)):
p=1-F/t(X1,...,Xn)(/t(x1,...,xn))
min
~
~
/t(.)
(/t(.)),
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(5.75)

146
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Der Vorteil der Bestimmung des unscharfen Wahrscheinlichkeitswertes besteht wie-
derum darin, dass die unscharfe Wahrscheinlichkeit eines Fehlers erster Art, d.h. die
unscharfe Wahrscheinlichkeit einer unscharfen Verwerfung einer richtigen scharfen Null-
hypothese
H
0
bzw. einer zumindest unscharf richtigen unscharfen Nullhypothese
H
0
,
zus¨
atzlich zum eigentlichen unscharfen Testergebnis angegeben wird.
Begleitendes Beispiel: Soll f¨
ur eine Poisson-verteilte Zufallsvariable X
Po
auf-
grund einer klassischen Stichprobe (X
1
, ..., X
n
) von X mit Realisationen (x
1
, ..., x
n
) der
Wahrscheinlichkeitswert f¨
ur den Fehler erster Art f¨
ur eine einseitige scharfe parametri-
sche Hypothese
H
0
:
0
,
0
IR
+
0
, bestimmt werden, so kann daf¨
ur die in Abschnitt
5.4 berechnete Beziehung p
n
i=1
x
i
= P (
{
0
}) = F
(
0
|
n
i=1
x
i
+ 1,
1
n
) herangezogen
werden. Liegt eine unscharfe Stichprobe von Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) von X
mit Fuzzy-Realisationen ( ~
A
1
, ..., ~
A
n
) vor, so muss f¨
ur jedes
n
i=1
supp
n
i=1
~
A
i
der Wert F
(
0
|
n
i=1
x
i
+ 1,
1
n
) berechnet werden. Es ist dann
~
P
n
i=1
~
A
i
=
p
n
i=1
x
i
,
~
P
n
i=1
~
Ai
(p
n
i=1
x
i
)
n
i=1
x
i
supp
n
i=1
~
A
i
,
p
n
i=1
x
i
[0, 1],
~
P
n
i=1
~
Ai
(p
n
i=1
x
i
) =
n
i=1
~
A
i
(
n
i=1
x
i
)
(B.5.3)
Begleitendes numerisches Beispiel: Auch f¨
ur die begleitende Fallstudie, kann der
unscharfe Wahrscheinlichkeitswert daf¨
ur berechnet werden, dass die Nullhypothese
H
0
:
13.7 verworfen wird, wenn sie richtig ist, wenn in einem Beobachtungszeitraum
von 3 Jahren die unscharfen Anzahlen von Flutwellen kritischer H¨
ohe ( ~
A
1
, ~
A
2
, ~
A
3
) =
0.2
0.8
1
0.5
8
9
10
11
,
0.7
1
0.6
11
12
13
,
0.5
1
0.8
6
7
8
aufgetreten sind.
Es ist f¨
ur jedes
3
i=1
x
i
+ 1
supp
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
25
26
27
28
29
30
31
32
1
p
3
i=1
x
i
= F
(13.7
|
3
i=1
x
i
+ 1,
1
3
) = 1
-
13.7
0
3
(
3
i=1xi
+1
)
·
3
i=1xi
·e
-3
(
3
i=1
x
i
)
!
d
Somit ist
p
25
= F
(13.7
|26,
1
3
) = 1
-
13.7
0
3
26
·
25
·e
-3
25!
d = 1
-0, .952 = 0.0048,
3
i=1
~
A
i
(25) = 0.2
p
26
= F
(13.7
|27,
1
3
) = 1
-
13.7
0
3
27
·
26
·e
-3
26!
d = 1
-0.9920 = 0.0080,
3
i=1
~
A
i
(26) = 0.5
p
27
= F
(13.7
|28,
1
3
) = 1
-
13.7
0
3
28
·
27
·e
-3
27!
d = 1
-0.9871 = 0.0129,
3
i=1
~
A
i
(27) = 0.7
p
28
= F
(13.7
|29,
1
3
) = 1
-
13.7
0
3
29
·
28
·e
-3
28!
d = 1
-0.9800 = 0.0200,
3
i=1
~
A
i
(28) = 0.8
p
29
= F
(13.7
|30,
1
3
) = 1
-
13.7
0
3
30
·
29
·e
-3
29!
d = 1
- 0.9699 = 0.0301,
3
i=1
~
A
i
(29) = 1
p
30
= F
(13.7
|31,
1
3
) = 1
-
13.7
0
3
31
·
30
·e
-3
30!
d = 1
-0.9560 = 0.0440,
3
i=1
~
A
i
(30) = 0.8
p
31
= F
(13.7
|32,
1
3
) = 1
-
13.7
0
3
32
·
31
·e
-3
31!
d = 1
-0.9376 = 0.0624,
3
i=1
~
A
i
(31) = 0.6

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
147
p
32
= F
(13.7
|33,
1
3
) = 1
-
13.7
0
3
33
·
32
·e
-3
32!
d = 1
-0.9140 = 0.0860,
3
i=1
~
A
i
(32) = 0.5
Daraus ergibt sich der unscharfe Wahrscheinlichkeitswert
~
P
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
25
26
27
28
29
30
31
32
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
0.005
0.008
0.013
0.020
0.030
0.044
0.062
0.086
(N.5.8)
Der unscharfe Wahrscheinlichkeitswert ~
P in (N.5.8) f¨
uhrt zu derselben unscharfen
Testentscheidung wie (N.5.7) in Abschnitt 5.5.3
~
A
1
, ~
A
2
, ~
A
3
=
0.6
1
0
1
Abbildung 5.6: Unscharfer Wahrscheinlichkeitswert
Eine weitere Konstruktion eines unscharfen Wahrscheinlichkeitswertes findet sich
bei Filzmoser und Viertl,
95
die bei ihrer Definition nicht mit Fuzzy-Zufallsvariablen,
sondern ausschließlich mit unscharfen Daten arbeiten. Da die Zufallsvariable selbst
nicht unscharf ist, werden auch keine unscharfen Hypothesen in Betracht gezogen.
Wie bei uns ist die Ausgangsbasis der scharfe Test mit der scharfen Teststatistik
95
Vgl. Filzmoser / Viertl (2004), S. 24 ff., Viertl / Hareter (2006), S. 83 ff.

148
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
/t(X
1
, ..., X
n
), welche auf die konkrete klassische Stichprobe (x
1
, ..., x
n
) angewendet
wird. F¨
ur die Durchf¨
uhrung des Tests wird unterschieden zwischen einseitigen (links-
oder rechtsseitigen) Tests und zweiseitigen Tests. Je nach Testart wird dann der p-Wert
unterschiedlich definiert:
96
ur einseitige Tests gilt dann entweder
p = P (
{/t(X
1
, ..., X
n
)
/t(x
1
, ..., x
n
)
}) oder p = P ({/t(X
1
, ..., X
n
)
/t(x
1
, ..., x
n
)
}),
ur zweiseitige Tests gilt
p = 2
· min{P ({/t(X
1
, ..., X
n
)
/t(x
1
, ..., x
n
)
}), P ({/t(X
1
, ..., X
n
)
/t(x
1
, ..., x
n
)
})}.
Beim Vorliegen unscharfer Daten ~
A
1
, ..., ~
A
n
ergibt sich eine unscharfe Teststatistik
/t ( ~
A
1
, ..., ~
A
n
). Ein erster Vorschlag von Viertl besteht in der Definition eines scharfen
Wahrscheinlichkeitswertes aus der unscharfen Teststatistik durch
97
p = P (
{/t(X
1
, ..., X
n
)
max supp /t (~A
1
, ..., ~
A
n
)
}) bzw.
p = P (
{/t(X
1
, ..., X
n
)
min supp /t (~A
1
, ..., ~
A
n
)
}).
Durch Defuzzifikation nach einer Methode, die nicht wie die in Abschnitt 3.2.7 Me-
thoden den wesentlichen Punkt, auf den verdichtet wird, eher in der Mitte der Fuzzy-
Menge, sondern am ¨
außersten Rand festlegt, wird also ein scharfes Ergebnis aus den
unscharfen Daten produziert. Diese Variante wird allerdings von Filzmoser / Viertl
wieder verworfen, da aufgrund unscharfer Daten eher ein unscharfes Testergebnis bzw.
ein unscharfer p-Wert als logische Folge zu erwarten ist.
98
Diese Kritik entspricht
im Wesentlichen der allgemeinen Kritik an Defuzzifizikationsschritten von Seiten von
Defuzzifikationsgegnern.
99
Bei der Definition ihres unscharfen p-Wertes gehen Filzmoser / Viertl -schnittweise
vor.
100
Es werden die Funktionen
/t
( ~
A
1
, ..., ~
A
n
) := min
{/t(x
1
, ..., x
n
)
|(x
1
, ..., x
n
)
A
1
× ... × A
n
}
/t
( ~
A
1
, ..., ~
A
n
) := max
{/t(x
1
, ..., x
n
)
|(x
1
, ..., x
n
)
A
1
× ... × A
n
}
definiert, so ergibt sich f¨
ur einseitige Tests f¨
ur
(0, 1]
P
= P (
{/t(X
1
, ..., X
n
)
/t
( ~
A
1
, ..., ~
A
n
)
}), P ({/t(X
1
, ..., X
n
)
/t
( ~
A
1
, ..., ~
A
n
)
})
bzw.
P
= P (
{/t(X
1
, ..., X
n
)
/t
( ~
A
1
, ..., ~
A
n
)
}), P ({/t(X
1
, ..., X
n
)
/t
( ~
A
1
, ..., ~
A
n
)
}) .
ur zweiseitige Tests muss unterschieden werden, auf welcher Seite des Medians der
Verteilung der gr¨
oßere Teil der Kardinalit¨
at der unscharfen Teststatistik gelegen ist.
Wird mit A
l
:=
0
.5
/t(X1,...,Xn)
-
/t ( ~
A
1
,..., ~
A
n
)
(t)dt die links vom Median gelegene Fl¨
ache
und mit A
r
:=
0
.5
/t(X1,...,Xn)
/t ( ~
A
1
,..., ~
A
n
)
(t)dt die rechts vom Median gelegene Fl¨
ache
unterhalb der Zugeh¨
origkeitsfunktion der Fuzzy-Teststatistik bezeichnet, so wird der
96
Vgl. Filzmoser / Viertl (2004), S. 23 f., Viertl / Hareter (2006), S. 83 f.
97
Vgl. Viertl (2002c), S. 359 ff., Filzmoser / Viertl (2004), S. 25.
98
Vgl. Filzmoser / Viertl (2004), S. 25.
99
Vgl. etwa Rommelfanger (1994), S. 165.
100
Vgl. Filzmoser / Viertl (2004), S. 26, Viertl / Hareter (2006), S. 84 f.

KAPITEL 5 UNSCHARFE KLASSISCHE INFERENZSTATISTIK
149
unscharfe p-Wert f¨
ur zweiseitige Tests formuliert durch
P
=
2P (
{/t(X
1
, ..., X
n
)
/t
( ~
A
1
, ..., ~
A
n
)
}),
min
{1, 2P ({/t(X
1
, ..., X
n
)
/t
( ~
A
1
, ..., ~
A
n
)
})}
falls A
l
> A
r
2P (
{/t(X
1
, ..., X
n
)
/t
( ~
A
1
, ..., ~
A
n
)
}),
min
{1, 2P ({/t(X
1
, ..., X
n
)
/t
( ~
A
1
, ..., ~
A
n
)
})}
falls A
l
> A
r
ur
(0, 1]. Interpretiert wird das unscharfe Testergebnis im Sinne des Ergebnis-
ses eines Drei-Alternativen-Entscheidungsproblems: Falls
(0, 1] : p
> , so
wird die Nullhypothese angenommen (und die Alternativhypothese verworfen), falls
(0, 1] : p
< , so wird die Nullhypothese verworfen (und die Alternativhy-
pothese angenommen), falls
(0, 1] : [p
, p
], so werden Nullhypothese und
Alternativhypothese weder angenommen noch verworfen.
101
Diese Interpretation ent-
spricht der eines sequentiellen scharfen Tests im Sinne von (8.189)
102
, wie in Abschnitt
8.6 dargestellt. Der Unterschied besteht darin, dass beim sequentiellen Test im Falle
der Uneindeutigkeit der Entscheidung der Stichprobenumfang zu erh¨
ohen ist,
103
was
beim unscharfen Test keinen Sinn macht, da Unsch¨
arfe, wie in Abschnitt 2.3 erl¨
autert,
mit zunehmendem Stichprobenumfang nicht abnimmt.
Irref¨
uhrend ist die Bezeichnung als Fuzzy-Konfidenzintervall bzw. Fuzzy-p-Wert
ur ein Konzept von Geyer und Meeden
104
. Es geht dabei um eine Verbesserung von
randomisierten Konfidenzintervallen und Tests f¨
ur diskrete Modelle, wobei die p-Werte
Zufallsvariablen und nicht Realisierungen von Zufallsvariablen sind. Mit dem Testen
von scharfen oder unscharfen Hypothesen auf Basis unscharfer Daten hat dieser Ansatz
nichts zu tun. Die Autoren geben selbst zu, dass die Bezeichnung als Fuzzy-p-Wert
oglicherweise unpassend ist.
105
5.5.5
Weitere Ans¨
atze f¨
ur Unsch¨
arfe bei statistischen Tests
Ein weiterer m¨
oglicher Ansatzpunkt f¨
ur Unsch¨
arfe bei statistischen Tests ist die scharfe
Schwelle zwischen Annahme und Verwerfung einer Hypothese.
omer und Kandel gehen bei ihrem Vorschlag davon aus, dass eine Hypothese
H
dann verworfen wird, wenn die Irrtumswahrscheinlichkeit "hinreichend klein" ist. Der
Begriff "hinreichend klein" ist aber eine linguistische Gr¨
oße und sollte daher besser
durch ein unscharfes Intervall ~
F([0, 1]) beschrieben werden als durch die ¨ublichen
exakten Intervalle [0, )
[0, 1].
106
Die Zugeh¨
origkeitsfunktion
~
() soll dabei in [0, 1]
monoton fallend sein, etwa
~
() = 1
- .
Als Testfunktion f¨
ur eine Hypothese
H wird daher anstelle der Funktion
H
:
U
n
{0, 1}; (x
1
, ..., x
n
)
H
(x
1
, ..., x
n
) = 1
{(x
1
,...,x
n
)
U
n
|
x1,...,xn
(
H)<}
(x
1
, ..., x
n
) eine
101
Vgl. Filzmoser / Viertl (2004), S. 26.
102
Vgl. auch Berger (1985), S. 486.
103
Vgl. Wetherill (1966), S. 15.
104
Vgl. Geyer / Meeden (2002), Geyer / Meeden (2004), Thompson / Geyer (2005)
105
Vgl. Geyer / Meeden (2002), S. 8 f.
106
Vgl. R¨
omer / Kandel (1995), S. 10.

150
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Funktion
107
H
:
U
n
[0, 1]
(x
1
, ..., x
n
)
H
(x
1
, ..., x
n
) =
(
H|x
1
, ..., x
n
) :=
~
(
x
1
,...,x
n
(
H))
vorgeschlagen, wobei
x
1
,...,x
n
(
H) = 1 - F
/t(X
1
,...,X
n
)
(/t(x
1
, ..., x
n
)) gerade der p-Wert des
Tests mit der Teststatistik /t(.) f¨
ur die scharfe Hypothese
H bei Vorliegen der exakten
Daten (x
1
, ..., x
n
) ist.
Im Folgenden wird von einem fixen Datensatz (x
1
, ..., x
n
) ausgegangen, anstatt
x
1
,...,x
n
(
H) wird nur noch (H), anstatt
(
H|x
1
, ..., x
n
) nur noch
(
H) geschrieben.
Wird mit
IH die Menge aller zul¨assigen Hypothesen bezeichnet, so wird durch eine
Testfunktion
:
IH [0, 1]; H
(
H)
eine Fuzzy-Menge
IH
0
F(IH) aller unscharf verworfenen Hypothesen mit der Zu-
geh¨
origkeitsfunktion
IH
0
(
H) =
~
((
H)) definiert. Ebenso ergibt sich die Fuzzy-
Menge
IH
1
=
IH
0
C
aller unscharf angenommenen Hypothesen mit der Zugeh¨
orig-
keitsfunktion
IH
1
(
H) = 1 -
IH
0
(
H).
108
Last, Schenker und Kandel entwickeln eine Fuzzy-Logik-basierte Methode um Hy-
pothesen zu testen, welche statistischen Tests dadurch ¨
uberlegen sein soll, dass der
Begriff der "Signifikanz" als unscharfe Gr¨
oße angesehen wird, welche neben der stati-
stischen Signifikanz auch die gr¨
oßenm¨
aßige Bedeutung einschließt.
109
Hryniewicz
110
betrachtet den Fall
H
0
H
1
=
und berechnet p-Werte f¨
ur beide
Hypothesen. Die p-Werte, welche im Fall exakter Daten ebenfalls exakt sind, zieht
Hryniewics zur Konstruktion einer M¨
oglichkeitsdichte f¨
ur das Zutreffen der einen oder
anderen Hypothese heran. Auf Basis der in Abschnitt 3.2.6 vorgestellten possibilisti-
schen Rangordnungen von Dubois und Prade wird versucht, ein Maß f¨
ur die Richtigkeit
ur die Entscheidung anzugeben.
Im Fall unscharfer Daten ~
A
1
, ..., ~
A
n
werden unscharfe p-Werte berechnet. F¨
ur einsei-
tige Hypothesen werden die unscharfen p-Werte f¨
ur die beiden Hypothesen mit Hilfe der
-Schnitte der entsprechenden unscharfen einseitigen Konfidenzintervalle angegeben,
so sind etwa f¨
ur die Nullhypothese
H
0
:
0
und die rechtsseitige Alternativhypo-
these
H
1
: >
0
die unscharfen p-Werte ~
P
HH
ur
H {H
0
,
H
1
} gegeben durch die
-Schnitte
(P
HH
)
= [p
H1
, p
H
]
ur
(0, 1] mit
p
H
0
= inf
{|
0
k
( ~
A
1
, ..., ~
A
n
)
}
und
p
H
1
= inf
{|
0
> k
( ~
A
1
, ..., ~
A
n
)
}.
Diese unscharfen p-Werte werden zur unscharfen Beruteilung der Entscheidung f¨
ur die
eine oder andere Hypothese herangezogen, indem die Fuzzy-Extensionen der possibili-
stischen Rangordnungen berechnet werden.
111
107
Vgl. R¨
omer / Kandel (1995), S. 11.
108
Vgl. R¨
omer / Kandel (1995), S. 11 f.
109
Vgl. Last / Schenker / Kandel (1999), S. 224 ff.
110
Vgl. Grzegorzewski / Hryniewics (2001), S. 57 ff., Hryniewicz (2002), S. 230 ff.
111
Vgl. Hryniewicz (2002), S. 233 f.

Kapitel 6
Bayes'scher Ansatz und Bayes'sche
Analyse f¨
ur unscharfe Daten
Allgemeine Aufgabe der schließenden Statistik ist es, Aussagen ¨
uber unbekannte Wahr-
scheinlichkeitsverteilungen zu treffen. W¨
ahrend die klassische schließende Statistik da-
zu ausschließlich Stichprobeninformationen heranzieht, ber¨
ucksichtigt die Bayes'sche
Statistik auch A-priori-Informationen.
Im Fall parametrischer stochastischer Modelle bedeutet dies, dass der unbekann-
te Parameter dann nicht eine Konstante, wie bei der klassischen Statistik, sondern
eine Zufallsvariable
ist, die ihrerseits eine Wahrscheinlichkeitsverteilung auf dem
Parameterraum , genannt A-priori-Verteilung, besitzt. Die Grundlage der Bayes-
Statistik stellt das Bayes'sche Theorem dar, das die Regel f¨
ur die Zusammenfassung
von A-priori-Verteilung und Stichprobeninformation zur A-posteriori-Verteilung bildet.
Auf dieser bauen die Berechnung von Pr¨
adiktivverteilungen, Bayes-Sch¨
atzern, HPD-
Bereichen und A-posteriori-Wahrscheinlichkeiten von statistischen Hypothesen auf.
Mit der Ausweitung der Bayes-Statistik auf unscharfe Daten befasste sich beson-
ders Viertl,
1
der die Erweiterungen von Teilgebieten der Bayes'schen Analyse im Fall
unscharfer Daten pr¨
asentiert. Allerdings verwendet Viertl wiederum den Begriff der
Fuzzy-Zufallsvariablen nicht. Außerdem wird der Ansatz von Viertl,
2
der neben der
Unsch¨
arfe der Daten auch Unsch¨
arfe in der A-priori-Verteilung ber¨
ucksichtigt, in der
vorliegenden Arbeit dahingehend erweitert, dass als weitere m¨
ogliche Ursache f¨
ur das
Auftreten von Unsch¨
arfe bei Bayes'schen A-posteriori-Verteilungen eine unscharfe Be-
deutung der A-priori-Information bei der Kombination mit der Stichprobeninforma-
tion zur A-posteriori-Information in Betracht gezogen wird. Auf der unscharfen A-
posteriori-Verteilung aufbauende Analysen erfolgen allerdings ausschließlich auf Basis
der Fuzzy-A-posteriori-Verteilung, welche aufgrund von unscharfen Stichprobendaten
konstruiert wurde, um die Darstellung so einfach wie m¨
oglich zu halten. Prognosen,
Sch¨
atzungen und Entscheidungen w¨
aren jedoch aufgrund jeder unscharfen A-posteriori-
Verteilung, deren Unsch¨
arfe (auch) eine andere Ursache hat als die Unsch¨
arfe der Stich-
probendaten, analog zu berechnen.
1
Vgl. Viertl (1987), S. 471 ff., Viertl / Hule (1991), S. 115 ff., Viertl (1992), S. 127 ff., Viertl (1996),
S. 133 ff., Viertl (1997), S. 562 ff., Viertl (2001b), S. 23, Viertl (2002a), S. 108 ff., Viertl (2002d), S.
206 ff., Viertl (2003), S. 201 ff., Viertl (2004), S. 665 ff., Viertl / Hareter (2006), S. 87 ff.
2
Vgl. Viertl (1996), S. 155 ff., Viertl (2002), S. 109 ff., Viertl / Hareter (2006), S. 89 ff.
151

152
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
6.1
Fuzzy A-posteriori-Verteilungen
Grundlage f¨
ur Bayes'sche Analyse f¨
ur unscharfe Daten stellt eine geeignete Erweiterung
der Konstruktion von A-posteriori-Verteilungen auf den Fall unscharfer Daten dar. Mit
dieser Aufgabenstellung besch¨
aftigt sich der folgende Abschnitt.
6.1.1
Bayes-Theorem f¨
ur unscharfe Stichproben
Ausgangspunkt ist ein klassisches parametrisches stochastisches Modell X
P
. Nun
ist der Parameter
jedoch keine Konstante, sondern eine Zufallsvariable mit
Werten in dem messbaren Raum (,
). ¨Uber diese Zufallsvariable wird nun vor Er-
hebung der Stichprobe, also a priori, eine bestimmte Verteilung P
(
{ = }) =: (),
, auf dem Parameterraum (, ) angenommen.
3
Sollen nun Stichprobeninfor-
mationen in die Annahme ¨
uber die Verteilung des Parameters einbezogen werden,
so kann die aktualisierte Verteilung von
auf (, ) als bedingte Wahrscheinlich-
keit P
(
{ = |X
1
= x
1
, ..., X
n
= x
n
}) =: (|x
1
, ...x
n
) dargestellt werden, wobei
(X
1
, ..., X
n
) eine Stichprobe von X vom Umfang n ist mit Realisationen (x
1
, ..., x
n
).
Da diese Verteilung nach Erhebung der Stichprobe angenommen wird, spricht man von
der A-posteriori-Verteilung.
4
Allgemein gilt in der Wahrscheinlichkeitstheorie f¨
ur die bedingte Wahrscheinlichkeit
P (A
|B) von zwei Ereignissen A und B in einem Wahrscheinlichkeitsraum (, A, P ),
A, B
A mit P (A) > 0, P (B) > 0: P (A|B) =
P (A
B)
P (B)
und umgekehrt P (B
|A) =
P (A
B)
P (A)
.
Wegen P (A
B) = P (A) · P (B|A)) erh¨alt man P (A|B) =
P (A)
·P (B|A)
P (B)
.
5
Ist
A A eine Partition von , d.h. A C = A, C A und
A
A
= ,
so kann die totale Wahrscheinlichkeit P (B) von B geschrieben werden als P (B) =
A
A
P (A)
· P (B|A).
Ist nun A
A, dann kann die bedingte Wahrscheinlichkeit P (A
|B) geschrieben
werden als
6
y
P (A
|B) =
P (A
)
· P (B|A
)
A
A
P (A)
· P (B|A)
.
Diese Formel wird als Bayes'sche Formel (bzw. als Bayes-Theorem) f¨
ur Ereignisse
bezeichnet.
7
Auf einfache diskrete Zufallsvariablen X, Y : (,
A, P ) (U, C) angewendet lautet
das Bayes'sche Theorem
8
P (
{Y = y|X = x}) =
P (
{Y = y}) · P ({X = x|Y = y})
y
U
P (
{Y = y}) · P ({X = x|Y = y})
.
3
Vgl. Gelman / Carlin / Rubin / Stein (1995), S. 34 ff.
4
Vgl. Viertl (2003), S. 169 ff., Gelman / Carlin / Stein / Rubin (1995), S. 7 ff.
5
Vgl. Wetherill (1966), S. 97.
6
Vgl. Wetherill (1966), S. 97, Ghosh (1970), S. 5.
7
Vgl. Viertl (2003), S. 30 f., Pratt / Raiffa / Schlaifer (1995), S. 105 f., Robert (2001), S. 8 f.,
Marinell (1985), S. 75, Comploj (2003), S. 6.
8
Vgl. Pratt / Raiffa / Schlaifer (1995), S. 218 ff., Comploj (2003), S. 6.

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
153
Ist nun (X
1
, ..., X
n
) eine Stichprobe von X, also n unabh¨
angige und identische wie
X verteilte Zufallsvariablen, und wird die Zufallsvariable Y durch die ebenfalls diskrete
Zufallsvariable
ersetzt, dann ist
P (
{ = |X = x}) =
P (
{ = }) · P ({X = x| = })
P (
{ = }) · P ({X = x| = })
.
Es wird nun wieder die Bezeichnung () = P (
{ = }) f¨ur die A-priori-Verteilung
gew¨
ahlt. Ist die parameterabh¨
angige Verteilung von X auf U durch die Punktwahr-
scheinlichkeit p(x
|) = P ({X =x| =) gegeben, so ist P ({x
1
= x
1
, ..., X
n
= x
n
| =})
durch die gemeinsame Punktwahrscheinlichkeit p(x
1
, ..., x
n
|) = P ({X
1
= x
1
, ..., X
n
=
x
n
| = }) gegeben. Aufgrund der Unabh¨angigkeit der Zufallsvariablen X
1
, ..., X
n
ist
p(x
1
, ..., x
n
|) =
n
i=1
p(x
i
|). Auch kann anstelle der in Abschnitt 4.3 eingef¨uhrten
gemeinsame Wahrscheinlichkeitsfunktion auch die in Abschnitt 5.3 beschriebene Like-
lihoodfunktion angeschrieben werden: (
|x
1
, ..., x
n
) = p(x
1
, ..., x
n
|). F¨ur den diskreten
Fall lautet somit das Bayes'sche Theorem insgesamt
9
(
|x
1
, ..., x
n
) =
()
· p(x
1
, ..., x
n
|)
()
· p(x
1
, ..., x
n
|)
=
()
· (|x
1
, ..., x
n
)
()
· (|x
1
, ..., x
n
)
.
(.
|x
1
, ..., x
n
) heißt A-posteriori-Verteilung von
auf . Der Nenner, der einen Pro-
portionalit¨
atsfaktor darstellt, wird auch als die totale gemeinsame Wahrscheinlichkeit
von (x
1
, ..., x
n
) bezeichnet. Man schreibt diese totale gemeinsame Wahrscheinlichkeit
auch als p
X
(x
1
, ..., x
n
) =
·p(x
1
, ..., x
n
|).
Sind nun
und X stetige Zufallsvariablen, und ist (X
1
, ..., X
n
) eine Stichprobe
von X, ist wiederum die A-priori-Verteilung von
mit (.) bezeichnet, wobei hier
(.) eine integrierbare Funktion, n¨
amlich die Dichtefunktion von
auf , ist, ist wei-
ters f (.
|) die parameterabh¨angige Dichtefunktion, die die stetige Verteilung von X
auf U bezeichnet, so erh¨
alt man analog zum diskreten Fall (aufgrund der Unabh¨
angig-
keit von X
1
, ..., X
n
und nach der Definition der Likelihoodfunktion) (
|x
1
, ..., x
n
) =
f (x
1
, ..., x
n
|) =
n
i=1
f (x
i
|) f¨ur . F¨ur stetige Zufallsvariablen lautet das Bayes'sche
Theorem somit
10
(
|x
1
, ..., x
n
) =
()
· f(x
1
, ..., x
n
|)
()
· f(x
1
, ..., x
n
)d
=
()
· (|x
1
, ..., x
n
)
()
· (|x
1
, ..., x
n
)d
.
(.
|x
1
, ..., x
n
) ist die (stetige) A-posteriori-Verteilung von
auf . Der Nenner ist die
Dichtefunktion der totalen gemeinsamen Wahrscheinlichkeitsverteilung in (x
1
, ..., x
n
) :
f
X
(x
1
, ..., x
n
) =
()f (x
1
, ..., x
n
|)d.
Eine weitere M¨
oglichkeit ist die einer diskreten Zufallsvariablen X, X
p(.|), wo-
bei
jedoch eine stetige Zufallsvariable mit kontinuierlicher A-priori-Verteilung (.)
ist. In diesem Fall erh¨
alt man ebenfalls eine kontinuierliche A-posteriori-Verteilung,
9
Vgl. Pratt / Raiffa / Schlaifer (1995), S. 220 f., Gelman / Carlin / Stern / Rubin (1995), S. 9.
10
Vgl. Viertl (1996), S. 135, Viertl (2003), S. 170 ff., Viertl / Hareter (2006), S. 88, Bernardo /
Smith (1994), S. 129 f., Pratt / Raiffa / Schlaifer (1995), S. 105 f., Robert (2001), S. 9 und S. 22 f.,
Gelman / Carlin / Stern / Rubin (1995), S. 8 f., Carlin / Louis (1996), S. 21, Comploj (2003), S. 7.

154
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
man kann diese Variante also unter den kontinuierlichen Fall subsumieren. Die Bayes'sche
Formel lautet dann:
(
|x
1
, ..., x
n
) =
()
· p(x
1
, ..., x
n
|)
()
· p(x
1
, ..., x
n
)d
=
()
· (|x
1
, ..., x
n
)
()
· (|x
1
, ..., x
n
)d
Es ist sowohl im diskreten als auch im kontinuierlichen Fall der Nenner nach Er-
hebung der Stichprobe konstant, d.h. unabh¨
angig von . Die A-posteriori-Verteilung
ist somit proportional zum Z¨
ahler. Unabh¨
angig, ob es sich um diskrete oder stetige
Zufallsvariablen handelt, erh¨
alt man so die Kurzform des Bayes'schen Theorems,
11
(
|x
1
, ..., x
n
)
() · (|x
1
, ..., x
n
)
d.h. im diskreten Fall
(
|x
1
, ..., x
n
)
() · p(|x
1
, ..., x
n
)
und im kontinuierlichen Fall
(
|x
1
, ..., x
n
)
() · f(|x
1
, ..., x
n
).
Diese ¨
Uberlegungen sollen nun auf den Fall unscharfer Daten ¨
ubertragen werden.
Allgemein kann das Bayes'sche Theorem f¨
ur unscharfe Daten, wie folgt, formuliert
werden:
Voraussetzungen sind eine klassische Zufallsvariable X mit Werten x
U, X
P
mit unbekanntem Parameter
, und eine klassische Zufallsvariable mit
Werten
, (.) ist die A-priori-Verteilung von . Ist ~
X eine verteilungstreue
Fuzzy-Perzeption von X, f¨
ur alle Y
supp( ~
X) existiert ein
mit Y P
,
d.h. die Zufallsvariablen Y
supp( ~
X) unterscheiden sich untereinander nur durch ihre
Verteilungsparameter, die Verteilungsparameter sind jedoch unbekannt, ist ( ~
X
1
, ..., ~
X
n
)
eine unscharfe Stichprobe von ~
X, und sind die Fuzzy-Daten ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
eine konkrete Stichprobe von Realisationen von ( ~
X
1
, ..., ~
X
n
), dann kann jede konkrete
scharfe Stichprobe (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) interpretiert werden als
Realisation einer scharfen Stichprobe (Y
1
, ..., Y
n
) eines Originals Y
supp( ~
X) einer
verteilungstreuen Fuzzy-Perzeption ~
X von X mit Zugeh¨
origkeitsfunktion
~
X
(Y ) =
( ~
A
1
,..., ~
A
n
)
(x
1
, ..., x
n
) = min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(6.1)
Es k¨
onnen nun f¨
ur alle (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) f¨
ur alle
im
diskreten Fall die Werte der bedingten gemeinsamen Wahrscheinlichkeitsfunktion
P (
{Y
1
= x
1
, ..., Y
n
= x
n
| }) = p(x
1
, ..., x
n
|) =
n
i=1
p(x
i
|)
(6.2)
11
Vgl. Viertl (1996), S. 135, Viertl (1997), S. 563, Viertl (2003), S. 172, Viertl (2004), S. 665, Viertl
/ Hareter (2006), S. 87, Gelman / Carlin / Stern / Rubin (1995), S. 29, Carlin / Louis (1996), S. 24,
Robert (2001), S. 29 f., Bernardo / Smith (1994), S. 129.

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
155
und im kontinuierlichen Fall die der bedingten gemeinsamen Dichtefunktion
f (x
1
, ..., x
n
|) =
n
i=1
f (x
i
|)
(6.3)
bestimmt werden.
Aufgrund der Definition der Likelihoodfunktion ist im diskreten Fall f¨
ur
(
|x
1
, ..., x
n
) = p(x
1
, ..., x
n
|)
(6.4)
und im kontinuierlichen Fall f¨
ur
(
|x
1
, ..., x
n
) = f (x
1
, ..., x
n
|).
(6.5)
Die Likelihoodfunktion (6.4) bzw. (6.5) kann f¨
ur alle (x
1
, ..., x
n
)
supp(~A
1
)
× ... ×
supp( ~
A
n
) bestimmt werden, und man erh¨
alt die Fuzzy-Schar von Likelihoodfunktionen
~~(.|~A
1
, ..., ~
A
n
) =
(.
|x
1
, ..., x
n
),
~~(.|~A
1
,..., ~
A
n
)
( (.
|x
1
, ..., x
n
))
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
),
~~(.|~A
1
,..., ~
A
n
)
( (.
|x
1
, ..., x
n
))
=
sup
(y1,...yn)supp( ~
A1)×...×supp( ~
An)
(|y1,...,yn) (|x1,...,xn)
min
~
A
1
(y
1
), ...,
~
A
n
(y
n
)
.
(6.6)
Viertl und Hareter bestimmen die unscharfe Likelihoodfunktion aufgrund der Zu-
geh¨
origkeitsfunktion ihres unscharfe Bildes
12
~(|~A
1
,..., ~
A
n
)
(l) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
(|x1,...,xn)=l
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
ur l
IR.
ur jedes (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) kann nun mittels des Bayes'schen
Theorems die A-posteriori-Verteilung berechnet werden. Man erh¨
alt f¨
ur diskretes
die
A-posteriori-Wahrscheinlichkeitsfunktion, f¨
ur
gegeben durch (|x
1
, ..., x
n
) =
()
· (|x
1
,...,x
n
)
()
· (|x
1
,...,x
n
)
, und f¨
ur stetiges
die A-posteriori-Dichtefunktion, f¨ur ge-
geben durch (
|x
1
, ..., x
n
) =
()
· (|x
1
,...,x
n
)
()
· (|x
1
,...,x
n
)d
.
Gewichtet man die einzelnen A-posteriori-Verteilungen mit Zugeh¨
origkeitsgraden,
so erh¨
alt man die Fuzzy-Schar von A-posteriori-Verteilungen, die gegeben ist durch die
Fuzzy-Schar von A-posteriori-Wahrscheinlichkeits- bzw. Dichtefunktionen
~
~
(.
|~A
1
, ..., ~
A
n
) =
(.
|x
1
, ..., x
n
),
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
),
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
=
sup
(y1,...yn)supp( ~
A1)×...×supp( ~
An)
(|y1,...,yn)(|x1,...,xn)
min
~
A
1
(y
1
), ...,
~
A
n
(y
n
)
.
(6.7)
12
Vgl. Viertl / Hareter (2006), S. 90 f.

156
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Aus der Fuzzy-Schar (6.7) kann mittels der sup-Vereinigung eine fuzzifizierende
A-posteriori-Verteilung mit den fuzzifizierenden Wahrscheinlichkeits- bzw. Dichtefunk-
tionen ~
(.
|~A
1
, ..., ~
A
n
) abgeleitet werden durch:
~
(
| ~
A
1
,..., ~
A
n
)
(q) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An)
(|x1,...xn)=q
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(6.8)
ur
, q [0, 1] (diskreter Fall) bzw. q IR
+
0
(stetiger Fall).
Die Formulierung (6.8) ist die bei Viertl
13
angegebene Form des Bayes'schen Theo-
rems.
A posteriori ist der Verteilungsparameter eine Fuzzy-Zufallsvariable ~
im Sinn
von Kwakernaak. ~
hat die unscharfe Verteilung, die durch die (punktweise definier-
te) Fuzzy-Schar von A-posteriori-Verteilungen (6.7) oder durch die fuzzifizierende A-
posteriori-Verteilung (6.8) gegeben ist.
ur die konvexe H¨
ulle co ~
(
|~A
1
, ..., ~
A
n
) der fuzzifizierenden A-posteriori-Verteilung
(6.8) k¨
onnen die -Niveaukurven
(.
|~A
1
, ..., ~
A
n
) und
(.
|~A
1
, ..., ~
A
n
) bestimmt werden.
Es ist f¨
ur
f¨ur (0, 1]
(
|~A
1
, ..., ~
A
n
) =
inf
(x
1
,...,x
n
)
A
1
×...×A
n
(
|x
1
, ..., x
n
)
=
inf
(x
1
,...,x
n
)
A
1
×...×A
n
()
· (|x
1
,...,x
n
)
()
· (|x
1
,...,x
n
)
ur diskretes
inf
(x
1
,...,x
n
)
A
1
×...×A
n
()
· (|x
1
,...,x
n
)
()
· (|x
1
,...,x
n
)d
ur stetiges
(6.9)
(
|~A
1
, ..., ~
A
n
) =
sup
(x
1
,...,x
n
)
A
1
×...×A
n
(
|x
1
, ..., x
n
)
=
sup
(x
1
,...,x
n
)
A
1
×...×A
n
()
· (|x
1
,...,x
n
)
()
· (|x
1
,...,x
n
)
ur diskretes
sup
(x
1
,...,x
n
)
A
1
×...×A
n
()
· (|x
1
,...,x
n
)
()
· (|x
1
,...,x
n
)d
ur stetiges
.
(6.10)
Es lauten somit die -Schnitte von co ~
(
|~A
1
, ..., ~
A
n
) f¨
ur
f¨ur (0, 1]
(
|~A
1
, ..., ~
A
n
) = (
|A
1
, ..., A
n
)
=
(
|~A
1
, ..., ~
A
n
),
(
|~A
1
, ..., ~
A
n
) .
(6.11)
Begleitendes Beispiel: Ist X
Po
mit der Wahrscheinlichkeitsfunktion p
P o
(x
|) =
x
·e
-
x!
ur x
IN
0
,
IR
+
, ist ( ~
X
1
, ..., ~
X
n
) eine Stichprobe von verteilungstreuen Fuzzy-
Perzeptionen von X mit Realisationen ( ~
A
1
, ..., ~
A
n
)
F
cb
(IR
+
), und ist
a,
1
b
, d.h.
() =
b
a
·
a-1
·e
-b·
(a)
· 1
[0,
)
(), wobei (a) =
0
t
a
-1
· e
-t
dt f¨
ur a
(0, ) bzw. speziell
13
Vgl. Viertl (1987), S. 472, Vierl / Hule (1991), S. 116 f., Viertl (1992), S. 127 f., Viertl (1996), S.
136 ff., Viertl (1997), S. 563 f., Viertl (1999a), S. 380, Viertl (2001b), S. 23, Viertl (2002d), S. 206 f.,
Viertl (2003), S. 201 f., Viertl (2004), S. 665 f.

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
157
ur a
IN: (a) = (a - 1)!, dann erh¨alt man f¨ur die A-posteriori-Dichte
(
|x
1
, ..., x
n
) =
ba·a-
1·e-b
(a)
·
n
i=1
xi ·e-
xi!
·1
(0,)
()
0
ba·a-1·e-b
(a)
·
n
i=1
xi ·e-
xi!
d
=
a-1
·e
-b
·
n
i=1xi
·e
-n
·1
(0,)
()
0
a-1
·e
-b
·
n
i=1
xi
·e
-n
d
=
a+n
i=1xi
·e
-(b +n)
·1
(0,)
()
0
a+n
i=1
xi
·e
-(b+n)
d
.
Es ist
0
a+
n
i=1
x
i
· e
-(b+n)
d
=
-
a+
n
i=1
x
i
-1
·
e
-(b+n)
b+n
=0
+
0
a +
n
i=1
x
i
- 1
a+
n
i=1
x
i
-2
·
e
-(b+n)
b+n
d
=
-
a+
n
i=1
x
i
-1
j=0
(a+
n
i=1
x
i
-1)
(a+
n
i=1
x
i
-(j+1))!
a+
n
i=1
x
i
-(j+1)
·
e
-(b+n)
(b+n)
j+1
=0
=
-0 +
(a+
n
i=1
x
i
-1)!
(b+n)
a+n
i=1
xi
=
(a+
n
i=1
x
i
)
(b+n)
a+n
i=1
xi
.
Es ist also
(
|x
1
, ..., x
n
) =
(b + n)
a+
n
i=1
x
i
·
a+
n
i=1
x
i
-1
· e
-(b+n)
(a +
n
i=1
x
i
)
· 1
(0,
)
()
= f
|a +
n
i=1
x
i
,
1
b + n
.
ur unscharfe Stichprobenelemente lautet die Fuzzy-Schar von A-posteriori-Dichten
~
~
(.
|~A
1
, ..., ~
A
n
) f¨
ur
(0, ) gegeben durch
~
~
(
|~A
1
, ..., ~
A
n
) =
~~
f
(
|a
n
i=1
~
A
i
,
1
b+n
)
=
(b+n)
a+n
i=1xi
·
a+n
i=1xi-
1
·e
-(b+n)
(a+
n
i=1
x
i
)
· 1
(0,
)
(),
sup
(y1,...,yn)supp( ~
A1)×...×supp( ~
An):
(b+n)
a+n
i=1
yi ·a+
n
i=1
yi-1·e-(b+n)
(a+
n
i=1
yi)
=
(b+n)
a+n
i=1
xi ·a+
n
i=1
xi-1·e-(b+n)
(a+
n
i=1
xi)
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
)
=
(b+n)
a+n
i=1xi
·
a+n
i=1xi-
1
·e
-(b+n)
(a+
n
i=1
x
i
)
· 1
(0,
)
(),
sup
(y1,...,yn)supp( ~
A1)×...×supp( ~
An):
n
i=1
yi=
n
i=1
xi
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) .
(B.6.1)
ochte man aus ~
~
(.
|~A
1
, ..., ~
A
n
) eine fuzzifizierende A-posteriori-Dichte ~
(.
|~A
1
, ..., ~
A
n
)
ableiten, so erh¨
alt man f¨
ur
IR
+
die Zugeh¨
origkeitsfunktion durch Berechnung der

158
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
sup-Vereinigung ¨
uber die Fuzzy-Schar (B.6.1)
~
(
| ~
A
1
,..., ~
A
n
)
(q) =
~
f
(
|a
n
i=1
~
A
i
,
1
b+n
)
(q)
=
sup
(|x1,...,xn)supp(~
~
(| ~
A1,..., ~
An)):
(|x1,...,xn)=q
~
~
(
| ~
A
1
,..., ~
A
n
)
((
|x
1
, ..., x
n
))
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
f(|a+
n
i=1
xi
1
b+n
)=q
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
n
i=1
xisupp(
n
i=1
~
Ai):
(b+n)
a+n
i=1
xi ·a+
n
i=1
xi-1·e-(b+n)
(a+
n
i=1
xi)
·1(0,)()=q
n
i=1
~
A
i
(
n
i=1
x
i
) .
(B.6.2)
Wichtig ist es, die -Niveaukurven der konvexen H¨
ulle co ~
(.
|~A
1
, ..., ~
A
n
) und von
co ~
(.
|co ~A
1
, ..., co ~
A
n
)
(
|~A
1
, ..., ~
A
n
) =
inf
(x
1
,...,x
n
)
A
1
×...×A
n
(b+n)
a+n
i=1xi
·
a+n
i=1xi-
1
·e
-(b+n)
(a+
n
i=1
x
i
)
· 1
(0,
)
()
(
|~A
1
, ..., ~
A
n
) =
sup
(x
1
,...,x
n
)
A
1
×...×A
n
(b+n)
a+n
i=1xi
·
a+n
i=1xi-
1
·e
-(b+n)
(a+
n
i=1
x
i
)
· 1
(0,
)
()
und
(
|co ~A
1
, ...co , ~
A
n
) =
inf
(x
1
,...,x
n
)
co A
1
×...×co A
n
(b+n)
a+n
i=1xi
·
a+n
i=1xi-
1
·e
-(b+n)
(a+
n
i=1
x
i
)
· 1
(0,
)
()
(
|co ~A
1
, ..., co ~
A
n
) =
sup
(x
1
,...,x
n
)
co A
1
×...×co A
n
(b+n)
a+n
i=1xi
·
a+n
i=1xi-
1
·e
-(b+n)
(a+
n
i=1
x
i
)
· 1
(0,
)
()
ur
IR
+
,
(0, 1] zu bestimmen. Durch Differenzieren und Nullsetzen der Ablei-
tung erh¨
alt man
d
da
f
(
|a,
1
b
) =
d
da
b
a
·
a-1
·e
-b
(a)
=
d
da
(b)
a-1
(a)
· b · e
-b
=
ln(b)
·b
a
a-1
(a)
-
b
a
a-1
· (a)
((a))
2
=
b
a
·
a-1
·e
-b
(a)
· ln(b) -
(a)
(a)
(
)
= f
(
|a,
1
b
)
· (ln(b) - (a)) = 0
(ln(b) - (a)) = 0 a =
-1
(ln(b)).
Die Identit¨
at (
) folgt aus der Definition der Eulerschen -Funktion (a) =
d ln (a)
da
=
(a)
(a)
. Es ist (a) f¨
ur a
IR
+
streng monoton steigend, es gilt n¨
amlich die Funktional-
gleichung (a + 1) =
1
a
+ (a). Daher ist
d
da
f
(
|a,
1
b
) = f
(
|a,
1
b
)
· (ln(b) - (a))
> 0 f¨
ur a <
-1
(ln(b))
< 0 f¨
ur a >
-1
(ln(b)).
Somit liegt an der Stelle a =
-1
(ln(b)) bzw. speziell im Fall der A-posteriori-
Verteilung f
(
|a +
n
i=1
x
i
,
1
b+n
) an der Stelle a +
n
i=1
x
i
=
-1
(ln((b + n))) ein Ma-
ximum vor. Dieses Maximum kann jedoch nur erreicht werden f¨
ur
-1
(ln((b + n)))

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
159
[a +
n
i=1
a
i
, a +
n
i=1
a
i
] bzw. f¨
ur
[
1
b
· e
(a+
n
i=1
a
i
)
,
1
b
· e
(a+
n
i=1
a
i
)
]. Somit ist
sup
(x
1
,...,x
n
)
co A
1
×...×co A
n
(b+n)
a+n
i=1xi
·
a+n
i=1xi-
1
·e
-(b+n)
(a+
n
i=1
x
i
)
· 1
(0,
)
()
=
0
ur
- < 0
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
ur 0 < <
1
b
· e
(a+
n
i=1
a
i
)
(b+n)
-1(ln((b+n)))
·
-1(ln((b+n)))-1
·e
-(b+n)
(
-1
(ln((b+n))))
ur
1
b
·e
(a+
n
i=1
a
i
)
1
b
·e
(a+
n
i=1
a
i
)
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
ur >
1
b
· e
(a+
n
i=1
a
i
)
.
Zur Bestimmung der unteren -Niveaukurven m¨
ussen die Schnittpunkte von
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
und
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
berechnet werden.
Es ist
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
=
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
(
n
i=1
a
i
-
n
i=1
a
i
)
= (b + n)
-(
n
i=1
a
i
-
n
i=1
a
i
)
·
(a+
n
i=1
a
i
)
(a+
n
i=1
a
i
=
1
b+n
·
(a+
n
i=1
a
i
)
(a+
n
i=1
a
i
)
1
(n
i=1
ai-
n
i=1
ai)
(
f ¨
ur
n
i=1
a
i
,
n
i=1
a
i
IN
)
=
n
i=1
(ai-ai)
(
n
i=1
a
i
)
·
(
n
i=1
a
i
+1
)
·...·
(
n
i=1
a
i
-1
)
b+n
=
1
b+n
·
n
i=1
(a
i
-a
i
)
j=1
(a +
n
i=1
a
i
- 1 + j)
1
n
i=1
(ai-ai)
.
Daher ist
inf
(x
1
,...,x
n
)
A
1
×...×A
n
(b+n)
a+n
i=1xi
·
a+n
i=1xi-
1
·e
-(b+n)
(a+
n
i=1
x
i
)
· 1
(0,
)
()
=
0
ur
- < 0
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
ur 0 < <
1
b
·
(a+
n
i=1
a
i
)
(a+
n
i=1
a
i
)
1
n
i=1
(
ai-ai)
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
ur >
1
b
·
(a+
n
i=1
a
i
)
(a+
n
i=1
a
i
)
1
n
i=1
(ai-ai)
.

160
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Somit erh¨
alt man die -Niveaukurven von co ~
(.
|co ~A
1
, ..., co ~
A
n
) = ~
f
(.
|a
n
i=1
co ~
A
i
,
1
b+n
)
f
(
|a
n
i=1
co ~
A
i
,
1
b+n
)
=
0
ur
- < 0
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
ur 0 < <
1
b
·
(a+
n
i=1
a
i
)
(a+
n
i=1
a
i
)
1
n
i=1
(ai-ai)
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
ur >
1
b
·
(a+
n
i=1
a
i
)
(a+
n
i=1
a
i
)
1
n
i=1
(ai-ai)
(B.6.3)
f
(
|a
n
i=1
co ~
A
i
,
1
b+n
)
=
0
ur
- < 0
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
ur 0 < <
1
b
· e
(a+
n
i=1
a
i
)
(b+n)
-1(ln((b+n)))
·
-1(ln((b+n)))-1
·e
-(b+n)
(
-1
(ln((b+n))))
ur
1
b
·e
(a+
n
i=1
a
i
)
1
b
·e
(a+
n
i=1
a
i
)
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
ur >
1
b
· e
(a+
n
i=1
a
i
)
.
(B.6.4)
Sofern lediglich die -Niveaukurven von co ~
(.
|~A
1
, ..., ~
A
n
) (bei nicht konvexen Wer-
ten von ~
A
1
, ..., ~
A
n
) berechnet werden sollen, so gen¨
ugt es, zur Bestimmung der obe-
ren -Niveaukurven die Schnittpunkte der Kurven
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
und
(b+n)
a+n
i=1ai>
·
a+n
i=1ai>
-1
·e
-(b+n)
(a+
n
i=1
a
i>
)
und der Kurven
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
und
(b+n)
a+n
i=1ai>
·
a+n
i=1ai>
-1
·e
-(b+n)
(a+
n
i=1
a
i>
)
zu bestimmen. Diese werden analog zur Bestimmung
des Schnittpunktes f¨
ur die unteren -Niveaukurven von co ~
(.
|co ~A
1
, ..., co ~
A
n
) berech-
net. Die unteren -Niveaukurven von co ~
(.
|~A
1
, ..., ~
A
n
) stimmen mit denen von
co ~
(.
|co ~A
1
, ..., co ~
A
n
) ¨
uberein:
f
(
|a
n
i=1
~
A
i
,
1
b+n
)
=
0
ur
- < 0
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
ur 0 < <
1
b
·
(a+
n
i=1
a
i
)
(a+
n
i=1
a
i
)
1
n
i=1
(
ai-ai)
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
ur >
1
b
·
(a+
n
i=1
a
i
)
(a+
n
i=1
a
i
)
1
n
i=1
(ai-ai)
(B.6.5)

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
161
f
(
|a
n
i=1
~
A
i
,
1
b+n
)
=
0
ur
- < 0
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
ur 0 <
1
b
·
(a+
n
i=1
a
i1()
)
(a+
n
i=1
a
i
)
1
n
i=1
(ai1()-ai)
(b+n)
a+n
i=1aij()
·
a+n
i=1aij()-
1
·e
-(b+n)
(a+
n
i=1
a
ij()
)
ur
1
b
·
(a+
n
i=1
a
ij()
)
(a+
n
i=1
a
i(j-1)
)
1
n
i=1
(aij()-ai(j-1)())
<
1
b
·
(a+
n
i=1
a
i(j+1)()
)
(a+
n
i=1
a
ij
)
1
n
i=1
(ai(j+1)()-aij())
ur j() = 1(), ..., (k
- 1)()
ur
n
i=1
a
i
=
n
i=1
a
i0()
<
n
i=1
a
i1()
< ...
<
n
i=1
a
i(k
-1)()
<
n
i=1
a
ik()
=
n
i=1
a
i
,
k()
j()=0()
n
i=1
a
ij()
=
n
i=1
~
A
i
(b+n)
a+n
i=1ai
·
a+n
i=1ai-
1
·e
-(b+n)
(a+
n
i=1
a
i
)
ur >
1
b
·
(a+
n
i=1
a
i
)
(a+
n
i=1
a
i(k-1)()
)
1
n
i=1
(ai-ai(k-1)())
(B.6.6)
6.1.2
Unscharfe suffiziente Statistiken
Oft ist f¨
ur statistische Entscheidungen nicht die Kenntnis aller einzelnen Realisationen
einer Stichprobe notwendig, sondern es gen¨
ugen zusammenfassende Funktionen der
Daten, so genannte suffiziente Statistiken. Gegeben ist also ein parametrisches stocha-
stisches Modell X
P
,
besitzt die A-priori-Verteilung (.) auf , X diskret mit
Wahrscheinlichkeitsfunktion p(.
|) auf U IR oder stetig mit Dichtefunktion f(.|) auf
IR. Ist (X
1
, ..., X
n
) eine Stichprobe von X mit Realisationen (x
1
, ..., x
n
)
U
n
(f¨
ur dis-
kretes X) bzw. (x
1
, ..., x
n
)
IR
n
(f¨
ur stetiges X), dann heißt eine Statistik s(X
1
, ..., X
n
)
suffizient f¨
ur , falls die A-posteriori-Verteilung (.
|x
1
, ..., x
n
) von (x
1
, ..., x
n
) nur ¨
uber
s(x
1
, ..., x
n
) abh¨
angt, d.h. falls gilt:
14
(
|x
1
, ..., x
n
) = (
|s(x
1
, ..., x
n
)) =
()
· (|s(x
1
,...,x
n
))
()
· (|s(x
1
,...,x
n
))
ur diskretes
()
· (|s(x
1
,...,x
n
))
()
· (|s(x
1
,...,x
n
))d
ur stetiges
bzw. insgesamt
(
|x
1
, ..., x
n
)
() · (|s(x
1
, ..., x
n
)).
Analog dazu kann die unscharfe suffiziente Statistik definiert werden.
Definition: Gegeben ist ein klassisches parametrisches stochastisches Modell X
P
,
X ist dabei diskret mit Wahrscheinlichkeitsfunktion p(.
|) oder stetig mit Dichtefunkti-
on f (.
|), besitzt die A-priori-Verteilung (.) auf . Ist ( ~
X
1
, ..., ~
X
n
) eine Stichprobe
14
Vgl. Viertl (2003), S. 174 f., Berger (1985), S. 35, Ferguson (1967), S. 112 ff., Gelman / Carlin /
Stern / Rubin (1995), S. 38, Carlin / Louis (1996), S. 22, Pratt / Raiffa / Schlaifer (1995), S. 317,
Marinell (1985), S. 22 ff.

162
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
von Fuzzy-Perzeptionen von X mit unscharfen Realisationen ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
bzw. ( ~
A
1
, ..., ~
A
n
)
(F(IR))
n
, dann heißt die Fuzzy-Extension
s ( ~
X
1
, ..., ~
X
n
)
(6.12)
der Statistik s(X
1
, ..., X
n
) unscharfe suffiziente Statistik f¨
ur , wenn die unscharfe A-
posteriori-Verteilung ~
~
(.
|~A
1
, ..., ~
A
n
) nur ¨
uber
s ( ~
A
1
, ..., ~
A
n
)
(6.13)
abh¨
angt, d.h. falls f¨
ur
gilt
~
~
~
A
1
, ..., ~
A
n
= ~
~
s ~
A
1
, ..., ~
A
n
=
(
|),
s ( ~
A
1
,..., ~
A
n
)
()
supp s (~A
1
, ..., ~
A
n
)
(6.14)
mit
s ( ~
A
1
,..., ~
A
n
)
() =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
s(x1,...,xn)=
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(6.15)
ur eine konkrete unscharfe suffiziente Statistik s ( ~
A
1
, ..., ~
A
n
) muss also f¨
ur
insbesondere f¨
ur diskretes
gelten:
~
~
~
A
1
, ..., ~
A =
()
· (|)
()
· (|
)
,
s ( ~
A
1
,..., ~
A
n
)
()
supp s (~A
1
, ..., ~
A
n
)
(6.16)
und f¨
ur stetiges
:
~
~
~
A
1
, ..., ~
A =
()
· (|)
()
· (|)
,
s ( ~
A
1
,..., ~
A
n
)
()
supp s (~A
1
, ..., ~
A
n
)
(6.17)
ur die fuzzifizierende A-posteriori-Verteilung erh¨
alt man f¨
ur
~
(
|~A
1
, ..., ~
A
n
) = ~
s ( ~
A
1
, ..., ~
A
n
)
(6.18)
mit
~
(
| s ( ~
A
1
,..., ~
A
n
))
(q) =
sup
supp( s ( ~
A1,..., ~
An)):
(|)=q
s ( ~
A
1
,..., ~
A
n
)
()
(6.19)
ur q
IR
+
0
. Die -Niveaukurven
(.
| s (~A
1
, ..., ~
A
n
)) und
(.
| s (~A
1
, ..., ~
A
n
)) der konve-
xen H¨
ulle co ~
(.
| s (~A
1
, ..., ~
A
n
)) k¨
onnen f¨
ur
(0, 1] auf die -Schnitte s (~A
1
, ..., ~
A
n
)
=
s (A
1
, ..., A
n
) von s ( ~
A
1
, ..., ~
A
n
) zur¨
uckgef¨
uhrt werden. Es ist
(
| s (~A
1
, ..., ~
A
n
)) =
inf
s (A
1
,...,A
n
)
(
|)
(6.20)

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
163
(
| s (~A
1
, ..., ~
A
n
)) =
sup
s (A
1
,...,A
n
)
(
|)
(6.21)
ur
.
Begleitendes Beispiel: F¨
ur Poisson-verteilte Zufallsvariablen X
Po
mit der Wahr-
scheinlichkeitsfunktion p
P o
(x
|) =
x
·e
-
x!
ur x
IN
0
erh¨
alt man nach Ziehung einer
Stichprobe (X
1
, ..., X
n
) vom Umfang n mit Realisationen (x
1
, ...x
n
), wie in Abschnitt
6.1.1 gezeigt, die A-posteriori-Dichte f¨
ur die Zufallsvariable
:
(
|x
1
, ..., x
n
) =
a+
n
i=1
x
i
· e
-(b+n)
0
a+
n
i=1
x
i
· e
-(b+n)
d
· 1
(0,
)
()
=
(b+n)
a+
n
i=1
xi
·
a+
n
i=1
xi-1
·e
-(b+n)
(a+
n
i=1
x
i
)
· 1
(0,
)
()
Diese h¨
angt von der konkreten Stichprobe (x
1
, ..., x
n
) nur ¨
uber die Summe
n
i=1
x
i
ab.
s(X
1
, ..., X
n
) =
n
i=1
X
i
ist somit eine suffiziente Statistik f¨
ur .
Geht man von einer Stichprobe von n Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) von X mit
Fuzzy-Realisationen ( ~
A
1
, ..., ~
A
n
)
(F(IN))
n
aus, so lautet die unscharfe suffiziente
Statistik nach (6.12)
s ( ~
X
1
, ..., ~
X
n
) =
n
i=1
~
X
i
.
(B.6.7)
Auf die speziellen Fuzzy-Daten angewandt lautet die unscharfe suffiziente Statistik
nach (6.13)
s ( ~
A
1
, ..., ~
A
n
) =
n
i=1
~
A
i
.
(B.6.8)
Mit Hilfe der unscharfen suffizienten Statistik (B.6.8) kann die Fuzzy-Schar von A-
posteriori-Dichten (B.6.1) f¨
ur
IR, wie folgt, angeschrieben werden:
~
~
(
|~A
1
, ..., ~
A
n
) = ~
~
| s (~A
1
, ..., ~
A
n
) =
~~
f
|a
n
i=1
~
A
i
|
1
b+n
=
(b+n)
a+
·
a+-1
·e
-(b+n)
(a+)
· 1
(0,
)
(),
s ( ~
A
1
,..., ~
A
n
()
supp s (~A
1
, ..., ~
A
n
)
=
(b+n)
a+
·
a+-1
·e
-(b+n)
(a+)
· 1
(0,
)
(),
sup
(x1,...,xn)(IR
+)n:
n
i=1
xi=
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
supp
n
i=1
~
A
i
(B.6.9)
Durch Bilden der sup-Vereinigung erh¨
alt man die Zugeh¨
origkeitsfunktion der fuzzifi-

164
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
zierenden A-posteriori-Verteilung f¨
ur
IR und q IR
+
~
(
| ~
A
1
,..., ~
A
n
)
(q) =
~
(
| s ( ~
A
1
,..., ~
A
n
))
(q) =
~
f
(
|a s ( ~
A
1
,..., ~
A
n
),
1
b+n
)
(q)
=
sup
supp( s ( ~
A1,..., ~
An)):
f(|a+,
1
b+n
=
s ( ~
A
1
,..., ~
A
n
)
()
=
sup
supp( s ( ~
A1,..., ~
An)):
(b+n)a+ ·a+ ·e-(b+n)
(a+)
·1(0,)()=
s ( ~
A
1
,..., ~
A
n
)
().
(B.6.10)
Die -Niveaukurven der fuzzifizierenden A-posteriori-Dichte nach (B.6.3) und nach
(B.6.5) k¨
onnen ebenfalls mit Hilfe der -Schnitte der unscharfen suffizienten Statistik
(B.6.8) berechnet werden:
(
|co ~A
1
, ..., co ~
A
n
) =
inf
co s (A
1
,...,A
n
)
(b+n)
a+
·
a+
·e
-(b+n)
(a+)
· 1
(0,
)
()
=
0
ur
- < 0
(b+n)
a+
·
a+-1
·e
-(b+n)
(a+
)
ur 0 < <
1
b
·
(a+
)
(a+
)
1
-
(b+n)
a+
·
a+-1
·e
-(b+n)
(a+
)
ur >
1
b
·
(a+
)
(a+
)
1
-
(B.6.11)
(
|co ~A
1
, ..., co ~
A
n
) =
sup
co s (A
1
,...,A
n
)
(b+n)
a+
·
a+
·e
-(b+n)
(a+)
· 1
(0,
)
()
=
0
ur
- < 0
(b+n)
a+
·
a+-1
·e
-(b+n)
(a+
)
ur 0 < <
1
b
· e
(a+
)
(b+n)
-1
(ln((b+n)))
·
-1
(ln((b+n)))-1
·e
-(b+n)
(
-1
(ln((b+n))))
ur
1
b
·e
(a+
)
1
b
·e
(a+
)
(b+n)
a+
·
a+-1
·e
-(b+n)
(a+
)
ur >
1
b
· e
(a+
)
,
(B.6.12)
wobei
= sup
{s(x
1
, ..., x
n
)
|(x
1
, ..., x
n
)
A
1
× ... × A
n
}
= inf
{s(x
1
, ..., x
n
)
|(x
1
, ..., x
n
)
A
1
× ... × A
n
} ,
bzw.
(
|~A
1
, ..., ~
A
n
) =
inf
s (A
1
,...,A
n
)
(b+n)
a+
·
a+
·e
-(b+n)
(a+)
· 1
(0,
)
()
=
0
ur
- < 0
(b+n)
a+
·
a+-1
·e
-(b+n)
(a+
)
ur 0 < <
1
b
·
(a+
)
(a+
)
1
-
(b+n)
a+
·
a+-1
·e
-(b+n)
(a+
)
ur >
1
b
·
(a+
)
(a+
)
1
-
(B.6.13)

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
165
(
|~A
1
, ..., ~
A
n
) =
sup
s (A
1
,...,A
n
)
(b+n)
a+
·
a+
·e
-(b+n)
(a+)
· 1
(0,
)
()
=
0
ur
- < 0
(b+n)
a+
·
a+-1
·e
-(b+n)
(a+
)
ur 0 <
1
b
·
(a+
1()
)
(a+
)
1
1()-
(b+n)
a+j()
·
a+j()-1
·e
-(b+n)
(a+
j()
)
ur
1
b
·
(a+
j()
)
(a+
(j-1)()
)
1
j()-(j-1)()
<
1
b
·
(a+
(j+1)()
)
(a+
j()
)
1
(j+1)()-j()
ur j() = 1(), ..., (k
- 1)()
ur
=
0()
<
1()
< ... <
(k
-1)()
<
k()
=
,
k()
j()=0()
j()
= s ( ~
A
1
, ..., ~
A
n
)
(b+n)
a+
·
a+-1
·e
-(b+n)
(a+
)
ur
1
b
·
(a+
)
(a+
(k-1)()
)
1
-(k-1)()
< <
.
(B.6.14)
Yao und Hwang definieren eine suffiziente Statistik auf Basis einer Stichprobe
vom Umfang n, die nur eine unscharfe Messung neben n
- 1 exakten Messungen
zul¨
asst. Dabei wird der unscharfe Messwert analog zu (4.57) defuzzifiziert, also
Y H
=
s (x
1
, ..., CoG( ~
A
i
)
· card(~A
i
), ..., x
n
).
15
6.1.3
Unscharfe konjugierte Verteilungsfamilien
Eine Erleichterung der Berechnung von A-posteriori-Verteilungen bringt das Konzept
der konjugierten Verteilungsfamilien. Eine Verteilungsfamilie
P ist, wie in Abschnitt
4.2.2 beschrieben, allgemein definiert als
P = {P
| K}, also die Menge der Vertei-
lungen, die sich nur durch den Verteilungsparameter unterscheiden, so ist etwa die
Menge aller Poisson-Verteilungen
Po = {Po
| IR
+
} eine Verteilungsfamilie.
Ist nun X
P
,
ein parametrisches stochastisches Modell, ist (.) die A-
priori-Verteilung der Zufallsvariablen
auf , und ist (.) P, dann heißt die Vertei-
lungsfamilie
P konjugierte Verteilungsfamilie f¨ur , wenn f¨ur alle m¨oglichen konkreten
Stichproben (x
1
, ..., x
n
)
U
n
von X gilt: (.
|x
1
, ..., x
n
)
P, also wenn die A-posteriori-
Verteilung wieder derselben Verteilungsfamilie angeh¨
ort.
16
Ist also (f¨
ur stetiges ) () = f (
| ) , so erh¨alt man nach Erhebung der
Stichprobe (
|x
1
, ..., x
n
) = f (
| ) . A-priori- und A-posteriori-Dichte von
auf unterscheiden sich also nur durch den Parameter bzw. .
Begleitendes Beispiel: F¨
ur X
Po
,
IR
+
(Poisson-verteilt mit Parameter )
ist, wie in Abschnitt 6.1.1 gezeigt, die Familie der invertierten Gammaverteilungen
-
=
{
(a,
1
b
)
|a, b IR
+
} eine konjugierte Verteilungsfamilie f¨ur .
17
Als Likelihoodfunktion, d.h. als Funktion des Parameters ist die Poisson-Verteilung
selbst eine spezielle Gammaverteilung mit der Dichtefunktion f
(.
|x + 1, 1) mit den
Parametern a = x + 1
IN und b = 1.
15
Vgl. Yao / Hwang (1996), S. 208 f.
16
Vgl. Viertl (2003), S. 176, Berger (1985), S. 130 f., Bernardo / Smith (1994), S. 265 ff., Viertl
(1996), S.163, Gelman / Carlin / Stern / Rubin (1995), S. 37, Carlin / Louis (1996), S. 30 f., Robert
(2001), S. 114, Marinell (1985), S. 78 f., Comploj (2003), S. 7.
17
Vgl. auch Berger (1985), S. 130 f.

166
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Das Konzept der konjugierten Verteilungsfamilien bietet zwei Vorteile. Einerseits
muss man, wie dies allgemein bei parametrischen Verteilungen der Fall ist, bei ei-
ner konjugierten A-priori-Verteilung nur den Verteilungsparameter kennen, um die A-
posteriori-Verteilung zu kennen. Insbesondere im Fall der Existenz suffizienter Stati-
stiken (vgl. Abschnitt 6.1.2), die gleichzeitig auch die Existenz konjugierter A-priori-
Verteilungen garantieren, ist dann die Berechnung der konjugierten A-posteriori-Ver-
teilung meist sehr einfach.
18
Andererseits kann mit dieser Darstellungsform der relative Informationsgehalt von
A-priori- und Stichprobeninformation zur A-posteriori-Information gewichtet werden.
Schreibt man f¨
ur
() = f(| ) und (|x
1
, ..., x
n
) = f (
| ) (im Falle stetiger
A-priori- bzw. A-posteriori-Verteilung), und definiert man :=
- , so ist
der relative Informationsbeitrag der A-priori-Information und
der relative Informationsbeitrag der Stichprobeninformation.
Ist insbesondere durch eine suffiziente Statistik s(X
1
, ..., X
n
) unter Ber¨
ucksich-
tigung des Stichprobenumfangs n gegeben, so kann als suffiziente Statistik einer
hypothetischen Stichprobe unter Ber¨
ucksichtigung des hypothetischen Stichprobenum-
fangs n interpretiert werden. Die A-priori-Information wird also mit der Information
aus einer hypothetischen Stichprobe gleichgesetzt.
19
Die A-posteriori-Verteilung stellt
dann einen Kompromiss zwischen A-priori-Information und Dateninformation dar, bei
welchem bei zunehmendem Umfang der Stichprobe das Gewicht der Dateninformation
zunimmt.
20
Begleitendes Beispiel: Im Beispiel zu den Gammaverteilungen sind () = f
(
|a ,
1
b
)
und (
|x
1
, ..., x
n
) = f
(
|a ,
1
b
) = f
(
|a +
n
i=1
,
1
b +n
) f¨
ur
(0, ). Es ist die A-
priori-Information = (a , b ) und die A-posteriori-Information = (a , b ). Daraus
ergibt sich f¨
ur die Stichprobeninformation = (a
- a , b - b ) = (
n
i=1
x
i
, n). Man
kann also die A-priori-Information als Information aus einer hypothetischen Stichprobe
vom Umfang b mit der suffizienten Statistik a = "x
1
+ ... + x
b
auffassen.
Dieses Konzept soll nun auf den Fall unscharfer Daten erweitert werden.
Ausgegangen wird von einem klassischen stochastischen Modell X
P
, wobei (.) die
A-priori-Verteilung von
auf ist. Außerdem geht man der Existenz einer konjugier-
ten Verteilungsfamilie f¨
ur
aus, also (.) = f(.| ). ( ~
X
1
, ..., ~
X
n
) sind n verteilungstreue
Fuzzy-Perzeptionen von X mit unscharfen Realisationen ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
. Aus
diesen unscharfen Realisationen muss nun die unscharfe Stichprobeninformation ~
be-
rechnet werden. Dabei ist
~
~
A1,..., ~
An
() =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An)
=x1,...,xn
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) ,
(6.22)
wobei mit
x
1
,...,x
n
die Information aus der konkreten klassischen Stichprobe x
1
, ..., x
n
bezeichnet wird.
18
Vgl. Viertl (2003), S. 176, Gelman / Carlin / Stern / Rubin (1995), S. 38, Robert (2001), S. 115,
Marinell (1985), S. 78 ff.
19
Vgl. Barnett (1982), S. 213, Robert (2001), S. 115, Marinell (1985), S. 80.
20
Vgl. Gelman / Carlin / Stern / Rubin (1995), S. 32.

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
167
Insbesondere im Fall der Existenz unscharfer suffizienter Statistiken (6.15) l¨
asst
sich ~
leicht aus s ( ~
A
1
, ..., ~
A
n
) bestimmen. Den unscharfen Parameter der unscharfen
konjugierten Verteilungsfunktion erh¨
alt man dann durch
~
:=
~.
(6.23)
Die Fuzzy-Schar von konjugierten A-posteriori-Verteilungen lautet dann
~
~
(.
|~A
1
, ..., ~
A
n
) =
~~
f (.
|~ ) = {(f(.| ),
~
( ))
| supp(~ )} .
(6.24)
Begleitendes Beispiel: Auch die A-posteriori-Dichte aus dem begleitenden Beispiel
kann mittels der unscharfen Parameter der unscharfen invertierten Gammaverteilung
angeschrieben werden.
Ist also wiederum X
Po
,
IR
+
, ist (.) = f
(.
|a ,
1
b
), a , b
IR
+
, die A-priori-
Verteilung von
, und ist ( ~
X
1
, ..., ~
X
n
) eine Stichprobe von n verteilungstreuen Fuzzy-
Perzeptionen von X mit Fuzzy-Realisationen ( ~
A
1
, ..., ~
A
n
)
(F(IN
0
))
n
, dann ist die
unscharfe A-posteriori-Information ~
gegeben durch
~
= (~
a , b ),
(B.6.15)
wobei
~
a := a
n
i=1
~
A
i
(B.6.16)
die unscharfe erste Komponente (Raffung) des unscharfen Parameters der unscharfe
Gammaverteilung bezeichnet. F¨
ur die zweite Komponente b = b + n des Parameters
wird vorerst keine Unsch¨
arfe angenommen.
Somit erh¨
alt man als Fuzzy-Schar von konjugierten A-posteriori-Dichten von ~
f¨ur
IR
+
die Fuzzy-Schar von Dichtefunktionen von invertierten Gammaverteilungen
~
~
(
|~A
1
, ..., ~
A
n
) =
~~
f
(
|~a ,
1
b
) =
f
(
|a ,
1
b
),
~
a
(a )
a
supp(~a )
=
f
(
|a + ,
1
b +n
)
· 1
(0,
)
(),
n
i=1
~
A
i
()
supp
n
i=1
~
A
i
=
(b +n)
a +
·
a +-1
·e
-(b +n)
(a +)
·1
[0,
)
(),
n
i=1
~
A
i
()
supp
n
i=1
~
A
i
.
(B.6.17)
Auch die -Niveaukurven der konvexen H¨
ulle der fuzzifizierenden A-posteriori-
Verteilung f¨
ur
(0, 1] k¨onnen mit Hilfe der unscharfen Parameter der unscharfen
konjugierten A-posteriori-Verteilung ausgedr¨
uckt werden. Es ist
(.
|~A
1
, ..., ~
A
n
) = f
(.
|~ ) = inf
k
f (.
| )
(6.25)
(.
|~A
1
, ..., ~
A
n
) = f
(.
|~ ) = sup
k
f (.
| )
(6.26)
ur
, wobei mit
k
:=
{ supp(~ ) |
~
( )
}

168
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ur
(0, 1] die -Schnitte von ~
bezeichnet werden.
Begleitendes numerisches Beispiel: Nun soll auch f¨
ur das numerische begleitende
Beispiel die Fuzzy-A-posteriori-Verteilung formuliert werden.
Nach einem Beobachtungszeitraum von 3 Jahren liegt die unscharfe Stichprobenin-
formation aus der unscharfen Stichprobe der Poisson-verteilten Zufallsvariablen, die
die Anzahl der Flutwellen, die pro Jahr die kritische Marke erreichen, beschreibt, vor:
( ~
A
1
, ~
A
2
, ~
A
3
) =
0.2
0.8
1
0.5
8
9
10
11
,
0.7
1
0.6
11
12
13
,
0.5
1
0.8
6
7
8
Dazu tritt die A-priori-Information, dass die durchschnittliche Zahl der Flutwellen kri-
tischer H¨
ohe pro Jahr 9 betrage. Dieser Information soll zwei Drittel der Bedeutung
der Stichprobeninformation beigemessen werden.
Die A-priori-Information kann als hypothetische Stichprobe vom Umfang b =
2
3
· 3 = 2
aufgefasst werden.
Da die Familie der invertierten Gammaverteilungen eine zur Poisson-Verteilung kon-
jugierte Verteilungsfamilie darstellt, wurde die A-priori-Verteilung mittels einer inver-
tierten Gammaverteilung beschrieben.
Die Statistik
n
i=1
X
i
ist eine suffiziente Statistik f¨
ur Poisson-verteilte Zufallsvariablen.
Die suffiziente Statistik aus der hypothetischen Stichprobe ist somit a = 2
· 9 = 18.
Es ist also () = f
(
|18,
1
2
) =
2
18
·
17
·e
-2
17!
.
Die unscharfe suffiziente Statistik f¨
ur lautet:
s ( ~
A
1
, ~
A
2
, ~
A
3
) =
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
25
26
27
28
29
30
31
32
(N.6.1)
Die Parameter der unscharfen invertierten A-posteriori-Gammaverteilung lauten so-
mit:
~
a =
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
b
=
1
5
(N.6.2)
Die unscharfe Schar von Dichtefunktionen der Fuzzy-A-posteriori-Gammaverteilung
lautet daher f¨
ur
IR:
~
~
(
|~A
1
, ~
A
2
, ~
A
3
) =
~~
f
|~a ,
1
b
=
5
43
·
42
·e
-5
42!
· 1
(0,
)
(), 0.2 ,
5
44
·
43
·e
-5
43!
· 1
(0,
)
(), 0.5 ,
5
45
·
44
·e
-5
44!
· 1
(0,
)
(), 0.7 ,
5
46
·
45
·e
-5
45!
· 1
(0,
)
(), 0.8 ,
5
47
·
46
·e
-5
46!
· 1
(0,
)
(), 1 ,
5
48
·
47
·e
-5
47!
· 1
(0,
)
(), 0.8 ,
5
49
·
48
·e
-5
48!
· 1
(0,
)
(), 0.6 ,
5
50
·
49
·e
-5
49!
· 1
(0,
)
(), 0.5
(N.6.3)
Die -Niveaukurven
(.
|co ~A
1
, co ~
A
2
, co ~
A
3
) und
(.
|co ~A
1
, co ~
A
2
, co ~
A
3
) der kon-
vexen H¨
ulle der fuzzifizierenden A-posteriori-Gammaverteilung co ~
(.
|~A
1
, ~
A
2
, ~
A
3
) f¨
ur
(0, 1] sind nach (B.6.3) zu berechnen. Zur Bestimmung von
(.
|co ~A
1
, co ~
A
2
, co ~
A
3
)
ussen die Schnittpunkte der Funktionen f
(.
|18 +
3
i=1
a
i
,
1
5
) und der Funktionen
f
(.
|18 +
3
i=1
a
i
,
1
5
) f¨
ur
(0, 1] berechnet werden. Es ist:
5
43
·
42
·e
-5
42!
=
5
50
·
49
·e
-5
49!
=
7
43
·44·45·46·47·48·49
5
= 9.1929
5
44
·
43
·e
-5
43!
=
5
50
·
49
·e
-5
49!
=
6
44
·45·46·47·48·49
5
= 9.2937
5
45
·
44
·e
-5
44!
=
5
49
·
48
·e
-5
48!
=
4
45
·46·47·48
5
= 9.2973

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
169
Abbildung 6.1: Fuzzy-Schar von A-posteriori-Gammadichtefunktionen
5
45
·
44
·e
-5
44!
=
5
48
·
47
·e
-5
47!
=
3
45
·46·47
5
= 9.1986
5
46
·
45
·e
-5
45!
=
5
48
·
47
·e
-5
47!
=
46
·47
5
= 9.2995
Zur Bestimmung von
(.
|co ~A
1
, co ~
A
2
, co ~
A
3
) sind die Werte
1
5
e
(a
)
und
1
5
e
(a
)
ur
(0, 1] zu berechnen. Es gilt f¨ur die Eulersche -Funktion die Funktionalgleichung
(a + 1) =
d ln (a+1)
da
=
d ln(a(a))
da
=
d ln a
da
+
d ln (a)
da
=
1
a
+ (a) und daher ist f¨
ur a
IN,
a
2, (a) =
1
a
-1
+ (a
- 1) =
1
a
-1
+
1
a
-2
+ (a
- 2) = ... =
a
-1
k=1
1
k
+ (1), wobei
(1) =
- der negative Wert der Euler-Mascheroni-Konstante ist, die definiert ist
durch = lim
n
n
k=1
1
k
- ln n 0.5772.
21
Es ist:
(43) = 3.7495 und
1
5
· e
(43)
= 8.5002, (44) = 3.7728 und
1
5
· e
(44)
= 8.7002
(45) = 3.7955 und
1
5
· e
(45)
= 8.9002, (46) = 3.8177 und
1
5
· e
(46)
= 9.1002
(47) = 3.8395 und
1
5
· e
(47)
= 9.3002, (48) = 3.8607 und
1
5
· e
(48)
= 9.5002
(49) = 3.8816 und
1
5
· e
(49)
= 9.7002, (50) = 3.9020 und
1
5
· e
(50)
= 9.9002.
Es ist daher f¨
ur 0 <
0.2:
(
|co ~A
1
, co ~
A
2
, co ~
A
3
) =
0
ur
- < 0
5
50
·
49
·e
-5
49!
ur 0 <
9.1929
5
43
·
42
·e
-5
42!
ur 9.1929
<
(
|co ~A
1
, co ~
A
2
, co ~
A
3
) =
0
ur
- < 0
5
43
·
42
·e
-5
42!
ur 0 <
8.5002
5
-1(ln(5))
·
-1(ln(5))-1
·e
-5
(
-1
(ln(5)))
ur 8.5002
9.9002
5
50
·
49
·e
-5
49!
ur 9.9002
<
21
Vgl. http://www.sciface.com/STATIC/DOC30/eng/stdlib psi.html#psi bzw.
http://www.sciface.com/STATIC/DOC30/eng/stdlib math.html#EULER

170
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ur 0.2 <
0.5:
(
|co ~A
1
, co ~
A
2
, co ~
A
3
) =
0
ur
- < 0
5
50
·
49
·e
-5
49!
ur 0 <
9.2937
5
44
·
43
·e
-5
43!
ur 9.2937
<
(
|co ~A
1
, co ~
A
2
, co ~
A
3
) =
0
ur
- < 0
5
44
·
43
·e
-5
43!
ur 0 <
8.7002
5
-1(ln(5))
·
-1(ln(5))-1
·e
-5
(
-1
(ln(5)))
ur 8.7002
9.9002
5
50
·
49
·e
-5
49!
ur 9.9002
<
ur 0.5 <
0.6:
(
|co ~A
1
, co ~
A
2
, co ~
A
3
) =
0
ur
- < 0
5
49
·
48
·e
-5
48!
ur 0 <
9.2973
5
45
·
44
·e
-5
44!
ur 9.2973
<
(
|co ~A
1
, co ~
A
2
, co ~
A
3
) =
0
ur
- < 0
5
45
·
44
·e
-5
44!
ur 0 <
8.9002
5
-1(ln(5))
·
-1(ln(5))-1
·e
-5
(
-1
(ln(5)))
ur 8.9002
9.7002
5
49
·
48
·e
-5
48!
ur 9.7002
<
ur 0.6 <
0.7:
(
|co ~A
1
, co ~
A
2
, co ~
A
3
) =
0
ur
- < 0
5
48
·
47
·e
-5
47!
ur 0 <
9.1986
5
45
·
44
·e
-5
44!
ur 9.1986
<
(
|co ~A
1
, co ~
A
2
, co ~
A
3
) =
0
ur
- < 0
5
45
·
44
·e
-5
44!
ur 0 <
8.9002
5
-1(ln(5))
·
-1(ln(5))-1
·e
-5
(
-1
(ln(5)))
ur 8.9002
9.5002
5
48
·
47
·e
-5
47!
ur 9.5002
<
ur 0.7 <
0.8:
(
|co ~A
1
, co ~
A
2
, co ~
A
3
) =
0
ur
- < 0
5
48
·
47
·e
-5
47!
ur 0 <
9.2995
5
46
·
45
·e
-5
45!
ur 9.2995
<
(
|co ~A
1
, co ~
A
2
, co ~
A
3
) =
0
ur
- < 0
5
46
·
45
·e
-5
45!
ur 0 <
9.1002
5
-1(ln(5))
·
-1(ln(5))-1
·e
-5
(
-1
(ln(5)))
ur 9.1002
9.5002
5
48
·
47
·e
-5
47!
ur 9.5002
<
ur 0.8 <
1:
(
|co ~A
1
, co ~
A
2
, co ~
A
3
)
=
(
|co ~A
1
, co ~
A
2
, co ~
A
3
)
=
0
ur
- < 0
5
47
·
46
·e
-5
46!
ur0 < <

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
171
Abbildung 6.2: -Niveaukurven der konvex-fuzzifizierenden A-posteriori-Gammadichte
Zur Bestimmung von
(.
|~A
1
, ~
A
2
, ~
A
3
) m¨
ussen noch weitere Schnittpunkte von Gam-
maverteilungen der unscharfen Schar (N.6.3) berechnet werden. Es ist
5
43
·
42
·e
-5
42!
=
5
44
·
43
·e
-5
43!
=
43
5
= 8.6
5
44
·
43
·e
-5
43!
=
5
45
·
44
·e
-5
44!
=
44
5
= 8.8
5
45
·
44
·e
-5
44!
=
5
46
·
45
·e
-5
45!
=
45
5
= 9
5
46
·
45
·e
-5
45!
=
5
47
·
46
·e
-5
46!
=
46
5
= 9.2
5
47
·
46
·e
-5
46!
=
5
48
·
47
·e
-5
47!
=
47
5
= 9.4
5
48
·
47
·e
-5
47!
=
5
49
·
48
·e
-5
48!
=
48
5
= 9.6
5
49
·
48
·e
-5
48!
=
5
50
·
49
·e
-5
49!
=
49
5
= 9.8.
Es ist daher f¨
ur 0 <
0.2:
(
|~A
1
, ~
A
2
, ~
A
3
) =
0
ur
- < 0
5
50
·
49
·e
-5
49!
ur 0 <
9.1929
5
43
·
42
·e
-5
42!
ur 9.1929
<
(
|~A
1
, ~
A
2
, ~
A
3
) =
0
ur
- < 0
5
43
·
42
·e
-5
42!
ur 0 <
8.6
5
44
·
43
·e
-5
43!
ur 8.6
8.8
5
45
·
44
·e
-5
44!
ur 8.8
9.0
5
46
·
45
·e
-5
45!
ur 9.0
9.2
5
47
·
46
·e
-5
46!
ur 9.2
9.4
5
48
·
47
·e
-5
47!
ur 9.4
9.6
5
49
·
48
·e
-5
48!
ur 9.6
9.8
5
50
·
49
·e
-5
49!
ur 9.8
<

172
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ur 0.2 <
0.5:
(
|~A
1
, ~
A
2
, ~
A
3
) =
0
ur
- < 0
5
50
·
49
·e
-5
49!
ur 0 <
9.2937
5
44
·
43
·e
-5
43!
ur 9.2937
<
(
|~A
1
, ~
A
2
, ~
A
3
) =
0
ur
- < 0
5
44
·
43
·e
-5
43!
ur 0 <
8.8
5
45
·
44
·e
-5
44!
ur 8.8
9.0
5
46
·
45
·e
-5
45!
ur 9.0
9.2
5
47
·
46
·e
-5
46!
ur 9.2
9.4
5
48
·
47
·e
-5
47!
ur 9.4
9.6
5
49
·
48
·e
-5
48!
ur 9.6
9.8
5
50
·
49
·e
-5
49!
ur 9.8
<
ur 0.5 <
0.6:
(
|~A
1
, ~
A
2
, ~
A
3
) =
0
ur
- < 0
5
49
·
48
·e
-5
48!
ur 0 <
9.2973
5
45
·
44
·e
-5
44!
ur 9.2973
<
(
|~A
1
, ~
A
2
, ~
A
3
) =
0
ur
- < 0
5
45
·
44
·e
-5
44!
ur 0 <
9.0
5
46
·
45
·e
-5
45!
ur 9.0
9.2
5
47
·
46
·e
-5
46!
ur 9.2
9.4
5
48
·
47
·e
-5
47!
ur 9.4
9.6
5
49
·
48
·e
-5
48!
ur 9.6
<
ur 0.6 <
0.7:
(
|~A
1
, ~
A
2
, ~
A
3
) =
0
ur
- < 0
5
48
·
47
·e
-5
47!
ur 0 <
9.1986
5
45
·
44
·e
-5
44!
ur 9.1986
<
(
|~A
1
, ~
A
2
, ~
A
3
) =
0
ur
- < 0
5
45
·
44
·e
-5
44!
ur 0 <
9.0
5
46
·
45
·e
-5
45!
ur 9.0
9.2
5
47
·
46
·e
-5
46!
ur 9.2
9.4
5
48
·
47
·e
-5
47!
ur 9.4
<
ur 0.7 <
0.8:
(
|~A
1
, ~
A
2
, ~
A
3
) =
0
ur
- < 0
5
48
·
47
·e
-5
47!
ur 0 <
9.2995
5
46
·
45
·e
-5
45!
ur 9.2995
<
(
|~A
1
, ~
A
2
, ~
A
3
) =
0
ur
- < 0
5
46
·
45
·e
-5
45!
ur 0 <
9.2
5
47
·
46
·e
-5
46!
ur 9.2
9.4
5
48
·
47
·e
-5
47!
ur 9.4
<

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
173
ur 0.8 <
1:
(
|~A
1
, ~
A
2
, ~
A
3
)
=
(
|~A
1
, ~
A
2
, ~
A
3
)
=
0
ur
- < 0
5
47
·
46
·e
-5
46!
ur 0 < <
Abbildung 6.3: -Niveaukurven der fuzzifizierenden A-posteriori-Gammadichte
6.1.4
Unscharfe A-priori-Verteilungen
Bisher wurde davon ausgegangen, dass a priori keine Unsch¨
arfe gegeben ist, da Unsch¨
arfe
ausschließlich aus unscharfen Messungen resultierte. Dieses Konzept ist in verschie-
dener Hinsicht unrealistisch. Einerseits liegen A-priori-Informationen im Allgemeinen
subjektive Einsch¨
atzungen zugrunde, die in den seltensten F¨
allen als exakt eizustu-
fen sind. Andererseits kann, sofern das Bayes'sche Theorem als Informationsaktualisie-
rungsformel aufgefasst wird, die A-priori-Information auf fr¨
uheren Messungen beruhen,
die ebenso wie die Messungen der aktuellen Stichprobeninformation unscharf sind.
22
Letzteres Argument wird uns auch in Kapitel 8, insbesondere den Abschnitten 8.2-
8.5 wieder begegnen. Beruht die A-priori-Information, wie im Beispiel aus Abschnitt
6.1.3, auf rein subjektiver Einsch¨
atzung, die als hypothetische Stichprobe modelliert
ist, so ist zus¨
atzlich eine eindeutige Gewichtung der A-priori-Information bei der Kom-
bination zur A-posteriori-Information unrealistisch, es ist also auch der hypothetische
Stichprobenumfang der A-priori-Information realistischerweise als unscharfe Gr¨
oße zu
modellieren.
Man geht aus von einem parametrischen stochastischen Modell X
P
, zu dem (.)
eine A-priori-Verteilung aus einer konjugierten Verteilungsfamilie ist. Es kann aber nur
eine verteilungstreue Fuzzy-Perzeption ~
X von X beobachtet werden, da eine scharfe
22
Vgl. Viertl (2002a), S. 108, Viertl (2003), S. 202.

174
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Messung nicht m¨
oglich ist. Anstelle einer scharfen Zufallsvariablen
ist somit der Ver-
teilungsparameter der unscharfen Stichprobenvertelung ebenfalls a priori eine Fuzzy-
Zufallsvariable ~
, deren Verteilung auf dem Parameterraum bereits a priori nur
durch eine unscharfe A-priori-Verteilung ~
() beschrieben werden kann.
23
Geht man
wiederum aus von einer stetigen A-priori-Verteilung (.) = f (.
| ) mit Hyperpara-
meter , so kann im unscharfen Fall die unscharfe A-priori-Verteilung beschrieben
werden durch den unscharfen Hyperparameter ~
und die unscharfe A-priori-Dichte
~
(.) = ~
f (.
|~ ).
24
Wiederum wird die Darstellungsform als Fuzzy-Schar von A-priori-Verteilungen
~
~
(.) =
~~
f (.
|~ ) gew¨ahlt mit
~
~
(.)
((.)) =
~~
f (.
|~ )
(f (.
| )) =
~
( ),
(6.27)
woraus wiederum die fuzzifizierende A-priori-Verteilung ~
(.) = ~
f (.
|~ ) f¨ur abge-
leitet werden kann durch
~
()
(q) =
~
f (
|~ )
(q) =
sup
(.)supp(~
~
(.)):
()=q
~
~
(.)
((.)) =
sup
supp(~
):
f (| )=q
~
( )
(6.28)
mit den -Niveaukurven
25
(.) und
(.), die f¨
ur
gegeben sind durch
() = f
(
|~ ) = inf
k
f (
| )
() = f
(
|~ ) = sup
k
f (
| ).
(6.29)
Begleitendes Beispiel: Ausgangspunkt ist die Zufallsvariable
, die den Verteilungs-
parameter einer Poisson-verteilten Zufallsvariablen X beschreibt,
besitze (als zur
Poisson-Verteilung konjugierte Verteilung) eine Gamma-Verteilung. Es sind aber nur
Fuzzy-Perzeptionen ~
X von X verf¨
ugbar, so dass auch der Verteilungsparameter ~
nur
durch eine Fuzzy-Zufallsvariable beschrieben werden kann. Außerdem kann aufgrund
des subjektiven Charakters der A-priori-Verteilung nur ein subjektives Gewicht der
Priorinformation angeben werden. Bezeichnet man mit ¯
x
IN
0
die a priori angenom-
mene durchschnittliche Ereignisananzahl im klasssischen Fall, und mit
¯
~
A
F(IN
0
)
die a priori angenommene durchschnittliche unscharfe Ereignisanzahl, sowie mit ~
b
F(IN
0
) das unscharfe Gewicht, d.h. den unscharfen hypothetischen Stichprobenumfang,
der A-priori-Information, so erh¨
alt man als A-priori-Information eine unscharfe Gam-
maverteilung mit den unscharfen Parametern ~
a =
¯
~
A
~
b
#
F(IN
0
), (~
b )
-1
F(IN
0
),
b
#
= b . Dies ergibt die Fuzzy-Schar von Gammaverteilungen, die auf IR gegeben ist
durch
~
~
() =
~~
f
(
|~a ,~b
-1
) =
~~
f
(
|
¯
~
A
~
b
#
, ~
b
-1
)
|
{b
#
=b
}
=
f
(
|¯x · b
#
,
1
b
), min
{
¯
~
A
( ¯
x ),
~
b
(b ), 1
{b }
(b
#
)
} (¯x , b
#
, b )
(IN
0
)
3
=
f
(
|¯x · b ,
1
b
),
¯
~
A
~b
x , b )
x , b )
supp(
¯
~
A )
× supp(~b )
=
b
¯
x ·b
·
¯
x ·b -1
·e
-b
x
·b )
·1
(0,
)
(),
¯
~
A
~b
x , b ) (¯
x , b )
supp(
¯
~
A )
×supp(~b ) .
(B.6.18)
23
Vgl. Viertl (1996), S. 155
24
Vgl. Viertl (1996), S. 156 ff., Viertl (1997), S. 567 f.
25
Viertl definiert unscharfe A-priori-Verteilungen ausschließlich aufgrund ihrer -Niveaukurven, vgl.
Viertl (1996), S. 156 ff., Viertl (2002a), S. 109, Viertl (2003), S. 203, Viertl / Hareter (2006), S. 89.

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
175
Soll aus dieser Fuzzy-Schar eine fuzzifizierende Funktion abgeleitet werden, so ist diese
ur
(0, ) gegeben durch ihre Zugeh¨origkeitsfunktion f¨ur q IR
+
~
()
(q) =
~
f
(
|
¯
~
A
~
b
#
,~
b
-1
)
|
{b#=b }
(q)
=
sup
x ,b )supp(
¯
~
A )
×supp(~b ):
f(|¯
x ·b ,
1
b
)=q
min
¯
~
A
x ),
~
b
(b )
=
sup
x ,b )supp(
¯
~
A )
×supp(~b ):
b ¯
x ·b ·¯
x ·b -1·e-b
x ·b )
·1(0,)()=q
min
¯
~
A
x ),
~
b
(b ) .
(B.6.19)
Die oberen -Niveaukurven der fuzzifizierenden A-priori-Gammaverteilung mit konve-
xen unscharfen Parametern co ~
(.) = ~
f
(.
|co (
¯
~
A
~
b
#
), co (~
b
-1
))
|
{b
#
=b
}
= ~
f
(.
|co
¯
~
A
co ~
b
#
, (co ~
b )
-1
)
|
{b
#
=b
}
erh¨
alt man durch Differenzieren nach ¯
x und nach b und Null-
setzen der ersten Ableitung.
Es ist f¨
ur festes b
¯
x
f
(
|b ¯x ,
1
b
) =
¯
x
b
b ¯
x
·
b ¯
x -1
·e
-b
(b ¯
x )
=
b
b ¯
x
·b ·ln b ·
b ¯
x -1
·e
-b
+b
b ¯
x
·b ·ln ·
b ¯
x -1
·e
-b
-b
b ¯
x
·b ·b ¯x
-
1
·e
-b
·(b ¯x )
(b ¯
x )
=
b
b ¯
x
·
b ¯
x -1
·e
-b
(b ¯
x )
· b · (ln(b ) - (b ¯x ))
!
= 0
¯x =
1
b
·
-1
(ln(b )).
Dieses Maximum wird nur erreicht f¨
ur b = b
bei
1
b
· e
(b
¯
a
)
,
1
b
· e
(b
¯
a
)
.
ur gegebenes ¯
x ist
b
f
(
|b ¯x ,
1
b
) =
b
b
b ¯
x
·
b ¯
x -1
·e
-b
(b ¯
x )
=
b
b ¯
x
·(¯x ·ln b +¯x )·
b ¯
x -1
·e
-b
+b
b ¯
x
·¯x ·ln ·
b ¯
x -1
·e
-b
-b
b ¯
x
·b ·b ¯x
-
1
·e
-b
·-b
b ¯
x
·¯x ·b ¯x
-
1
·e
-b
·(b ¯x )
(b ¯
x )
=
b
b ¯
x
·
b ¯
x -1
·e
-b
(b ¯
x )
· ¯x · ln b + 1 + ln -
¯
x
- (b ¯x )
!
= 0
(b ¯x ) - ln(b ¯x ) = ln
¯
x
-
¯
x
+ 1 = 0
b =
1
¯
x
· ( - ln)
-1
ln
¯
x
-
¯
x
+ 1 .
Dieses Maximum wird f¨
ur ¯
x = ¯
a
nur erreicht bei
¯a
·(id-ln)
-1
(ln(b
¯
a
)
-(b
¯
a
)+1), ¯
a
·(id-ln)
-1
(ln(b
¯
a
)
-(b
¯
a
)+1) ,
und f¨
ur ¯
x = ¯
a
bei
¯a
·(id-ln)
-1
(ln(b
¯
a
)
-(b
¯
a
)+1), ¯
a
·(id-ln)
-1
(ln(b
¯
a
)
-(b
¯
a
)+1) .
Zur Berechnung der unteren -Niveaukurven von ~
f
(.
|co
¯
~
A
co ~
b
#
, (co ~
b )
-1
)
|
{b
#
=b
}
sind die Schnittpunkte f
(.
|b
¯
a
,
1
b
)
f
(.
|b
¯
a
,
1
b
), f
(.
|b
¯
a
,
1
b
)
f
(.
|b
¯
a
,
1
b
)
und f
(.
|b
¯
a
,
1
b
)
f
(.
|b
¯
a
,
1
b
) bzw. gegebenenfalls f
(.
|b
¯
a
,
1
b
)
f
(.
|b
¯
a
,
1
b
)
bzw. f
(.
|b
¯
a
,
1
b
)
f
(.
|b
¯
a
,
1
b
) f¨
ur
(0, 1] zu bestimmen. Es gilt:
b
b ¯
a
·
b ¯
a -1
·e
-b
(b ¯
a )
=
b
b ¯
a
·
b ¯
a -1
·e
-b
(b ¯
a )
b (¯
a
-¯a )
= b
-b (¯a -¯a )
·
(b ¯
a )
(b ¯
a )

176
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
= b
-b (¯a -¯a )
·
(b ¯
a )
(b ¯
a )
1
b (¯
a -¯
a )
und
b
b ¯
x
·
b ¯
x -1
·e
-b
(b ¯
x )
=
b
b ¯
x
·
b ¯
x -1
·e
-b
(b ¯
x )
(b
-b )¯x
· e
-(b -b )
=
b
b
b
b
-x
·
(b ¯
x )
(b ¯
x )
¯
x
· e
-
= b
b ¯
x
b -b
· b
-b ¯
x
b -b
·
(b ¯
x )
(b ¯
x )
1
b ¯
x -b
¯x ln - =
b ¯
x
b
-b
ln b
-
b ¯
x
b
-b
ln b +
ln (b ¯
x )
-ln (b ¯x )
b
-b
=
(ln
-
id
¯
x
)
-1
1
b
-b
· b ln b - b ln b +
ln (b ¯
x )
-ln (b ¯x )
¯
x
(ln
-
id
¯
x
)
-1
1
b
-b
· b ln b - b ln b +
ln (b ¯
x )
-ln (b ¯x )
¯
x
bzw.
b
b ¯
a
·
b ¯
a -1
·e
-b
(b ¯
a )
=
b
b ¯
a
·
b ¯
a -1
·e
-b
(b ¯
a )
b ¯
a
-b ¯a
· e
-(b -b )
=
b
b ¯
a
b
b ¯
a
·
(b ¯
a )
(b ¯
a )
(b ¯a - b ¯a ) ln - (b - b ) = b ¯a ln b - b ¯a ln b + ln (b ¯a ) - ln (b ¯a )
=
(ln
-
b
-b
b ¯
a
-b ¯a
id)
-1
b ¯
a
b ¯
a
-b ¯a
ln b
-
b ¯
a
b ¯
a
-b ¯a
ln b +
ln (b ¯
a )
-ln (b ¯a )
b ¯
a
-b ¯a
(ln
-
b
-b
b ¯
a
-b ¯a
id)
-1
b ¯
a
b ¯
a
-b ¯a
ln b
-
b ¯
a
b ¯
a
-b ¯a
ln b +
ln (b ¯
a )
-ln (b ¯a )
b ¯
a
-b ¯a
.
Somit erh¨
alt man die -Niveaukurven von co ~
(.) = ~
f
(.
|co
¯
~
A
co ~
b
#
, (co ~
b )
-1
)
|
{b
#
=b
}
.
Es lauten die unteren -Niveaukurven f
(.
|co
¯
~
A
co ~
b
#
, (co ~
b )
-1
)
|
{b
#
=b
}
:
f
(
|co
¯
~
A
co ~
b
#
, (co ~
b )
-1
)
|
{b
#
=b
}
=
0
ur
- < 0
b
b ¯
a
·
b ¯
a -1
·e
-b
(b
¯
a
)
ur 0 <
(ln
-
id
¯
a
)
-1
1
b
-b
· b
ln b
-b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
b
b ¯a
·
b ¯a -1
·e
-b
(b
¯
a
)
ur
(ln
-
id
¯
a
)
-1
1
b
-b
· b
ln b
-b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
<
b
-b
a
-¯a
)
·
(b
¯
a
)
(b
¯
a
)
1
b (¯a -¯a )
b
b ¯a
·
b ¯a -1
·e
-b
(b
¯
a
)
ur
b
-b
a
-¯a
)
·
(b
¯
a
)
(b
¯
a
)
1
b (¯a -¯a )
< <
(ln
-
id
¯
a
)
-1
1
b
-b
· b
ln b
-b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
b
b ¯
a
·
b ¯
a -1
·e
-b
(b
¯
a
)
ur
(ln
-
id
¯
a
)
-1
1
b
-b
· b
ln b
-b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
< ,
(B.6.20)
falls

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
177
(ln
-
id
¯
a
)
-1
1
b
-b
· b
ln b
- b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
< b
-b
a
-¯a
)
·
(b
¯
a
)
(b
¯
a
)
1
b (¯a -¯a )
< (ln
-
id
¯
a
)
-1
1
b
-b
· b
ln b
- b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
bzw.
f
(
|co
¯
~
A
co ~
b
#
, (co ~
b )
-1
)
|
{b
#
=b
}
=
0
ur
- < 0
b
b ¯
a
·
b ¯
a -1
·e
-b
(b
¯
a
)
ur 0 <
(ln
-
(b
-b
)id
b
¯
a
-b
¯
a
)
-1
b
¯
a
ln b
b
¯
a
-b
¯
a
-
b
¯
a
ln b
b
¯
a
-b
¯
a
+
ln (b
¯
a
)
-ln (b
¯
a
)
b
¯
a
-b
¯
a
b
b ¯a
·
b ¯a -1
·e
-b
(b
¯
a
)
ur
(ln
-
(b
-b
)id
b
¯
a
-b
¯
a
)
-1
b
¯
a
ln b
b
¯
a
-b
¯
a
-
b
¯
a
ln b
b
¯
a
-b
¯
a
+
ln (b
¯
a
)
-ln (b
¯
a
)
b
¯
a
-b
¯
a
< <
(ln
-
id
¯
a
)
-1
1
b
-b
· b
ln b
-b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
b
b ¯
a
·
b ¯
a -1
·e
-b
(b
¯
a
)
ur
(ln
-
id
¯
a
)
-1
1
b
-b
· b
ln b
-b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
< ,
(B.6.21)
falls (ln
-
b
-b
b
¯
a
-b
¯
a
id)
-1
b
¯
a
b
¯
a
-b
¯
a
ln b
-
b
¯
a
b
¯
a
-b
¯
a
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
b
¯
a
-b
¯
a
(ln -
id
¯
a
)
-1
1
b
-b
· b
ln b
- b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
< (ln
-
id
¯
a
)
-1
1
b
-b
· b
ln b
- b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
bzw.
f
(
|co
¯
~
A
co ~
b
#
, (co ~
b )
-1
)
|
{b
#
=b
}
=
0
ur
- < 0
b
b ¯
a
·
b ¯
a -1
·e
-b
(b
¯
a
)
ur 0 <
b
-b
a
-¯a
)
·
(b
¯
a
)
(b
¯
a
)
1
b (¯
a -¯
a )
b
b ¯
a
·
b ¯
a -1
·e
-b
(b
¯
a
)
ur
b
-b
a
-¯a
)
·
(b
¯
a
)
(b
¯
a
)
1
b (¯
a -¯
a )
< <
.
(B.6.22)
falls
b
-b
a
-¯a
)
·
(b
¯
a
)
(b
¯
a
)
1
b (¯
a -¯
a )
(ln -
b
-b
b
¯
a
-b
¯
a
id)
-1
b
¯
a
b
¯
a
-b
¯
a
ln b
-
b
¯
a
b
¯
a
-b
¯
a
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
b
¯
a
-b
¯
a

178
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(ln -
id
¯
a
)
-1
1
b
-b
· b
ln b
- b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
.
Die oberen -Niveaukurven f
(.
|co
¯
~
A
co ~
b
#
, (co ~
b )
-1
)
|
{b
#
=b
}
lauten:
f
(
|co
¯
~
A
co ~
b
#
, (co ~
b )
-1
)
|
{b
#
=b
}
=
0
ur
- < 0
b
b ¯a
·
b ¯a -1
·e
-b
(b
¯
a
)
ur 0 < < ¯
a
· (id - ln)
-1
(ln(b
¯
a
)
- (b
¯
a
) + 1)
1
¯
a
·(-ln)
-1
ln
¯
a
-
¯
a
+1
(
-ln)-1 ln
¯
a
-
¯
a
+1
·
(
-ln)-1 ln
¯
a
-
¯
a
+1
·e
-(-ln)-1 ln
¯
a
-
¯
a
+1
·
¯
a
(
-ln)
-1
ln
¯
a
-
¯
a
+1
ur ¯
a
· (id - ln)
-1
(ln(b
¯
a
)
- (b
¯
a
) + 1)
¯a
· (id - ln)
-1
(ln(b
¯
a
)
- (b
¯
a
) + 1)
b
b ¯
a
·
b ¯
a -1
·e
-b
(b
¯
a
)
ur ¯
a
· (id - ln)
-1
(ln(b
¯
a
)
- (b
¯
a
) + 1) <
<
1
b
· e
(b
¯
a
)
b
-1(ln(
b ))
·
-1(ln(b ))-1
·e
-b
(
-1
(ln(b
)))
ur
1
b
· e
(b
¯
a
)
1
b
· e
(b
¯
a
)
b
b ¯
a
·
b ¯
a -1
·e
-b
(b
¯
a
)
ur
1
b
· e
(b
¯
a
)
< <
¯
a
· (id - ln)
-1
(ln(b
¯
a
)
- (b
¯
a
) + 1)
1
¯
a
·(-ln)
-1
ln
¯
a
-
¯
a
+1
(
-ln)-1 ln
¯
a
-
¯
a
+1
·
(
-ln)-1 ln
¯
a
-
¯
a
+1
·e
-(-ln)-1 ln
¯
a
-
¯
a
+1
·
¯
a
(
-ln)
-1
ln
¯
a
-
¯
a
+1
ur ¯
a
· (id - ln)
-1
(ln(b
¯
a
)
- (b
¯
a
) + 1)
¯a
· (id - ln)
-1
(ln(b
¯
a
)
- (b
¯
a
) + 1)
b
b ¯a
·
b ¯a -1
·e
-b
(b
¯
a
)
ur ¯
a
· (id - ln)
-1
(ln(b
¯
a
)
- (b
¯
a
) + 1) < <
(B.6.23)
Sollen die -Niveaukurven von co ~
(.) = co ~
f
(.
|
¯
~
A
~
b
#
, ~
b
-1
)
|
{b
#
=b
}
ur nicht kon-
vexe Parameter
¯
~
A und ~
b bestimmt werden, so m¨
ussen zur Bestimmung der oberen -
Niveaukurven noch die Schnittpunkte f
(.
|b
¯
a
,
1
b
)
f
(.
|b
¯
a
,
1
b
), f
(.
|b
¯
a
,
1
b
)
f
(.
|b
¯
a
>
,
1
b
), f
(.
|b
¯
a
>
,
1
b
)
f
(.
|b
¯
a
,
1
b
) und f
(.
|b
¯
a
,
1
b
)
f
(.
|b
¯
a
,
1
b
)
berechnet werden. Die Berechnung erfolgt analog zu den Schnittpunkten f¨
ur die unteren

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
179
-Niveaukurven. Die unteren -Niveaukurven von co ~
f
(.
|
¯
~
A
~
b
#
, ~
b
-1
)
|
{b
#
=b
}
stimmen
mit denen von ~
f
(.
|co
¯
~
A
co ~
b
#
, (co ~
b )
-1
)
|
{b
#
=b
}
nach (B.6.20)-(B.6.22) ¨
uberein. Somit
erh¨
alt man die -Niveaukurven von co ~
f
(.
|
¯
~
A
~
b
#
, ~
b
-1
)
|
{b
#
=b
}
:
f
(
|
¯
~
A
~
b
#
, ~
b
-1
)
|
{b
#
=b
}
= f
(
|co
¯
~
A
co ~
b
#
, (co ~
b )
-1
)
f
(
|
¯
~
A
~
b
#
, ~
b
-1
)
|
{b
#
=b
}
=
0
ur
- < 0
b
b ¯a
·
b ¯a -1
·e
-b
(b
¯
a
)
ur 0 <
(ln
-
id
¯
a
)
-1
1
b
-b
· b
ln b
-b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
b
b ¯
a
·
b ¯
a -1
·e
-b
(b
¯
a
)
ur
(ln
-
id
¯
a
)
-1
1
b
-b
· b
ln b
-b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
<
b
-b
a
1()
-¯a
)
·
(b
¯
a
1()
)
(b
¯
a
)
1
b (¯
a
1()
-¯a )
b
b ¯
a
j()
·
b ¯
a
j()
-1
·e
-b
(b
¯
a
j()
)
ur
b
-b
a
j()
-¯a
(j-1)()
)
·
(b
¯
a
j()
)
(b
¯
a
(j-1)()
)
1
b (¯
a
j()
-¯a
(j-1)()
)
<
< b
-b
a
(j+1)()
-¯a
j()
)
·
(b
¯
a
(j+1)()
)
(b
¯
a
j()
)
1
b (¯
a
(j+1)()
-¯a
j()
)
ur j() = 1(), ..., (k
- 1)(),
¯
a
= ¯
a
0()
< ¯
a
1()
< ... < ¯
a
(k
-1)()
< ¯
a
k()
= ¯
a
,
k()
j()=0()
{¯a
j()
} = ¯A
b
b ¯
a
·
b ¯
a -1
·e
-b
(b
¯
a
)
ur
b
-b
a
-¯a
(k-1)()
)
·
(b
¯
a
)
(b
¯
a
(k-1)()
)
1
b (¯
a -¯
a
(k-1)()
)
<
(ln
-
id
¯
a
)
-1
1
b
-b
· b
ln b
-b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
b
b ¯a
·
b ¯a -1
·e
-b
(b
¯
a
)
ur
(ln
-
id
¯
a
)
-1
1
b
-b
· b
ln b
-b
ln b
+
ln (b
¯
a
)
-ln (b
¯
a
)
¯
a
< .
(B.6.24)
Begleitendes numerisches Beispiel: Es liegt die unscharfe A-priori-Information vor,
dass die Anzahl der Flutwellen kritischer H¨
ohe
¯
~
A =
1
0.6
9
10
betr¨
agt. Dieser unscharfen
A-priori-Information wird das unscharfe Gewicht von ~
b =
0.8
1
1
2
beigemessen. Diese
unscharfe A-priori-Information l¨
asst sich beschreiben durch die folgende Fuzzy-Schar

180
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
von A-priori-Gammadichten:
~
~
() =
8
·e
-
8!
· 1
(0,
)
(), 0.8 ,
9
·e
-
9!
· 1
(0,
)
(), 0.6 ,
2
18
·
17
·e
-2
17!
· 1
(0,
)
(), 1 ,
2
20
·
18
·e
-2
19!
· 1
(0,
)
(), 0.6
(N.6.4)
Abbildung 6.4: Fuzzy-Schar von A-priori-Gammadichtefunktionen
Zur Bestimmung der konvexparametrigen fuzzifizierenden A-priori-Gammadichte ~
(.) =
~
f
(.
|co
¯
~
A
co ~
b
#
, (co ~
b )
-1
)
|
{b
#
=b
}
ussen f¨
ur die Berechnung der oberen -Niveaukurven
die Werte ¯
a
·(id-ln)
-1
(ln(b
¯
a
)
-(b
¯
a
)+1), ¯
a
·(id-ln)
-1
(ln(b
¯
a
)
-(b
¯
a
)+1),
¯
a
·(id-ln)
-1
(ln(b
¯
a
)
-(b
¯
a
) + 1) und ¯
a
·(id-ln)
-1
(ln(b
¯
a
)
-(b
¯
a
) + 1),
sowie
1
b
· e
(b
¯
a
)
und
1
b
· e
(b
¯
a
)
ur
{0.6, 0.8, 1} bestimmt werden. Es ist
9
·(id-ln)
-1
(ln(9)
-(9)+1) = 6.3019, 18·(id-ln)
-1
(ln(18)
-(18)+1) = 7.0337,
10
·(id-ln)
-1
(ln(10)
-(10)+1) = 7.1411, 20·(id-ln)
-1
(ln(20)
-(20)+1) = 7.9149,
9
·(id-ln)
-1
(ln(9)
-(9)+1) = 12.3762, 18·(id-ln)
-1
(ln(18)
-(18)+1) = 11.3025,
10
·(id-ln)
-1
(ln(10)
-(10)+1) = 13.5360, 20·(id-ln)
-1
(ln(20)
-(20)+1) = 12.4165,
e
(9)
= 8.5049, e
(10)
= 9.5044,
1
2
e
(18)
= 8.7512,
1
2
e
(9)
= 9.7511.
ur die Berechnung der unteren -Niveaukurven m¨
ussen f¨
ur
{0.6, 0.8, 1} die Werte
(b
-b
a
-¯a
)
·(b
¯
a
)/(b
¯
a
))
1
b (¯
a -¯
a )
, (ln
-
id
¯
a
)
-1
(
1
b
-b
·(b
ln b
-b
ln b
+
(ln (b
¯
a
)
-ln (b
¯
a
))/¯
a
)), (ln
-
id
¯
a
)
-1
(
1
b
-b
·(b
ln b
-b
ln b
+(ln (b
¯
a
)
-
ln (b
¯
a
))/¯
a
)), (ln
-
id
¯
a
)
-1
(
1
b
-b
·(b
ln b
-b
ln b
+(ln (b
¯
a
)
-ln (b
¯
a
))/¯
a
))
und (ln
-
id
¯
a
)
-1
(
1
b
-b
·(b
ln b
-b
ln b
+(ln (b
¯
a
)
-ln (b
¯
a
))/¯
a
)) ermittelt
werden. Es ist
(ln
-
id
9
)
-1
((
-2 ln 2+
ln(17!)
-ln(8!)
9
)) = 6.7142, (ln
-
id
10
)
-1
((
-2 ln 2+
ln(19!)
-ln(9!)
10
)) = 7.5799,
(ln
-
id
9
)
-1
((
-2 ln 2+
ln(17!)
-ln(8!)
9
)) = 11.7537,
9!
8!
= 9,

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
181
und somit ist
ur 0 <
0.6:
() =
0
ur
- < 0
2
20
·
19
·e
-2
19!
ur 0 <
7.5799
9
·e
-
9!
ur 7.5799 <
9
8
·e
-
8!
ur 9 <
11.7537
2
18
·
17
·e
-2
17!
ur 11.7537 < <
() =
0
ur
- < 0
8
·e
-
8!
ur 0 <
6.3019
(
1
9
·(-ln)
-1
(ln
9
-
9
+1))
(
-ln)-1(ln
9 -
9
+1)
·
(
-ln)-1(ln
9 -
9
+1)
-1
·e
- 1
9 ·
(
-ln)-1(ln
9 -
9
+1)
·
(
-ln)
-1
(ln
9
-
9
+1)!
ur 6.3019 <
7.0337
2
18
·
17
·e
-2
17!
ur 7.0337 <
8.7512
2
1(ln(2))
·
1(ln(2))-1
·e
-2
(
1
(ln(2))1)!
ur 8.7512 <
9.7511
2
20
·
19
·e
-2
19!
ur 9.7511 <
12.4165
(
1
10
·(-ln)
-1
(ln
10
-
10
+1))
(
-ln)-1(ln
10 -
10
+1)
·
·
(
-ln)-1(ln
10 -
10
+1)
-1
·e
- 1
10 ·
(
-ln)-1(ln
10 -
10
+1)
·
(
-ln)
-1
(ln
10
-
10
+1)!
ur 12.4165 <
13.5360
9
·e
-
9!
ur 13.5360 < <
ur 0.6 <
0.8:
() =
0
ur
- < 0
2
18
·
17
·e
-2
17!
ur 0 <
6.7142
8
·e
-
8!
ur 6.7142 <
11.7537
2
18
·
17
·e
-2
17!
ur 11.7537 < <
() =
0
ur
- < 0
8
·e
-
8!
ur 0 <
6.3019
(
1
9
·(-ln)
-1
(ln
9
-
9
+1))
(
-ln)-1(ln
9 -
9
+1)
·
(
-ln)-1(ln
9 -
9
+1)
-1
·e
- 1
9 ·
(
-ln)-1(ln
9 -
9
+1)
·
(
-ln)
-1
(ln
9
-
9
+1)!
ur 6.3019 <
7.0337
2
18
·
17
·e
-2
17!
ur 7.0337 <
11.3025
(
1
9
·(-ln)
-1
(ln
9
-
9
+1))
(
-ln)-1(ln
9 -
9
+1)
·
·
(
-ln)-1(ln
9 -
9
+1)
-1
·e
- 1
9 ·
(
-ln)-1(ln
9 -
9
+1)
·
(
-ln)
-1
(ln
9
-
9
+1)!
ur 11.3025 <
12.3762
8
·e
-
8!
ur 13.5360 < <
ur 0.8 <
1:
()
=
()
=
0
ur
- < 0
2
18
·
17
·e
-2
17!
ur 0 < <
Sollen die -Niveaukurven der fuzzifizierenden A-priori-Gammadichte mit nicht-konvexen
Parametern bestimmt werden, so ist f¨
ur die Ermittlung der oberen -Niveaukurven
zus¨
atzlich die Bestimmung der Schnittpunkte

182
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Abbildung 6.5: -Niveaukurven der konvex-fuzzifizierenden A-priori-Gammadichte
(ln
-
id
10
)
-1
((
-2 ln 2+
ln(19!)
-ln(9!)
10
)) = 12.8873,
2
-2
·
19!
17!
1
2
=
19
·9
2
= 9.2466
erforderlich. Es ist
ur 0 <
0.6:
() =
0
ur
- < 0
2
20
·
19
·e
-2
19!
ur 0 <
7.5799
9
·e
-
9!
ur 7.5799 <
9
8
·e
-
8!
ur 9 <
11.7537
2
18
·
17
·e
-2
17!
ur 11.7537 < <
() =
0
ur
- < 0
8
·e
-
8!
ur 0 <
6.7142
2
18
·
17
·e
-2
17!
ur 6.1742 <
9.2466
2
20
·
19
·e
-2
19!
ur 9.2466 <
12.8873
9
·e
-
9!
ur 13.5360 < <
ur 0.6 <
0.8:
() =
0
ur
- < 0
2
18
·
17
·e
-2
17!
ur 0 <
6.7142
8
·e
-
8!
ur 6.7142 <
11.7537
2
18
·
17
·e
-2
17!
ur 11.7537 < <
() =
0
ur
- < 0
8
·e
-
8!
ur 0 <
6.7142
2
18
·
17
·e
-2
17!
ur 6.7142 <
11.7537
8
·e
-
8!
ur 11.7537 < <

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
183
ur 0.8 <
1:
()
=
()
=
0
ur
- < 0
2
18
·
17
·e
-2
17!
ur 0 < <
Abbildung 6.6: -Niveaukurven der fuzzifizierenden A-priori-Gammadichte
Soll die unscharfe A-priori-Information mit der Stichprobeninformation kombiniert
werden, so geht man zuerst zur Demonstration der Vorgangsweise von scharfen Daten
(x
1
, ..., x
n
) einer scharfen Stichprobe (X
1
, ..., X
n
) der Zufallsvariablen X aus.
26
Man
er¨
alt dann eine unscharfe A-posteriori-Verteilung ~
(.
|x
1
, ..., x
n
) bzw. eine Fuzzy-Schar
von A-posteriori-Verteilungen ~
~
(.
|x
1
, ..., x
n
). Im Fall der Existenz einer suffizienten
Statistik s(x
1
, ..., x
n
) nach Abschnitt 6.1.2 zur Repr¨
asentation der Stichprobeninfor-
mation l¨
asst sich wiederum
x
1
,...,x
n
leicht aus s(x
1
, ..., x
n
) bestimmen. Analog zu
(6.23) erh¨
alt man den unscharfen Parameter ~
der unscharfen A-posteriori-Verteilung
~
(.
|x
1
, ..., x
n
) = ~
f (.
|~ ) durch
~
:= ~
.
(6.30)
Die Fuzzy-Schar von konjugierten A-posteriori-Verteilungen lautet dann
~
~
(.
|x
1
, ..., x
n
) =
~~
f (.
|~ ) = {(f(.| ),
~
( ))
| supp(~ )}
=
{(f(.| +
x
1
,...,x
n
),
~
( ))
| supp(~ )} ,
(6.31)
woraus dann f¨
ur
die fuzzifizierende A-posteriori-Verteilung abgeleitet werden
kann durch
~
(
|x
1
,...,x
n
)
(q) =
~
f (
|~ )
(q) =
sup
(.|x1,...,xn)supp(~
~
(.|x1,...,xn)):
(|x1,...,xn)=q
~
~
(.
|x
1
,...,x
n
)
((.
|x
1
, ..., x
n
))
=
sup
supp(~
):
f (| )=q
~
( ) =
sup
supp(~
):
f (| +x1,...,xn )=q
~
( ),
(6.32)
26
Vgl. Viertl (1996), S. 161, Viertl (2002a), S. 109 f.

184
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
mit den -Niveaukurven f¨
ur
(
|x
1
, ..., x
n
) = f
(
|~
x
1
,...,x
n
) = inf
k
f (
| + )
(
|x
1
, ..., x
n
) = f
(
|~
x
1
,...,x
n
) = sup
k
f (
| + ).
(6.33)
Begleitendes Beispiel: F¨
ur eine Poisson-verteilte Zufallsvariable X, liegt die unschar-
fe A-priori-Information vor, die unscharfe durchschnittliche Ereignisanzahl betr¨
agt
¯
~
A ,
dieser unscharfen Information wird das unscharfe Gewicht eines unscharfen Stichpro-
benumfangs von ~
b beigemessen. Eine Stichprobe vom Umfang n liefert die scharfen
Daten (x
1
, ..., x
n
). Die unscharfe A-posteriori-Information kann dann beschreiben wer-
den durch eine unscharfe invertierte Gammaverteilung mit den unscharfen Parametern
~
a =
¯
~
A
~
b
#
n
i=1
x
i
F(IN
0
), (~
b
n)
-1
F(IN
0
), b
#
= b . Dies ergibt die Fuzzy-
Schar von Gammaverteilungen f¨
ur
IR gegeben durch
~
~
(
|x
1
, ..., x
n
) =
~~
f
(
|~a ,~b
-1
) =
~~
f
(
|
¯
~
A
~
b
#
n
i=1
x
i
, (~
b
n)
-1
)
|
{b
#
=b
}
=
f
(
|¯x · b
#
+
n
i=1
x
i
,
1
b +n
), min
{
¯
~
A
( ¯
x ),
~
b
(b ), 1
{b }
(b
#
)
}
x , b
#
, b )
(IN
0
)
3
=
f
(
|¯x +
n
i=1
x
i
· b +
n
i=1
x
i
,
1
b +n
),
¯
~
A
~b
x , b )
x , b )
supp(
¯
~
A )
× supp(~b )
=
(b +n)
¯
x ·b +n
i=1xi
·
¯
x ·b +n
i=1xi-
1
·e
-(b +n)
x
·b +
n
i=1
x
i
)
· 1
(0,
)
(),
¯
~
A
~b
x , b )
x , b )
supp(
¯
~
A )
× supp(~b ) .
(B.6.25)
Soll aus dieser Fuzzy-Schar eine fuzzifizierende Funktion abgeleitet werden, so ist diese
ur
IR gegeben durch ihre Zugeh¨origkeitsfunktion f¨ur q IR
+
~
(
|x
1
,...,x
n
)
(q) =
~
f
(
|
¯
~
A
~
b
#
n
i=1
x
i
,(~
b
n)
-1
)
|
{b#=b }
(q)
=
sup
x ,b )supp(
¯
~
A )
×supp(~b ):
f(|¯
x ·b +
n
i=1
xi,
1
b +n
)=q
min
¯
~
A
x ),
~
b
(b )
=
sup
x ,b )supp(
¯
~
A )
×supp(~b ):
(b +n)
¯
x ·b +n
i=1
xi ·¯x ·b +
n
i=1
xi-1·e-(b +n)
x ·b +
n
i=1
xi)
·1(0,)()=q
min
¯
~
A
x ),
~
b
(b ) .
(B.6.26)
Die -Niveaukurven der fuzzfizierenden A-posteriori-Gammadichte mit konvexen oder
nicht-konvexen Parametern k¨
onnen analog zu denen der fuzzifizierenden A-priori-Gam-
madichte bestimmt werden, indem in (B.6.20)-(B.6.24) jeweils b
durch b
+ n, b
durch b
+ n, ¯
a
durch
b
¯
a
+
n
i=1
x
i
b
+n
und ¯
a
durch
b
¯
a
+
n
i=1
x
i
b
+n
ersetzt werden.
Ein alternativer Ansatz zur Kombination von unscharfen A-priori-Verteilungen mit
Stichprobeninformation wurde von Viertl und Hareter vorgeschlagen.
27
Viertl geht von
den -Niveaukurven
(.),
(.),
(0, 1], der unscharfen A-priori-Verteilung ~(.)
27
Vgl. Viertl / Hareter (2004a), S. 269 f.

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
185
aus. Bei Vorliegen der exakten Likelihood-Funktion (.
|x
1
, ..., x
n
) aufgrund der exakten
Daten (x
1
, ..., x
n
) werden die -Niveaukurven
V
(.
|x
1
, ..., x
n
) und
V
(.
|x
1
, ..., x
n
) der
unscharfen A-posteriori-Verteilung ~
V
(.
|x
1
, ..., x
n
) definiert durch:
V
(
|x
1
, ..., x
n
) =
()
· (|x
1
,...,x
n
)
1
2
[
()+
()
]
· (|x
1
,...,x
n
)d
V
(
|x
1
, ..., x
n
) =
()
· (|x
1
,...,x
n
)
1
2
[
()+
()
]
· (|x
1
,...,x
n
)d
ur
, (0, 1]. Diese Definition ist geeignet f¨ur sequentielles Aktualisieren der
Information bei wiederholter Anwendung des Bayes'schen Theorems, denn es kann
gezeigt werden, dass man f¨
ur ~
V
(.
|x
1
, x
2
) dasselbe Ergebnis erh¨
alt, unabh¨
angig davon,
ob die A-priori-Dichte ~
(.) und die Stichprobeninformtation (x
1
, x
2
) vorliegen, oder ob
die A-priori-Dichte ~
V
(.
|x
1
) und die Stichprobeninformation x
2
vorliegen:
28
V
(
|x
1
, x
2
) =
V
(
|x
1
)
· (|x
2
)
1
2
[
V
(
|x
1
)+
V
(
|x
1
)
]
· (|x
2
)d
=
()· (|x1)
1
2
[
()+()
]
· (|x1)d
· (|x
2
)
1
2
()· (|x1)
1
2
[
()+()
]
· (|x1)d
+
()· (|x1)
1
2
[
()+()
]
· (|x1)d
· (|x
2
)d
=
[
1
2
[
()+
()
]
· (|x
1
)d
]
-1
·
[
()
· (|x
1
)
· (|x
2
)
]
[
1
2
[
()+
()
]
· (|x
1
)d
]
-1
·
[
1
2
[
()
· (|x
1
)+
()
· (|x
1
)
]
· (|x
2
)d
]
=
()
· (|x
1
)
· (|x
2
)
1
2
[
()+
()
]
· (|x
1
)
· (|x
2
)d
=
()
· (|x
1
,x
2
)
1
2
[
()+
()
]
· (|x
1
,x
2
)d
ur
, (0, 1]. Analoges gilt f¨ur
V
(
|x
1
, x
2
).
29
Welcher der beiden Ans¨
atze zu bevorzugen ist, wird man wohl am besten in Ab-
angigkeit von der jeweiligen Fragestellung entscheiden m¨
ussen. Sofern eine konjugier-
te Verteilung gegeben ist und sich die A-posteriori-Dichte analytisch darstellen l¨
asst,
liefert der Zugang ¨
uber die Fuzzy-Schar von A-posteriori-Dichten wieder analytische
Funktionen, die konkreten Werte und deren Zugeh¨
origkeitsgrad zum Bild der abgeleite-
ten fuzzifizierenden Dichtefunktion k¨
onnen analytisch berechnet werden. Muss man sich
28
Vgl. Viertl / Hareter (2004a), S. 269 f.
29
In einem ¨
alteren Ansatz komibinierte Viertl zur Definition der unscharfen A-posteriori-Verteilung
auf Basis einer unscharfen A-priori-Verteilung zun¨
achst die -Niveaukurven der unscharfen A-priori-
Verteilung mit der scharfen A-posteriori-Verteilung zu seinen -Niveaukurven der nicht-normierten
unscharfen A-posteriori-Verteilung
(
|x
1
, ..., x
n
) =
()
· (|x
1
, ..., x
n
)
(
|x
1
, ..., x
n
) =
()
· (|x
1
, ..., x
n
).
Vgl. Viertl (1996), S. 157 f.
Dabei ist (
|x
1
, ..., x
n
) die Likelihoodfunktion von bei den Daten x
1
, ..., x
n
. Normierung erreichte
Viertl schließlich durch
(
|x
1
, ..., x
n
) =
()· (|x
1
,...,x
n
)
()· (|x
1
,...,x
n
)d
(
|x
1
, ..., x
n
) =
()· (|x
1
,...,x
n
)
()· (|x
1
,...,x
n
)d
.
Vgl. Viertl (2002a), S. 110.
Dieser Ansatz wurde allerdings von Viertl selbst wieder verworfen, weil er bei sequentieller Aktua-
lisierung der Information, also bei wiederholter Anwendung des Bayes-Theorems, zu unrichtigen Er-
gebnissen f¨
uhrt. (Vgl. Viertl Viertl / Hareter (2004a), S. 269.)

186
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
jedoch mit numerischen Werten begn¨
ugen, welche eine A-posteriori-Verteilung approxi-
mieren, so ist es mit Sicherheit von Vorteil, wenn mit der von Viertl und Hareter vorge-
schlagenen Formel f¨
ur die Bayes-Kombinationsregel bei unscharfer A-priori-Verteilung
die Aktualisierung der Information auch auf numerischem Weg m¨
oglich ist.
Interessanter ist jedoch der Fall unscharfer A-priori-Information, welche mit un-
scharfer Stichprobeninformation zu kombinieren ist. Ausgegangen wird also von einer
unscharfen A-priori-Dichte ~
(.) = ~
f (.
|~ ) und einer Stichprobe von n verteilungstreuen
Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) von X, welche die unscharfen Daten ( ~
A
1
, ..., ~
A
n
) liefert.
Aus der suffizienten Statistik s ( ~
A
1
, ..., ~
A
n
) kann die unscharfe Stichprobeninformation
~
berechnet werden. Daraus wird wiederum die unscharfe A-posteriori-Information ~
bestimmt durch
~
:= ~
~.
(6.34)
So erh¨
alt man die unscharfe Schar von A-posteriori-Verteilungen
~
~
(.
|~A
1
, ..., ~
A
n
) =
~~
f (.
|~ ) = {(f(.| ),
~
( ))
| supp(~ )}
=
f (.
| +
x
1
,...,x
n
),
sup
supp(~
),
(x1,...,xn)supp( ~
A1... ~
An):
+x1,...,xn =
min
~
( ),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
supp(~ ), (x
1
, ..., x
n
)
supp(~A
1
... ~A
n
)
(6.35)
und die fuzzifizierende A-posteriori-Verteilung f¨
ur
mit der Zugeh¨origkeitsfunkti-
on f¨
ur q
IR
+
~
(
|x
1
,...,x
n
)
(q) =
~
f (
|~ )
(q)
=
sup
(.|x1,...,xn)supp(~
~
(.|x1,...,xn)):
(|x1,...,xn)=q
~
~
(.
|x
1
,...,x
n
)
((.
|x
1
, ..., x
n
))
=
sup
supp(~
):
f (| )=q
~
( )
=
sup
supp(~
),
(x1,...,xn)supp( ~
A1... ~
An):
f (| +x1,...,xn )=q
min
~
( ),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
(6.36)
und den -Niveaukurven f¨
ur
(
|x
1
, ..., x
n
) = f
(
|~ ~
~
A
1
,..., ~
A
n
) =
inf
k,
(x1,...,xn)A1×...×An
f (
| +
x
1
,...,x
n
)
(
|x
1
, ..., x
n
) = f
(
|~ ~
~
A
1
,..., ~
A
n
) =
sup
k,
(x1,...,xn)A1×...×An
f (
| +
x
1
,...,x
n
).
(6.37)
Begleitendes Beispiel: F¨
ur eine Poisson-verteilte Zufallsvariable X, liegt die unschar-
fe A-priori-Information vor, dass die unscharfe durchschnittliche Ereignisanzahl
¯
~
A be-
tr¨
agt, dieser unscharfen Information wird das unscharfe Gewicht eines unscharfen Stich-
probenumfangs von ~
b beigemessen. Eine Stichprobe von n verteilungstreuen Fuzzy-
Perzeptionen ( ~
X
1
, ..., ~
X
n
) von X liefert die unscharfen Daten ( ~
A
1
, ..., ~
A
n
). Die unscharfe

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
187
A-posteriori-Information kann dann beschreiben werden durch eine unscharfe invertier-
te Gammaverteilung mit den unscharfen Parametern ~
a =
¯
~
A
~
b
#
n
i=1
~
A
i
F(IN
0
),
(~
b
n)
-1
F(IN
0
), b
#
= b . Dies ergibt die Fuzzy-Schar von Gammaverteilungen
~
~
(
|~A
1
, ..., ~
A
n
) =
~~
f
(
|~a , ~b
-1
) =
~~
f
(
|
¯
~
A
~
b
#
n
i=1
~
A
i
, (~
b
n)
-1
)
|
{b
#
=b
}
=
f
(
|¯x · b
#
+
n
i=1
x
i
,
1
b +n
), min
{
¯
~
A
( ¯
x ),
~
A
1
(x
1
), ...,
~
A
n
(x
n
),
~
b
(b ), 1
{b }
(b
#
)
} (¯x , x
1
, ..., x
n
, b
#
, b )
(IN
0
)
n+3
=
f
(
|¯x +
n
i=1
x
i
· b +
n
i=1
x
i
,
1
b +n
),
¯
~
A
~
A
1
... ~
A
n
~b
x , x
1
, ..., x
n
, b )
x , x
1
, ..., x
n
, b )
supp(
¯
~
A )
×supp(~A
1
)
×...×supp(~A
n
)
×supp(~b )
=
(b +n)
¯
x ·b +n
i=1xi
·
¯
x ·b +n
i=1xi-
1
·e
-(b +n)
x
·b +
n
i=1
x
i
)
· 1
(0,
)
(),
¯
~
A
~
A
1
... ~
A
n
~b
x , x
1
, ..., x
n
, b )
x , x
1
, ..., x
n
, b )
supp(
¯
~
A )
×supp(~A
1
)
×...×supp(~A
n
)
×supp(~b ) .
(B.6.27)
Soll aus dieser Fuzzy-Schar eine fuzzifizierende Funktion abgeleitet werden, so ist diese
gegeben durch ihre Zugeh¨
origkeitsfunktion
~
(
| ~
A
1
,..., ~
A
n
)
(q) =
~
f
(
|
¯
~
A
~
b
#
n
i=1
~
A
i
,(~
b
n)
-1
)
|
{b#=b }
(q)
=
sup
x ,x1,...,xn,b )supp(
¯
~
A )
×supp( ~
A1)×...×supp( ~
An)×supp(~b ):
f(|¯
x ·b +
n
i=1
xi,
1
b +n
)=q
min
¯
~
A
x ),
f uzA
1
(x
1
), ...,
~
A
n
(x
n
),
~
b
(b )
=
sup
x ,x1,...,xn,b )supp(
¯
~
A )
×supp( ~
A1)!×...×supp( ~
An)×supp(~b ):
(b +n)
¯
x ·b +n
i=1
xi ·¯x ·b +
n
i=1
xi-1·e-(b +n)
x ·b +
n
i=1
xi)
·1(0,)()=q
min
¯
~
A
x ),
f uzA
1
(x
1
), ...,
~
A
n
(x
n
),
~
b
(b ) .
(B.6.28)
Die -Niveaukurven der fuzzfizierenden A-posteriori-Gammadichte mit konvexen oder
nicht-konvexen Parametern k¨
onnen analog zu denen der fuzzifizierenden A-priori-Gam-
madichte bestimmt werden, indem in (B.6.20)-(B.6.24) jeweils b
durch b
+ n, b
durch b
+ n, ¯
a
durch
b
¯
a
+
n
i=1
a
i
b
+n
und ¯
a
durch
b
¯
a
+
n
i=1
a
i
b
+n
ersetzt werden.
Begleitendes numerisches Beispiel: Zu der unscharfen A-priori-Information, dass
die Anzahl der Flutwellen kritischer H¨
ohe
¯
~
A =
1
0.6
9
10
betr¨
agt, der das unscharfe Ge-
wicht von ~
b =
0.8
1
1
2
Jahresbeobachtungen beigemessen wird, tritt nach 3 Beobach-
tungsperioden die unscharfe Stichprobeninformation ( ~
A
1
, ~
A
2
, ~
A
3
) =
0.2
0.8
1
0.5
8
9
10
11
,
0.7
1
0.6
11
12
13
,
0.5
1
0.8
6
7
8
. Die gesamte unscharfe Information ¨
uber die unscharfe
Verteilung des unscharfen Verteilungsparameters kann dann beschrieben werden durch
die unscharfe A-posteriori-Verteilung, die gegeben ist durch die Fuzzy-Schar von A-

188
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
posteriori-Verteilungen
~
~
(
|~A
1
, ~
A
2
, ~
A
3
) =
~~
f
|~a ,
1
b
=
4
34
·
33
·e
-4
33!
· 1
(0,
)
(), 0.2 ,
4
35
·
34
·e
-4
34!
· 1
(0,
)
(), 0.5 ,
4
36
·
35
·e
-4
35!
· 1
(0,
)
(), 0.7 ,
4
37
·
36
·e
-4
36!
· 1
(0,
)
(), 0.8 ,
4
38
·
37
·e
-4
37!
· 1
(0,
)
(), 0.8 ,
4
39
·
38
·e
-4
38!
· 1
(0,
)
(), 0.8 ,
4
40
·
39
·e
-4
39!
· 1
(0,
)
(), 0.6 ,
4
41
·
40
·e
-4
40!
· 1
(0,
)
(), 0.6 ,
4
42
·
41
·e
-4
41!
· 1
(0,
)
(), 0.5 ,
5
43
·
42
·e
-5
42!
· 1
(0,
)
(), 0.2 ,
5
44
·
43
·e
-5
43!
· 1
(0,
)
(), 0.5 ,
5
45
·
44
·e
-5
44!
· 1
(0,
)
(), 0.7 ,
5
46
·
45
·e
-5
45!
· 1
(0,
)
(), 0.8 ,
5
47
·
46
·e
-5
46!
· 1
(0,
)
(), 1 ,
5
48
·
47
·e
-5
47!
· 1
(0,
)
(), 0.8 ,
5
49
·
48
·e
-5
48!
· 1
(0,
)
(), 0.6 ,
5
50
·
49
·e
-5
49!
· 1
(0,
)
(), 0.6 ,
5
51
·
50
·e
-5
50!
· 1
(0,
)
(), 0.6 ,
5
52
·
51
·e
-5
51!
· 1
(0,
)
(), 0.5
.
(N.6.5)
Aus der Fuzzy-Schar (N.6.5) kann wiederum analog zur Vorgangsweise bei der un-
scharfen A-priori-Verteilung eine fuzzifizierende A-posteriori-Gammadichte abgeleitet
werden, zu der die -Niveaukurven f¨
ur konvexe und nicht-konvexe Parameter bestimmt
werden k¨
onnen.
Auch f¨
ur den Fall einer unscharfen A-priori-Verteilung und unscharfer Stichpro-
beninformation wurde von Viertl und Hareter ein Vorschlag entwickelt, der aus den
-Niveau-Kurven der unscharfen A-priori-Dichte ~
(.) und der unscharfen Likelihood-
funktion ~(.
|~A
1
, ..., ~
A
n
) aufgrund der Stichprobenergebnisse ( ~
A
1
, ..., ~
A
n
) die -Niveau-
Kurven
V
(.
|~A
1
, ..., ~
A
n
) und
V
(.
|~A
1
, ..., ~
A
n
) der unscharfen A-posteriori-Dichte
~
V
(.
|~A
1
, ..., ~
A
n
) ableitet:
30
V
(
|~A
1
, ..., ~
A
n
) =
()
·
(
| ~
A
1
,..., ~
A
n
)
1
2
[
()
·
(
| ~
A
1
,..., ~
A
n
)+
()
(
| ~
A
1
,..., ~
A
n
)
]
d
V
(
|~A
1
, ..., ~
A
n
) =
()
·
(
| ~
A
1
,..., ~
A
n
)
1
2
[
()
·
(
| ~
A
1
,..., ~
A
n
)+
()
(
| ~
A
1
,..., ~
A
n
)
]
d
ur
, (0, 1]. Wiederum kann gezeigt werden, dass diese Definition bei sequen-
tieller und bei simultaner Informationsaktualisierung zum gleichen Ergebnis f¨
uhrt:
31
V
(
|~A
1
, ~
A
2
) =
V
(
| ~
A
1
)
·
(
| ~
A
2
)
1
2
[
V
(
| ~
A
1
)
·
(
| ~
A
2
)+
V
(
| ~
A
1
)
·
(
| ~
A
2
)
]
d
=
()· (|
~
A1)
1
2
[
()· (|
~
A1)+()· (| ~
A1)
]
d
·
(
| ~
A
2
)
1
2
()· (|
~
A1)· (|
~
A2)
1
2
[
()· (|
~
A1)+()· (| ~
A1)
]
d
+
()· (| ~
A1)· (| ~
A2)
1
2
[
()· (|
~
A1)+()· (| ~
A1)
]
d
d
=
()
·
(
| ~
A
1
)
·
(
| ~
A
2
)
1
2
[
()
·
(
| ~
A
1
)
·
(
| ~
A
2
)+
()
·
(
| ~
A
1
)
·
(
| ~
A
2
)
]
d
=
()
·
(
| ~
A
1
, ~
A
2
)
1
2
[
()
·
(
| ~
A
1
, ~
A
2
)+
()
·
(
| ~
A
1
, ~
A
2
)
]
d
30
Vgl. Viertl / Hareter (2004c), S. 736 f., Viertl (2003), S. 203 f., Viertl / Hareter (2006), S. 93 ff.
31
Vgl. Viertl / Hareter (2004c), S. 737, Viertl / Hareter (2006), S. 94.

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
189
ur
, (0, 1]. Analoges gilt f¨ur
V
(
|~A
1
, ~
A
2
).
32
In den weiteren Beispielen der Arbeit wird, um die ¨
Ubersichtlichkeit zu bewahren,
jeweils von scharfer A-priori-Information, also scharfer A-priori-Verteilung, ausgegan-
gen und die Fuzzy-Schar (N.6.3) als Ausgangsbasis zugrunde gelegt.
6.2
Unscharfe Pr¨
adiktivverteilungen
In den bisherigen Ausf¨
uhrungen zur Bayes'schen Statistik wurde die Konstruktion von
A-posteriori-Verteilungen besprochen. Zu den Aufgaben der Bayes-Statistik geh¨
ort je-
doch auch die Auswertung der A-posteriori-Verteilung f¨
ur statistische Schl¨
usse. Eine
ogliche Auswertung der A-posteriori-Verteilung besteht darin, ausgehend von einem
stochastischen Modell X
P
, mit A-priori-Verteilung (.) von
auf dem Parame-
terraum , die nach Erhebung einer konkreten Stichprobe (x
1
, ..., x
n
)
U
n
von X
zur A-posteriori-Verteilung (.
|x
1
, ..., x
n
) von
auf f¨uhrt, unter Einbeziehung aller
vorhandenen Information eine Prognose-Wahrscheinlichkeitsverteilung f¨
ur die Zufalls-
variable X auf ihrem Bildraum U anzugeben. Dazu bietet sich die Randverteilung der
gemeinsamen Verteilung von X und
an.
33
Allgemein ist die Randverteilung, wie
folgt, definiert:
Sind X und Y zwei Zufallsvariablen mit den Bildr¨
aumen U (von X) und V (von Y ),
und ist P
XY
die gemeinsame Wahrscheinlichkeitsverteilung von X und Y auf U
× V,
die im diskreten Fall gegeben ist durch die gemeinsame Wahrscheinlichkeitsfunktion
p
XY
(., .) und im stetigen Fall durch die gemeinsame Dichtefunktion p
XY
(., .), dann gilt
ur die Randverteilung von X f¨
ur x
U
32
In seiner urspr¨
unglichen Definition w¨
ahlte der unscharfen A-posteriori-Dichte auf Basis unschar-
fer A-priori-Dichte und unscharfer Stichprobeninformation wiederum einen anderen Ansatz, der aus-
schließlich auf Kombination der -Niveaukurven basiert. Er definierte die nicht-normierte A-posteriori-
Verteilung durch
(
|~A
1
, ..., ~
A
n
) =
()
·
(
|A
1
, ..., A
n
)
(
|~A
1
, ..., ~
A
n
) =
()
·
(
|A
1
, ..., A
n
).
Vgl. Viertl (1996), S. 162.
Dabei ist
(
|A
1
, ..., A
n
) = min
(x
1
,...,x
n
)A
1
×...×A
n
(
|x
1
, ..., x
n
)
(
|A
1
, ..., A
n
) = max
(x
1
,...,x
n
)A
1
×...×A
n
(
|x
1
, ..., x
n
).
Normierung erfolgt bei Viertl dann durch
(
|~A
1
, ..., ~
A
n
) = min
(x
1
,...,x
n
)A
1
×...×A
n
()· (|x
1
,...,x
n
)
()· (|x
1
,...,x
n
)d
(
|~A
1
, ..., ~
A
n
) = max
(x
1
,...,x
n
)A
1
×...×A
n
()· (|x
1
,...,x
n
)
()· (|x
1
,...,x
n
)d
.
Vgl. Viertl (2002a), S. 110.
Wiederum wird dieser alte Ansatz von Viertl selbst verworfen, da eine sequentielle Aktualisierung von
nach und nach gewonnener Stichprobeninformation zu anderen Ergebnissen f¨
uhrt als die simultane
Aktualisierung mit Hilfe der gesamten verf¨
ugbaren Stichprobeninformation. (Vgl. Viertl / Hareter
(2004c), S. 736, Viertl (2003), S. 203, Viertl / Hareter (2006), S. 91 ff.)
33
Vgl. Viertl (2003), S. 178, Viertl (2004), S. 670, Berger (1985), S. 157 f., Bernardo / Smith (1994),
S. 243 ff., Gelman / Carlin / Stern / Rubin (1995), S. 8 f., Carlin / Louis (1996), S. 25, Robert (2001),
S. 171, Marinell (1985), S. 82

190
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ur diskretes Y :
p
X
(x) =
y
V
p
XY
(x, y)
und f¨
ur stetiges Y :
f
X
(x) =
V
f
XY
(x, y)dy,
und f¨
ur die Randverteilung von Y gilt f¨
ur y
V
ur diskretes X:
p
Y
(y) =
x
U
p
XY
(x, y)
und f¨
ur stetiges X:
f
Y
(y) =
U
f
XY
(x, y)dx.
Bei der Aufgabe der Formulierung der Pr¨
adiktivverteilung oder Prognoseverteilung
lauten nun die beiden Zufallsvariablen X und
. Es soll hier nur die Bestimmung der
Randverteilung von X f¨
ur stetiges
behandelt werden. Aus den beiden bedingten
Wahrscheinlichkeiten, die durch die parametrische Wahrscheinlichkeitsfunktion p(.
|)
oder Dichtefunktion f (.
|) von X und die A-posteriori-Dichte (.|x
1
, ..., x
n
) von
gegeben sind, muss zun¨
achst die gemeinsame Wahrscheinlichkeits- bzw. Dichtefunktion
g
X
(., .) von X und
bestimmt werden. Aufgrund der Unabh¨angigkeit der Realisation
x von der Zufallsvariablen X von den fr¨
uheren Realisationen x
1
, ..., x
n
gilt:
g
X
(x, ) =
p(x
|) · (|x
1
, ..., x
n
)
ur diskretes X
f (x
|) · (|x
1
, ..., x
n
) f¨
ur stetiges X
Die Randwahrscheinlichkeitsfunktion p
X
(.
|x
1
, ...x
n
) f¨
ur diskretes X lautet dann:
p(x
|x
1
, ..., x
n
) =
g
X
(x, )d =
p(x
|) · (|x
1
, ..., x
n
)d
und die Randdichte f
X
(.
|x
1
, ...x
n
) f¨
ur stetiges X:
f (x
|x
1
, ..., x
n
) =
g
X
(x, )d =
f (x
|) · (|x
1
, ..., x
n
)d
ur x
U. Da diese Randwahrscheinlichkeitsfunktion bzw. Randdichte die Wahrschein-
lichkeitsverteilung des Ausgangs eines zuk¨
unftigen Experiments ¨
uber X unter Kenntnis
der Ausg¨
ange (x
1
, ..., x
n
) der bisherigen Experimente (X
1
, ..., X
n
) beschreibt, wird sie
als Pr¨
adiktiv- oder Prognosewahrscheinlichkeits- bzw. -dichtefunktion bezeichnet. Die
durch die Pr¨
adiktivwahrscheinlichkeits- bzw. -dichtefunktion gegebene Wahrscheinlich-
keitsverteilung heißt Pr¨
adiktivverteilung.
Es ist
p
X
(x
1
, ..., x
n
) =
p(x
1
, ..., x
n
|)()d
f
X
(x
1
, ..., x
n
) =
f (x
1
, ..., x
n
|)()d
die
Wahrscheinlichkeitsfunktion
Dichtefunktion
der totalen Wahrscheinlichkeit von (x
1
, ..., x
n
) nach Abschnitt 6.1.1. Unter Anwendung
dieser totalen Wahrscheinlichkeit kann man die Pr¨
adiktivwahrscheinlichkeitsfunktion
p
X
(.
|x
1
, ..., x
n
) f¨
ur x
U auch darstellen als
p
X
(x
|x
1
, ..., x
n
) =
p(x
|)(|x
1
, ..., x
n
)d =
p(x
|) ·
p(x
1
, ..., x
n
|)()
p(x
1
, ..., x
n
|)()d
(Unabh¨
angigkeit von X
1
, ..., X
n
, X)
=
p(x
1
, ..., x
n
, x
|)()d
p(x
1
, ..., x
n
|)()d
=
p
X
(x
1
, ..., x
n
, x)
p
X
(x
1
, ..., x
n
)
,

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
191
und die Pr¨
adiktivdichte f
X
(.
|x
1
, ..., x
n
) f¨
ur x
IR als
f
X
(x
|x
1
, ..., x
n
) =
f (x
|)(|x
1
, ..., x
n
)d =
f (x
|) ·
f (x
1
, ..., x
n
|)()
f (x
1
, ..., x
n
|)()d
(Unabh¨
angigkeit von X
1
, ..., X
n
, X)
=
f (x
1
, ..., x
n
, x
|)()d
f (x
1
, ..., x
n
|)()d
=
f
X
(x
1
, ..., x
n
, x)
f
X
(x
1
, ..., x
n
)
.
Die Pr¨
adiktivverteilung ist also der Quotient aus der totalen Wahrscheinlichkeit der
Daten (x
1
, ..., x
n
, x) und der Daten (x
1
, ..., x
n
). Die Pr¨
adiktivverteilung kann auch in-
terpretiert werden als die bedingte Wahrscheinlichkeit, dass wir, wenn nach Ziehung
der Zufallsvariablen X
1
, ..., X
n
bereits die Daten (x
1
, ..., x
n
)
U
n
vorliegen, bei Ziehung
einer weiteren Zufallsvariablen X die Daten (x
1
, ..., x
n
, x)
U
n+1
erhalten.
34
Nun soll eine unscharfe Aussage ¨
uber die Wahrscheinlichkeitsverteilung der Zufalls-
variablen X beim Vorliegen unscharfer Daten ( ~
A
1
, ..., ~
A
n
) gemacht werden.
Gegeben ist ein klassisches parametrisches stochastisches Modell X
P
. Ist (.)
die A-priori-Verteilung von
auf , dann ist ~~(.|~A
1
, ..., ~
A
n
) nach Erhebung einer un-
scharfen Stichprobe ( ~
X
1
, ..., ~
X
n
) von n verteilungstreuen Fuzzy-Perzeptionen von X mit
den unscharfen Realisationen ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
die Fuzzy-Schar von A-posteriori-
Dichten von ~
.
Die unscharfe Schar von Wahrscheinlichkeits- bzw. -dichtefunktionen der P¨
adik-
tivverteilung ~
~
p
X
(.
|~A
1
, ..., ~
A
n
) bzw.
~~
f
X
(.
|~A
1
, ..., ~
A
n
) f¨
ur X kann definiert werden, indem
ur jede A-posteriori-Dichte der Fuzzy-Schar die Pr¨
adiktivverteilung berechnet wird,
und indem anschließend der P¨
adiktivverteilung der Zugeh¨
origkeitsgrad der zugrunde
liegenden A-posteriori-Dichte zur unscharfen Schar zugeordnet wird. F¨
uhren mehrere
A-posteriori-Dichten zu derselben Pr¨
adiktivverteilung, so ist der Zugeh¨
origkeitsgrad
gleich dem Supremum der Zugeh¨
origkeitsgrade der zugrunde liegenden A-posteriori-
Dichten. Man erh¨
alt also f¨
ur diskretes X (und stetiges
) die Fuzzy-Schar von Pr¨adik-
tivwahrscheinlichkeitsverteilungen:
~
~
p
X
(.
|~A
1
, ..., ~
A
n
) =
p
X
(.
|x
1
, ..., x
n
),
~
~
p
X
(.
| ~
A
1
,..., ~
A
n
)
(p
X
(.
|x
1
, ..., x
n
))
p
X
(x
|x
1
, ..., x
n
) =
p(x
|)(|x
1
, ..., x
n
)d
x U,
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
),
(.|y
1
, ..., y
n
)
supp(~~(.|~A
1
, ..., ~
A
n
)) :
x U :
p(x
|)(|y
1
, ..., y
n
)d = p
X
(x
|x
1
, ..., x
n
)
~
~
p
X
(.
| ~
A
1
,..., ~
A
n
)
(p
X
(.
|x
1
, ..., x
n
)),
=
sup
pi(.|y1,...,yn)supp(~
~
(.| ~
A1,..., ~
An)): xU:
p(x|)(|y1,...,yn)d=pX (x|x1,...,xn)
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|y
1
, ..., y
n
))
.
(6.38)
Aus der Fuzzy-Schar (6.38) von Pr¨
adiktivwahrscheinlichkeitsfunktionen kann die fuzzi-
fizierende Pr¨
adiktivwahrscheinlichkeitsfunktion ~
p
X
(.
|~A
1
, ..., ~
A
n
) mittels sup-Vereinigung
34
Vgl. Viertl (2003), S. 178, Viertl (1996), S. 151, Bernardo / Smith (1994), S. 242 ff., Gelman /
Carlin / Stern / Rubin (1995), S. 8 f., Carlin / Louis (1996), S. 25, Robert (2001), S. 171, Marinell
(1985), S. 82.

192
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
abgeleitet werden. Es ist f¨
ur x
U:
~
p
X
(x
| ~
A
1
,..., ~
A
n
)
(p) =
sup
x1supp( ~
A1),...,xnisupp( ~
An):
pX (x|x1,...,xn)=
p(x|)(|x1,...,xn)d=p
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(6.39)
ur p
[0, 1].
ur stetiges X erh¨
alt man die Fuzzy-Schar von Pr¨
adiktivdichten:
~~
f
X
(.
|~A
1
, ..., ~
A
n
) =
f
X
(.
|x
1
, ..., x
n
),
~~
f
X
(.
| ~
A
1
,..., ~
A
n
)
(f
X
(.
|x
1
, ..., x
n
))
f
X
(x
|x
1
, ..., x
n
) =
f (x
|)(|x
1
, ..., x
n
)d
x IR,
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
),
(.|y
1
, ..., y
n
)
supp(~~(.|~A
1
, ..., ~
A
n
)) :
x IR :
f (x
|)(|y
1
, ..., y
n
)d = f
X
(x
|x
1
, ..., x
n
)
~~
f
X
(.
| ~
A
1
,..., ~
A
n
)
(f
X
(.
|x
1
, ..., x
n
)),
=
sup
pi(.|y1,...,yn)supp(~
~
(.| ~
A1,..., ~
An)): xIR:
f (x|)(|y1,...,yn)d=fX (x|x1,...,xn)
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|y
1
, ..., y
n
))
.
(6.40)
Aus der Fuzzy-Schar (6.40) von Pr¨
adiktivdichten kann wiederum mittels sup-Vereinigung
die fuzzifizierende Pr¨
adiktivdichte ~
f
X
(x.
|~A
1
, ..., ~
A
n
) bestimmt werden. Es ist f¨
ur x
IR:
~
f
X
(x
| ~
A
1
,..., ~
A
n
)
(q) =
sup
x1supp( ~
A1),...,xnisupp( ~
An):
fX (x|x1,...,xn)=
f (x|)(|x1,...,xn)d=q
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(6.41)
ur q
IR
+
0
.
35
Die einzelnen Funktionen der Fuzzy-Scharen (6.38) und (6.40) k¨
onnen wieder als
35
¨
Uber die Zugeh¨
origkeitsfunktionen (6.39) und (6.41) wird die unscharfe Pr¨
adiktivdichte auch bei
Viertl / Hule (1991), S. 118 f., Viertl (1992), S. 129 f., Viertl (1996), S. 1542 f., Viertl (1997), S. 566
f., Viertl (1999a), S. 381, Viertl (2002d), S. 210, Viertl (2003), S. 204 f., Viertl / Hareter (2006), S. 95
f., definiert.

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
193
Quotienten von unscharfen totalen Wahrscheinlichkeiten interpretiert werden:
~
~
p
X
(x
|~A
1
, ..., ~
A
n
) =
p
X
(x
|x
1
, ..., x
n
),
~
~
p
X
(x
| ~
A
1
,..., ~
A
n
)
(p
X
(x
|x
1
, ..., x
n
))
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
),
~
~
p
X
(x
| ~
A
1
,..., ~
A
n
)
(p
X
(x
|x
1
, ..., x
n
))
=
sup
(y1,...yn)supp( ~
A1)×...×supp( ~
An):
pX (y1,...,yn,x)
pX (y1,...,yn)
pX(x|x1,...xn)=
pX (x1,...,xn,x)
pX (x1,...,xn)
xU
min
~
A
1
(y
1
), ...,
~
A
n
(y
n
)
=
p
X
(x
1
,...,x
n
,x)
p
X
(x
1
,...,x
n
)
,
~
~
p
X
(x
| ~
A
1
,..., ~
A
n
)
p
X
(x
1
,...,x
n
,x)
p
X
(x
1
,...,x
n
)
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
),
~
~
p
X
(x
| ~
A
1
,..., ~
A
n
)
p
X
(x
1
,...,x
n
,x)
p
X
(x
1
,...,x
n
)
=
sup
(
y1,...yn)supp( ~
A1)×...×supp( ~
An):
pX (y1,...,yn,x)
pX (y1,...,yn)
pX (x1,...,xn,x)
pX (x1,...,xn)
xU
min
~
A
1
(y
1
), ...,
~
A
n
(y
n
)
(6.42)
bzw.
~~
f
X
(x
|~A
1
, ..., ~
A
n
) =
f
X
(x
|x
1
, ..., x
n
),
~~
f
X
(x
| ~
A
1
,..., ~
A
n
)
(f
X
(x
|x
1
, ..., x
n
))
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
),
~~
f
X
(x
| ~
A
1
,..., ~
A
n
)
(f
X
(x
|x
1
, ..., x
n
))
=
sup
(y1,...yn)supp( ~
A1)×...×supp( ~
An):
fX (y1,...,yn,x)
fX (y1,...,yn)
fX(x|x1,...xn)=
fX (x1,...,xn,x)
fX (x1,...,xn)
xIR
min
~
A
1
(y
1
), ...,
~
A
n
(y
n
)
=
f
X
(x
1
,...,x
n
,x)
f
X
(x
1
,...,x
n
)
,
~~
f
X
(x
| ~
A
1
,..., ~
A
n
)
f
X
(x
1
,...,x
n
,x)
f
X
(x
1
,...,x
n
)
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
),
~~
f
X
(x
| ~
A
1
,..., ~
A
n
)
f
X
(x
1
,...,x
n
,x)
f
X
(x
1
,...,x
n
)
=
sup
(y1,...yn)supp( ~
A1)×...×supp( ~
An):
fX (y1,...,yn,x)
fX (y1,...,yn)
fX (x1,...,xn,x)
fX (x1,...,xn)
xIR
min
~
A
1
(y
1
), ...,
~
A
n
(y
n
)
(6.43)
Begleitendes Beispiel: F¨
ur Poisson-verteilte Zufallsvariablen X
Po
mit a-posteriori-
invertiert-Gamma-verteiltem Parameter
a ,
1
b
(invertierte Gammaverteilung als
konjugierte Verteilung) ist die Pr¨
adiktivverteilung als Negativbinomialverteilung defi-
niert. Die Wahrscheinlichkeitsfunktion der Negativbinomialverteilung mit den Parame-
tern
1
b +1
und a lautet: p
nBi
(x
|
1
b +1
, a ) =
(x+a
-1)!
(a
-1)!x!
·
1
b +1
x
·
b
b +1
a
· 1
IN
0
(x). Dies

194
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
asst sich durch Integration leicht nachvollziehen, denn
0
p
Po
(x
|) · f
(
|a ,
1
b
) d =
0
x
·e
-
x!
·
b
a
·
a -1
·e
-b
(a
-1)!
· 1
IN
0
(x) d
=
b
a
x!(a
-1)!
· e
-(b +1)
· -
a +x
-1
j=0
x+a -1-j
·(x+a -1)!
(b +1)
j+1
·(x+a-1-j)!
=0
· 1
IN
0
(x)
=
(x+a
-1)!
x!(a
-1)!
·
b
a
(b +1)
x+a
· 1
IN
0
(x) = p
nBi
(x
|
1
b +1
, a ).
Die Wahrscheinlichkeitsfunktion der speziellen Negativbinomialverteilung, die die Wahr-
scheinlichkeit beschreibt, dass bei m-maliger Wiederholung des Experiments, also bei
einer Stichprobe vom Umfang m
IN (d.h. ganzzahlig) von X, (bei gegebener A-poste-
riori-Gammaverteilung von
) der Wert x IN
0
auftritt, lautet:
p
nBi
(x
|
m
b +m
, a ) =
0
(p
P o
(x
|m · ) · f
(
|a , b )) d
=
0
(m
·)
x
·e
-m
x!
·
b
a
·
a -1
·e
-b
(a
-1)!
· 1
IN
0
(x) d
=
(x+a
-1)!
(a
-1)!x!
·
m
b +m
x
·
b
b +m
a
· 1
IN
0
(x)
=
(x+a
-1)!
(a
-1)!x!
·
m
b +m
x
· 1 -
m
b +m
a
· 1
IN
0
(x).
Die allgemeine Form der Negativbinomialverteilung l¨
asst sich schließlich aus der For-
mulierung des Poisson-Prozesses ableiten. Da die Experimente ¨
uber Zeiteinheiten de-
finiert sind, Zeit jedoch beliebig teilbar ist, muss der Stichprobenumfang keine ganze
Zahl sein. D.h. es kann n
IN durch t IR
+
ersetzt werden. Man erh¨
alt f¨
ur x
IN
0
:
p
nBi
(x
|
t
b +t
, a ) =
(x+a
-1)!
(a
-1)!x!
·
t
b +t
x
· 1 -
t
b +t
a
· 1
IN
0
(x)
ur a
IN, b IR
+
, t
IR
+
bzw.
p
nBi
(x
|r, a) =
(x+a
-1)!
(a
-1)!x!
· r
x
· (1 - r)
a
· 1
IN
0
(x)
mit r :=
t
b +t
, 0 < r < 1, a := a , a
IN.
Liegen unscharfe Daten ( ~
A
1
, ..., ~
A
n
) aufgrund einer Stichprobe von verteilungstreu-
en Fuzzy-Perzeptionen ~
X
1
, ..., ~
X
n
der Poisson-verteilten Zufallsvariablen X
Po
vor,
so dass die A-posteriori-Verteilung des unscharfen Verteilungsparameters (nach Kom-
bination der unscharfen Stichprobeninformation mit der scharfen A-priori-Information)
beschrieben wird durch eine Fuzzy-Schar von invertierten A-posteriori-Gammavertei-
lungen ~
~
nBi
(.
|~A
1
, ..., ~
A
n
) =
~~
f
(.
|~a , b ) nach (B.6.17), so erh¨alt man daraus eine un-
scharfe Negativbinomialverteilung. Die unscharfe Wahrscheinlichkeit, dass in einem
Zeitraum von t Jahren gerade x Flutwellen kritischer H¨
ohe auftreten, wird beschrieben
durch die Fuzzy-Schar
~
~
p
nBi
(x
|~A
1
, ..., ~
A
n
) = ~
~
p
nBi
(x
|
t
b +t
, ~
a )
=
p
nBi
(x
|
t
b +t
, a ),
~
a
(a )
a
supp(~a )
=
(x+a
-1)!
(a
-1)!x!
·
t
b +t
x
· 1 -
t
b +t
a
·1
IN
0
(x),
~
a
(a )
(x
1
, ..., x
n
)
supp(~A
1
), ..., supp( ~
A
n
) .
(B.6.29)

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
195
Aus dieser Fuzzy-Schar kann eine fuzzifizierende Pr¨
adiktiv-Negativbinomialverteilung
ur x
IN
0
, p
[0, 1] abgeleitet werden durch
~
p
nBi
(x
| ~
A
1
,..., ~
A
n
)
(p) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
pnBi(x|x1,...,xn)=p
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
a supp(
~
a ):
(x+a -1)!
(a -1)!x!
·
(
t
b +t
)
x
·
(
1
-
t
b +t
)
a
=p
~
a
(a )
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
(x+a +n
i=1
xi-1)!
(a +n
i=1
xi-1)!x!
·
(
t
b +t
)
x
·
(
1
-
t
b +t
)
a +n
i=1
xi
=p
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(B.6.30)
Es sollen die -Niveaukurven der fuzzifizierenden Pr¨
adiktiv-Negativbinomialverteilung
auf Basis der konvexen H¨
ulle der Daten sowie der Daten selbst bestimmt werden.
Die Bestimmung der oberen -Niveaukurven f¨
ur konvexe Parameter p
nBi
(.
|
t
b +t
, co ~
a )
erfolgt wiederum durch Differenzieren und Nullsetzen der Ableitung. Zu l¨
osen ist
d
da
(x+a
-1)!
(a
-1)!x!
·
t
b +t
x
· 1 -
t
b +t
a
=
d
da
(x+a )
(a )(x+1)
·
t
b +t
x
·
b
b +t
a
=
(x+a )
·(x+a )-(a )·(x+a )
(a )
·(x+1)
·
t
b +t
x
·
b
b +t
a
+
(x+a )
(a )(x+1)
·
t
b +t
x
·
b
b +t
a
·ln
b
b +t
=
(x+a )
(a )(x+1)
·
t
b +t
x
·
b
b +t
a
· ((x + a ) - (a ) + ln b - ln(b + t))
!
= 0.
Definiert man die Funktionen
(x
)
(a) := (x + a)
- (a) =
x
k=1
1
a
-1+k
,
(
a)
(x) := (x + a)
- (a) =
x
k=1
1
a
-1+k
,
dann kann die L¨
osung der Gleichung zur Bestimmung von p
nBi
(.
|
t
b +t
, co ~
a ) formal
angeschrieben werden:
a = (
(x
)
)
-1
ln
b +t
b
Diese wird erreicht f¨
ur x
(
(
a
)
)
-1
ln
b +t
b
, (
(
a
)
)
-1
ln
b +t
b
.
Zur Bestimmung von p
nBi
(.
|
t
b +t
, co ~
a ), p
nBi
(.
|
t
b +t
, ~
a ) und p
nBi
(.
|
t
b +t
, ~
a ) sind die
Schnittpunkte von p
nBi
(.
|
t
b +t
, a
) und p
nBi
(.
|
t
b +t
, a
) zu ermitteln. Es ist
p
nBi
(x
|
t
b +t
, a
) = p
nBi
(x
|
t
b +t
, a
)
(x+a
-1)!
(a
-1)!x!
·
t
b +t
x
· 1 -
t
b +t
a
=
(x+a
-1)!
(a
-1)!x!
·
t
b +t
x
· 1 -
t
b +t
o
(x+a
)
(x+a
)
=
(a
)
(a
)
·
b +t
b
a
-a
.
Definiert man die Funktion
÷
(a/a)
(x) :=
(x+a)
(x+a)
,
so l¨
asst sich der gesuchte Schnittpunkt anschreiben als
x = (
÷
(a
/a
)
)
-1
÷
(a
/a
)
(0)
·
b +t
b
a
-a
= (
÷
(a
/a
)
)
-1
(a
)
(a
)
·
b +t
b
a
-a
.

196
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Somit erh¨
alt man die -Niveaukurven f¨
ur die fuzzifizierende Pr¨
adiktiv-Negativbinomi-
alverteilung:
p
nBi
(x
|
t
b +t
, co ~
a ) = p
nBi
(x
|
t
b +t
, ~
a )
=
(x+a
-1)!
(a
-1)!x!
·
t
b +t
x
· 1 -
t
b +t
o
ur 0
x < (
÷
(a
/a
)
)
-1
(a
)
(a
)
·
b +t
b
a
-a
(x+a
-1)!
(a
-1)!x!
·
t
b +t
x
· 1 -
t
b +t
a
ur (
÷
(a
/a
)
)
-1
(a
)
(a
)
·
b +t
b
a
-a
x <
(B.6.31)
p
nBi
(x
|
t
b +t
, co ~
a )
=
(x+a
-1)!
(a
-1)!x!
·
t
b +t
x
· 1 -
t
b +t
a
ur 0
x < (
(
a
)
)
-1
ln
b +t
b
(x+(
(x)
)
-1
(ln(
b +t
b
))
-1)!
((
(x)
)
-1
(ln(
b +t
b
))
-1)!x!
·
t
b +t
x
· 1 -
t
b +t
(
(x)
)
-1
(ln(
b +t
b
))
ur (
(
a
)
)
-1
ln
b +t
b
x(
(
a
)
)
-1
ln
b +t
b
(x+a
-1)!
(a
-1)!x!
·
t
b +t
x
· 1 -
t
b +t
o
ur (
(
a
)
)
-1
ln
b +t
b
< x <
(B.6.32)
p
nBi
(x
|
t
b +t
, ~
a )
=
(x+a
-1)!
(a
-1)!x!
·
t
b +t
x
· 1 -
t
b +t
a
ur 0
x < (
÷
(a
1()
/a
)
)
-1
(a
1()
(a
)
·
b +t
b
a
1()
-a
(x+a
j()
-1)!
(a
j()
-1)!x!
·
t
b +t
x
· 1 -
t
b +t
a
1()
ur (
÷
(a
j()
/a
(j-1)()
)
)
-1
(a
j()
(a
(j-1)()
)
·
b +t
b
a
j()
-a
(j-1)()
x
< (
÷
(a
(j+1)()
/a
j()
)
)
-1
(a
(j+1)()
(a
j()
)
·
b +t
b
a
(j+1)()
-a
j)()
ur j() = 1(), ..., (k
- 1)(),
a
= a
0()
< a
1()
< ... < a
(k
-1)()
< a
k()
= a
,
k()
j()=0()
{a
j()
} = a
(x+a
-1)!
(a
-1)!x!
·
t
b +t
x
· 1 -
t
b +t
o
ur (
÷
(a
/a
(k-1)()
)
)
-1
(a
)
(a
(k-1)()
)
·
b +t
b
a
-a
(k-1)()
x<
(B.6.33)
Begleitendes numerisches Beispiel: Mit den Parametern nach (N.6.2) soll un-
ter Anwendung von (6.38)-(6.39) bzw. (B.6.29)-(B.6.33) die unscharfe Pr¨
adiktivwahr-
scheinlichkeitsverteilung f¨
ur die Anzahl der Flutwellen kritischer H¨
ohe in t = 2.5 Jahren
berechnet werden. Es ist also t = 2.5 und
t
b +t
=
2.5
5+2.5
=
1
3
. Man erh¨
alt die Fuzzy-Schar

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
197
von Pr¨
adiktivwahrscheinlichkeitsfunktionen:
~
~
p
~
X
(x
|~A
1
, ~
A
2
, ~
A
3
) = ~
~
p
nBi
(x
|
1
3
, ~
a )
=
p
nBi
(x
|
1
3
, 43), 0.2 ,
p
nBi
(x
|
1
3
, 44), 0.5 ,
p
nBi
(x
|
1
3
, 45), 0.7 ,
p
nBi
(x
|
1
3
, 46), 0.8 ,
p
nBi
(x
|
1
3
, 47), 1 ,
p
nBi
(x
|
1
3
, 48), 0.8 ,
p
nBi
(x
|
1
3
, 49), 0.6 ,
p
nBi
(x
|
1
3
, 50), 0.5
=
(x+42)!
42!x!
·
1
3
x
·
2
3
43
· 1
IN
0
(x), 0.2 ,
(x+43)!
43!x!
·
1
3
x
·
2
3
44
· 1
IN
0
(x), 0.5 ,
(x+44)!
44!x!
·
1
3
x
·
2
3
45
· 1
IN
0
(x), 0.7 ,
(x+45)!
45!x!
·
1
3
x
·
2
3
46
· 1
IN
0
(x), 0.8 ,
(x+46)!
46!x!
·
1
3
x
·
2
3
47
· 1
IN
0
(x), 1 ,
(x+47)!
47!x!
·
1
3
x
·
2
3
48
· 1
IN
0
(x), 0.8 ,
(x+48)!
48!x!
·
1
3
x
·
2
3
49
· 1
IN
0
(x), 0.6 ,
(x+49)!
49!x!
·
1
3
x
·
2
3
50
· 1
IN
0
(x), 0.5
(N.6.6)
Etwa f¨
ur x = 13 Flutwellen kritischer H¨
ohe in t = 2.5 Jahren erh¨
alt man die unscharfe
Wahrscheinlichkeit:
~
p
nBi
(13
|
1
3
, ~
a )
=
0.5
0.6
0.8
1
0.8
0.7
0.5
0.2
0.0082
0.0097
0.0114
0.0134
0.0157
0.0183
0.0212
0.0244
(N.6.7)
Die -Schnitte der konvexen H¨
ulle co ~
p
nBi
(13
|
1
3
, ~
a ) lauten:
co ~
p
nBi
(13
|
1
3
, ~
a ) =
[0.0082, 0.0244] f¨
ur 0 <
0.2
[0.0082, 0.0212] f¨
ur 0.2 <
0.5
[0.0097, 0.0183] f¨
ur 0.5 <
0.6
[0.0114, 0.0183] f¨
ur 0.6 <
0.7
[0.0114, 0.0157] f¨
ur 0.7 <
0.8
0.0134
ur 0.8 <
1
(N.6.8)
Wegen 13 < (
(
43)
)
-1
(ln
3
2
)
[20, 21] ist co ~p
nBi
(13
|
1
3
, ~
a ) = ~
p
nBi
(13
|
1
3
, co ~
a ).
6.3
Unscharfe A-posteriori-Bayes-Punktsch¨
atzer
Eine weitere wichtige Aufgabe der Bayes-Statistik besteht in der Angabe von Punkt-
sch¨
atzungen f¨
ur den unbekannten Parameter im parametrischen stochastischen Mo-
dell X
P
. Es gibt verschiedene Modelle f¨
ur Bayes'sche Punktsch¨
atzungen. In die-
sem Abschnitt sollen der A-posteriori-Erwartungswert-Sch¨
atzer, A-posteriori-Modus-
Sch¨
atzer und A-posteriori-Median-Sch¨
atzer vorgestellt werden und ihre unscharfen Er-
weiterungen vorgestellt werden. Andere Modelle beruhen auf der Definition des Bayes'
schen Risikos, diese werden erst in Kapitel 7 eingef¨
uhrt.
Alternative Vorschl¨
age finden sich in der Literatur kaum. Von Wu wird ein Kon-
zept f¨
ur Fuzzy-Bayes-Punktsch¨
atzer auf Basis der eigenen Zufallsvariablendefinition
vorgestellt.
36
36
Vgl. Wu (2003), S. 104 ff., Wu (2004a), S. 277 ff., Wu (2004b), S. 467 ff.

198
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
6.3.1
Fuzzy-A-posteriori-Erwartungswert-Sch¨
atzer
Ausgegangen wird von einem klassischen parametrischen stochastischen Modell X
P
und der A-priori-Verteilung (.) von
auf . Nach Erhebung einer Stichpro-
be (X
1
, ..., X
n
) vom Umfang n mit Realisationen (x
1
, ..., x
n
) ist (.
|x
1
, ..., x
n
) die A-
posteriori-Verteilung von
auf . Dann wird der Erwartungswert der A-posteriori-
Verteilung E
(
|x
1
,...,x
n
)
(
), falls er existiert, als A-posteriori-Erwartungswert-Sch¨atzer
^
ur bezeichnet:
^
:= E
(.
|x
1
,...,x
n
)
(
) :=
· (|x
1
, ..., x
n
))
im diskreten Fall
^
:= E
(.
|x
1
,...,x
n
)
(
) :=
· (|x
1
, ..., x
n
))d
im stetigen Fall
Von dem klassischen Sch¨
atzer (vgl. Abschnitt 5.3) unterscheidet sich der A-posteriori-
Bayes-Erwartungswert-Sch¨
atzer vor allem dadurch, dass er nicht unverzerrt ist.
37
Al-
lerdings ist er ein effizienter Sch¨
atzer, was in Abschnitt 7.3.1 noch gezeigt werden wird.
Es soll der unscharfe A-posteriori-Bayes-Erwartungswert-Sch¨
atzer definiert werden.
Definition: Gegeben ist X
P
ein klassisches parametrisches stochastisches Modell,
und (.) ist die A-priori-Verteilung von
auf (, ). Ist ( ~
X
1
, ..., ~
X
n
) eine Stichpro-
be vom Unfang n von verteilungstreuen Fuzzy-Perzeptionen von X mit den unschar-
fen Realisationen ( ~
A
1
, ..., ~
A
n
), die zu der Fuzzy-Schar von A-posteriori-Verteilungen
~
~
(.
|~A
1
, ..., ~
A
n
) von ~
f¨uhrt, dann heißt der unscharfe Erwartungswert E
~
~
(.
| ~
A
1
,..., ~
A
n
)
(
)
der unscharfen A-posteriori-Verteilung von ~
unscharfer A-posteriori-Bayes-Erwar-
tungswert-Sch¨
atzer
^~ f¨ur ~. Dies bedeutet:
^~ := E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( ~
),
(6.44)
wobei E
~
~
(.
| ~
A
1
,..., ~
A
n
)
gegeben ist durch die Zugeh¨
origkeitsfunktion
E
~
~
(.| ~
A1,..., ~
An)
( ~
)
() =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
E(.|x1,...,xn)()=
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(.|x1,...,xn)supp(~
~
(.| ~
A1,..., ~
An)):
E(.|x1,...,xn)()=
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
)),
(6.45)
d.h. im diskreten Fall
E
~
~
(.| ~
A1,..., ~
An)
( ~
)
() =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
·(|x1,...,xn)=
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(.|x1,...,xn)supp(~
~
(.| ~
A1,..., ~
An)):
·(|x1,...,xn)=
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(6.46)
37
Vgl. Viertl (2003), S. 178 f., Berger (1985), S. 134 f., Robert (2001), S. 165, Marinell (1985), S.
117 ff.

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
199
und im stetigen Fall
E
~
~
(.| ~
A1,..., ~
An)
( ~
)
() =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
·(|x1,...,xn)d=
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(.|x1,...,xn)supp(~
~
(.| ~
A1,..., ~
An)):
·(|x1,...,xn)d=
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(6.47)
ur
. Man kann auch schreiben:
^~ = E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( ~
) =
,
E
~
~
(.| ~
A1,..., ~
An)
( ~
)
()
,
E
~
~
(.| ~
A1,..., ~
An)
( ~
)
() =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
E(.|x1,...,xn)()=
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
,
(6.48)
also im diskreten Fall
^~ = E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( ~
) =
,
E
~
~
(.| ~
A1,..., ~
An)
( ~
)
()
,
E
~
~
(.| ~
A1,..., ~
An)
( ~
)
() =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
·( |x1,...,xn)=
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
,
(6.49)
und im stetigen Fall
^~ = E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( ~
) =
,
E
~
~
(.| ~
A1,..., ~
An)
( ~
)
()
,
E
~
~
(.| ~
A1,..., ~
An)
( ~
)
() =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
·( |x1,...,xn)d =
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
,
(6.50)
Bemerkung: Im Fall eines nicht-konvexen
^~kann auch der konvexe Fuzzy-A-posteriori-
Bayes-Erwartungswert-Sch¨
atzer bestimmt werden, indem anstelle des Fuzzy-A-poste-
riori-Bayes-Erwartungswert-Sch¨
atzers selbst dessen konvexe H¨
ulle angegeben wird:
co
^~ = co E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( ~
)
(6.51)
Der konvexe A-posteriori-Bayes-Erwartungswert-Sch¨
atzer ist insbesondere von Bedeu-
tung im Fall diskreter Stichprobenverteilungen, da f¨
ur diese der Fuzzy-Sch¨
atzer im
Allgemeinen nicht konvex ist.
Begleitendes Beispiel: Ist X
Po
mit A-posteriori-Gammaverteilung (.
|x
1
, ..., x
n
) =
f
(.
|a +
n
i=1
x
i
,
1
b +n
) f¨
ur
auf (0, ) (klassische Gr¨oßen), dann ist
^
=
0
·(b +n)
(a +n
i=1xi
)
·
(a +n
i=1xi
)
-1
·e
(b +n)
(a +
n
i=1
x
i
-1)!
d
=
(b +n)
a +n
i=1xi
(a +
n
i=1
x
i
-1)!
·
0
(
(a +
n
i=1
x
i
)
· e
(b +n)
)d.

200
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Allgemein gilt f¨
ur a
IN, b IN (unbestimmtes Integral):
(
a
· e
-b
)d =
-
a
·e
-b
b
+
a
b
(
a
-1
· e
-b
)d = ...
=
-
a
·e
-b
b
-
a
·
a-1
·e
-b
b
2
- ... +
a!
b
n
e
-b
d
=
-
a
·e
-b
b
-
a
·
a-1
·e
-b
b
2
- ... -
a!
·e
-b
b
n+1
+ c
= e
-b
· -
a
j=0
a-j
·a!
b
j+1
·(a-j)!
+ c
Somit ist
(b +n)
(a +n
i=1xi
)
(a +
n
i=1
x
i
-1)!
· (
(a +
n
i=1
x
i
)
· e
(b +n)
)d
=
(b +n)
(a +n
i=1xi
)
(a +
n
i=1
x
i
-1)!
· e
-(b +n)
· -
a +
n
i=1
x
i
j=0
a +n
i=1xi-j
·(a +
n
i=1
x
i
)!
(b +n)
j+1
·(a +
n
i=1
x
i
-j)!
+ c
= e
-(b +n)
· -
a +
n
i=1
x
i
j=0
(b +n)
(a +n
i=1xi-j-
1)
·(a +
n
i=1
x
i
)
·
a +n
i=1xi-j
(a +
n
i=1
x
i
-j)!
+ c.
Einsetzen der Integrationsgrenzen ergibt wegen lim
a
e
-
= 0:
^
=
(b +n)
(a +n
i=1xi
)
(a +
n
i=1
x
i
-1)!
·
0
(
(a +
n
i=1
x
i
)
· e
-(b +n)
)d
=
-0 - 0... + 1 ·
(b +n)
-1
·(a +
n
i=1
x
i
)
·0
0
0!
=
a +
n
i=1
x
i
(b + n)
Ist nun ( ~
X
1
, ..., ~
X
n
) eine Stichprobe von n verteilungstreuen Fuzzy-Perzeptionen von X
mit Fuzzy-Realisationen ( ~
A
1
, ..., ~
A
n
)
(F(IN
0
))
n
, aus der die Fuzzy-Schar von inver-
tierten A-posteriori-Gammadichten (B.6.17) aus Abschnitt 6.1.3 berechnet wird, dann
ist
^~ = E
~~
f
(.
|a
n
i=1
~
A
i
,
1
b +n
)
( ~
)
=
(b +n)
(a +)
(a +
-1)!
·
0
(
(a +)
· e
-(b +n)
)d,
n
i=1
~
A
i
()
supp
n
i=1
~
A
i
=
a +
b + n
,
n
i=1
~
A
1
()
n
i=1
x
i
supp
n
i=1
~
A
i
.
(B.6.34)
Da
a
b
als Funktion von a streng monoton wachsend und stetig ist, gilt außerdem f¨
ur
die konvexe H¨
ulle nach (3.53)-(3.56)
co
^~ = co E
~~
f
(.
|a
n
i=1
~
A
i
,
1
b +n
)
( ~
) = E
~~
f
(.
|a
n
i=1
co ~
A
i
,
1
b +n
)
( ~
)
(B.6.35)
und f¨
ur deren -Schnitte f¨
ur
(0, 1]
co
^~
=
a +
n
i=1
a
i
b + n
,
a +
n
i=1
a
i
b + n
.
(B.6.36)

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
201
Begleitendes numerisches Beispiel: Mit den numerischen Angaben der begleiten-
den numerischen Fallstudie und von Abschnitt 6.1.3 auf Basis der Parameter von
(N.6.2) soll der Fuzzy-A-posteriori-Bayes-Erwartungswert-Sch¨
atzer berechnet werden.
Es ist
^~ = E
~~
f
(.
|~a ,
1
b
)
( ~
) =
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
8.6
8.8
9
9.2
9.4
9.6
9.8
10
,
(N.6.9)
und die -Schnitte der konvexen H¨
ulle sind gegeben durch
co
^~
=
[8.6, 10]
ur 0 <
0.2
[8.8, 10]
ur 0.2 <
0.5
[9, 9.8]
ur 0.5 <
0.6
[9, 9.6]
ur 0.6 <
0.7
[9.2, 9.6] f¨
ur 0.7 <
0.8
9.4
ur 0.8 <
1.
(N.6.10)
Abbildung 6.7: Fuzzy-A-posteriori-Bayes-Erwartungswert-Sch¨
atzer und konvexe H¨
ulle
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
8.6
8.8
9.0
9.2
9.4
9.6
9.8
10.0
()
^~
-
8.6
8.8
9.0
9.2
9.4
9.6
9.8
10.0
co
^~
Eine Sch¨
atzmethode f¨
ur einen A-posteriori-Bayes-Erwartungswertsch¨
atzer, die auf
defuzzifizierten Likelihoodfunktionen beruht, wird von Gertner und Zhu vorgestellt.
38
6.3.2
Fuzzy-A-posteriori-Median-Sch¨
atzer
Ein weiterer Bayes'scher Sch¨
atzer ist der Median der A-posteriori-Verteilung, d.h. das
0.5-Quantil der A-posteriori-Verteilung.
39
Ausgegangen wird von einem klassischen parametrischen stochastischen Modell
X
P
und der A-priori-Verteilung (.) von
auf . Nach Erhebung einer Stichpro-
be (X
1
, ..., X
n
) vom Umfang n mit Realisationen (x
1
, ..., x
n
) ist (.
|x
1
, ..., x
n
) die A-
posteriori-Verteilung von
auf . Dann erh¨alt man den A-posteriori-Median-Sch¨atzer
^
me
ur als den Median
0.5x
1
,...,x
n
der A-posteriori-Verteilung (.
|x
1
, ..., x
n
), d.h. durch
^
me
:=
0.5x
1
,...,x
n
38
Vgl. Gertner / Zhu (1996), S. 277 ff.
39
Vgl. Berger (1985), S. 133 f., Robert (2001), S. 165.

202
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
wobei
0.5x
1
,...,x
n
gegeben ist durch
F (
0.5x
1
,...,x
n
|x
1
, ..., x
n
) = 0.5
F (.
|x
1
, ..., x
n
) ist dabei die Verteilungsfunktion der A-posteriori-Verteilung, d.h.
0.5x1,...,xn
=
-
(
|x
1
, ..., x
n
) = 0.5
im diskreten Fall und
0.5x1,...,xn
-
(
|x
1
, ..., x
n
)d = 0.5
im stetigen Fall.
Nun soll der unscharfe A-posteriori-Bayes-Median-Sch¨
atzer definiert werden.
Definition: Ist X
P
ein klassisches parametrisches stochastisches Modell, ist (.)
die A-priori-Verteilung von
auf (, ), und ist ( ~
X
1
, ..., ~
X
n
) eine Stichprobe vom Un-
fang n von verteilungstreuen Fuzzy-Perzeptionen von X mit den unscharfen Realisa-
tionen ( ~
A
1
, ..., ~
A
n
), die zu der Fuzzy-Schar von A-posteriori-Verteilungen ~
~
(.
|~A
1
, ..., ~
A
n
)
von ~
f¨uhrt, dann heißt der unscharfe Median ~
0.5 ~
A
1
,..., ~
A
n
der unscharfen A-posteriori-
Verteilung von ~
unscharfer A-posteriori-Bayes-Median-Sch¨atzer
^~
me
ur ~
. Dies be-
deutet
^~
me
:= ~
0.5 ~
A
1
,..., ~
A
n
,
(6.52)
wobei ~
0.5 ~
A
1
,..., ~
A
n
gegeben ist durch die Zugeh¨
origkeitsfunktion
~
0.5 ~
A1,..., ~
An
() =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
0.5x1,...,xn =
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(.|x1,...,xn)supp(~
~
(.| ~
A1,..., ~
An)):
F (0.5x1,...,xn |x1,...,xn)=0.5
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
)),
(6.53)
d.h. im diskreten Fall
~
0.5 ~
A1,..., ~
An
() =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
=-
(|x1,...,xn))=0.5
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(.|x1,...,xn)supp(~
~
(.| ~
A1,..., ~
An)):
=-
(|x1,...,xn))=0.5
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(6.54)
und im stetigen Fall
~
0.5 ~
A1,..., ~
An
() =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
-
(|x1,...,xn)d)=0.5
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(.|x1,...,xn)supp(~
~
(.| ~
A1,..., ~
An)):
-
(|x1,...,xn)d)=0.5
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(6.55)

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
203
ur
. Man kann auch schreiben:
^~
me
= ~
0.5 ~
A
1
,..., ~
A
n
=
,
~
0.5 ~
A1,..., ~
An
()
,
~
0.5 ~
A1,..., ~
An
() =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
0.5x1,...,xn =
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(6.56)
Bemerkung: Im Fall eines nicht-konvexen
^~
me
kann auch der konvexe Fuzzy-A-poste-
riori-Bayes-Median-Sch¨
atzer bestimmt werden, indem anstelle des Fuzzy-A-posteriori-
Bayes-Median-Sch¨
atzers selbst dessen konvexe H¨
ulle angegeben wird:
co
^~
me
= co ~
0.5 ~
A
1
,..., ~
A
n
(6.57)
Der konvexe A-posteriori-Bayes-Median-Sch¨
atzer ist insbesondere von Bedeutung im
Fall diskreter Stichprobenverteilungen, da f¨
ur diese der Fuzzy-Median im Allgemeinen
nicht konvex ist.
Begleitendes Beispiel: Ist X
Po
gegeben mit A-posteriori-Gammaverteilung
(.
|x
1
, ..., x
n
) = f
(.
|a +
n
i=1
x
i
,
1
b +n
) f¨
ur
auf (0, ) (exakte Gr¨oßen), dann ist
^
me
=
0.5a +
n
i=1
x
i
,
1
b +n
bzw.
F
^
me
a +
n
i=1
x
i
,
1
b +n
= F
0.5a +
n
i=1
x
i
,
1
b +n
a +
n
i=1
x
i
,
1
b +n
=
^
me
0
·(b +n)
(a +n
i=1xi
)
·
(a +n
i=1xi
)
-1
·e
(b +n)
(a +
n
i=1
x
i
-1)!
d
=
0.5a +n
i=1
xi,
1
b +n
0
·(b +n)
(a +n
i=1xi
)
·
(a +n
i=1xi
)
-1
·e
(b +n)
(a +
n
i=1
x
i
-1)!
d = 0.5.
Allgemein gilt f¨
ur a
IN, b IN, (0, 1):
F
(
|a,
1
b
) =
0
b
a
·
a-1
·e
-b
(a
-1)!
d =
-
(b)
a-1
·e
-b
(a
-1)!
=
=0
+
0
b
a-1
·
a-2
·e
-b
(a
-2)!
d
= ... =
-
a
-1
j=1
(b)
j
·e
-b
j!
=
=0
+
0
b
· e
-b
d
=
a
-1
j=1
-
(b
)
j
·e
-b
j!
+ 0
- e
-b
+ 1
= 1
- e
-b
·
a
-1
j=0
(b
)
j
j!
=
Ist nun ( ~
X
1
, ..., ~
X
n
) eine Stichprobe von n verteilungstreuen Fuzzy-Perzeptionen von X
mit Fuzzy-Realisationen ( ~
A
1
, ..., ~
A
n
)
(F(IN
0
))
n
, aus der die Fuzzy-Schar von inver-
tierten A-posteriori-Gammadichten (B.6.17) aus Abschnitt 6.1.3 berechnet wird, dann

204
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ist
^~
me
= ~
0.5a
n
i=1
~
A
i
,
1
b +n
=
0.5a +,
1
b +n
,
n
i=1
~
A
i
()
supp
n
i=1
~
A
i
=
a +
n
i=1
x
i
,
1
b +n
,
n
i=1
~
A
i
()
supp
n
i=1
~
A
i
,
F
a +,
1
b +n
a + ,
1
b + n
= 0.5
=
a +,
1
b +n
,
n
i=1
~
A
i
()
supp
n
i=1
~
A
i
,
a +,
1
b +n
0
(b + n)
(a +)
·
(a +)
· e
-(b +n)
(a +
- 1)!
d = 0.5
.
(B.6.37)
Zur Bestimmung von ~
0.5a
n
i=1
co ~
A
i
,
1
b +n
muss die Frage nach Stetigkeit und Mono-
tonie von
0.5a ,
1
b
in a beantwortet werden. Aus der Stetigkeit von f
(
|.,
1
b
) und
F
(
|.,
1
b
) in a kann auf die Stetigkeit von
0.5a ,
1
b
geschlossen werden. Die Monoto-
nie von
0.5a ,
1
b
in a folgt aus der folgenden ¨
Uberlegung. Zuerst wird die Monotonie
der Verteilungsfunktion F
(
|a,
1
b
) in a gezeigt. Speziell kann einfach die G¨
ultigkeit der
Aussage F
(
|a,
1
b
) > F
(
|a + 1,
1
b
) f¨
ur
IR
+
, a
1 gezeigt werden:
F
(
|a,
1
b
)
- F
(
|a + 1,
1
b
) =
0
b
a
·
a-1
·e
-b
(a)
d
-
0
b
a+1
·
a
·e
-b
(a+1)
d
=
0
b
a
·
a-1
·e
-b
(a)
d
- -
(b)
a
(a+1)
=
=0
-
0
b
a
·
a-1
·e
-b
(a)
d =
(b)
a
(a+1)
> 0
Allgemein kann f¨
ur h < 0 die Aussage F
(
|a,
1
b
) > F
(
|a+h,
1
b
) unter Anwendung des
Additionstheorems f¨
ur Gammaverteilungen gezeigt werden. Es seien
a
f
(.
|a,
1
b
),
h
f
(.
|h,
1
b
), dann gilt nach dem Additionstheorem
40
a
+
h
f
(.
|a + h,
1
b
). Da
der Bildraum von
h
(Teilmenge von) IR
+
ist, gilt
h
> 0 und daher
a
+
h
>
a
.
Daraus folgt, dass f¨
ur
IR
+
gilt
F
(
|a + h,
1
b
) = P (
{
a
+
h
}) < P ({
a
<
}) = F
(
|a,
1
b
).
40
ur
a
f
(.
|a,
1
b
),
h
f
(.
|h,
1
b
) gilt unter Anwendung des Faltprodukts
a
+
h
-
f
(
|a,
1
b
)
· f
(
- |h,
1
b
)dxi =
-
b
a
·
a-1
·e
-b
(a)
·
b
h
·
h-1
·e
-b
(h)
· 1
(0,)
()
· 1
(0,)
(
- )
=
-
0
b
a
·
a-1
·e
-b
(a)
·
b
h
·
h-1
·e
-b
(h)
=
b
a+h
·e
-b(+-)
(a)·(h)
·
0
a
-1
(
- )
h
-1
d
=
a+h-1
(a+h)
(a)(h)
=
b
a+h
·
a+h-1
·e
-b
(a+h)
= f
(
|a + h,
1
b
),
also
a
+
h
f
(.
|a + h,
1
b
).

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
205
F
(
|.,
1
b
) ist also in a streng monoton fallend. Sind
a,
1
b
und
a+h,
1
b
ur p
(0, 1)
gegeben durch
a,
1
b
=
a+h,
1
b
= p, dann gilt weiter
F
(
a,
1
b
|a + h,
1
b
) < F
(
a,
1
b
|a,
1
b
) = F
(
a+h,
1
b
|a + h,
1
b
).
Aus der Monotonie von F
(.
|a,
1
b
) folgt somit auch
a,
1
b
<
a+h,
1
b
, also die Monotonie
von
a,
1
b
.
Daher ist nach (3.53)-(3.56)
co
^~
me
= co ~
0.5a
n
i=1
~
A
i
,
1
b +n
= ~
0.5a
n
i=1
co ~
A
i
,
1
b +n
(B.6.38)
und
co
^~
me
=
0.5a +
n
i=1
a
i
,
1
b +n
,
0.5a +
n
i=1
a
i
,
1
b +n
(B.6.39)
ur
(0, 1].
Begleitendes numerisches Beispiel: Mit den numerischen Angaben der begleiten-
den numerischen Fallstudie und von Abschnitt 6.1.3 auf Basis der Parameter von
(N.6.2) soll der Fuzzy-A-posteriori-Bayes-Median-Sch¨
atzer berechnet werden. Es ist
^~
me
= ~
0.5~
a ,
1
b
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
8.5334
8.7334
8.9334
9.1334
9.3334
9.5334
9.7334
9.9334
,
(N.6.11)
und es ist
co
^~
me
=
[8.5334, 9.9334] f¨
ur 0 <
0.2
[8.7334, 9.9334] f¨
ur 0.2 <
0.5
[8.9334, 9.7334] f¨
ur 0.5 <
0.6
[8.9334, 9.5334] f¨
ur 0.6 <
0.7
[9.1334, 9.5334] f¨
ur 0.7 <
0.8
9.3344
ur 0.8 <
1.
(N.6.12)
6.3.3
Fuzzy-A-posteriori-Modus-Sch¨
atzer
Ein weiterer Bayes'scher Sch¨
atzer ist der Modus der A-posteriori-Verteilung, d.h. jener
Wert, f¨
ur den die A-posteriori-Verteilung ihr Maximum annimmt, dieser Sch¨
atzer wird
auch als Maximum-A-posteriori-Likelihood-Sch¨
atzer bezeichnet.
41
Ausgegangen wird von einem klassischen parametrischen stochastischen Modell
X
P
und der A-priori-Verteilung (.) von
auf . Nach Erhebung einer Stich-
probe (X
1
, ..., X
n
) vom Umfang n mit Realisationen (x
1
, ..., x
n
) ist (.
|x
1
, ..., x
n
) die
A-posteriori-Verteilung von
auf . Dann kann der Modus mod((.|x
1
, ..., x
n
)) der
A-posteriori-Verteilung (.
|x
1
, ..., x
n
), der gegeben ist durch
(mod((.
|x
1
, ..., x
n
))
|x
1
, ..., x
n
) := max
(
|x
1
, ..., x
n
).
41
Vgl. Berger (1985), S. 133 f., Robert (2001), S. 165.

206
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
als Maximum-A-posteriori-Likelihood-Sch¨
atzer ^
mo
ur herangezogen werden, d.h. im
stetigen und im diskreten Fall ist
^
mo
:= mod((.
|x
1
, ..., x
n
)).
Insbesondere f¨
ur den Fall, dass (.
|x
1
, ..., x
n
) nach differenzierbar ist, kann der
Modus der A-posteriori-Verteilung sehr leicht berechnet werden durch Differenzieren
der A-posteriori-Dichte nach und Nullsetzen der Ableitung, d.h.
d
d
(
|x
1
, ..., x
n
) = 0.
(6.58)
Ist außerdem die zweite Ableitung negativ, d.h.
d
2
d
2
(
|x
1
, ..., x
n
) < 0 ,
so liegt (zumindest lokal) ein Maximum vor. Sollten (vor allem bei Mischverteilungen)
die Bedingungen f¨
ur mehrere Werte
erf¨ullt sein, so muss unter diesen m¨ogli-
chen Werten numerisch der Wert bestimmt werden, f¨
ur den die Funktion (.
|x
1
, ..., x
n
)
maximal ist.
Nun soll der unscharfe Maximum-A-posteriori-Likelihood-Sch¨
atzer definiert werden.
Definition: Ist X
P
ein klassisches parametrisches stochastisches Modell, ist (.)
die A-priori-Verteilung von
auf (, ), und ist ( ~
X
1
, ..., ~
X
n
) eine Stichprobe vom Un-
fang n von verteilungstreuen Fuzzy-Perzeptionen von X mit den unscharfen Realisatio-
nen ( ~
A
1
, ..., ~
A
n
), die zu der Fuzzy-Schar von A-posteriori-Verteilungen ~
~
(
|~A
1
, ..., ~
A
n
)
von ~
f¨uhrt, dann heißt der unscharfe Modus mod(~~(.|~A
1
, ..., ~
A
n
) der unscharfen A-
posteriori-Verteilung von ~
unscharfer Maximum-A-posteriori-Likelihood-Sch¨atzer
^~
mo
ur ~
. Dies bedeutet:
^~
mo
:= mod ~
~
(.
|~A
1
, ..., ~
A
n
) ,
(6.59)
wobei mod(~
~
(.
|~A
1
, ..., ~
A
n
)) gegeben ist durch die Zugeh¨
origkeitsfunktion
mod(~
~
(.
| ~
A
1
,..., ~
A
n
))
() =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
mod((|x1,...,xn))=
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(.|x1,...,xn)supp(~
~
(.| ~
A1,..., ~
An)):
(|x1,...,xn)= max
( |x1,...,xn)
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(6.60)
Bemerkung: Im Fall eines nicht-konvexen
^~
mo
kann auch der konvexe Fuzzy-Maximum-
A-posteriori-Likelihood-Sch¨
atzer bestimmt werden, indem anstelle des Fuzzy-Maximum-
A-Posteriori-Likelihood-Sch¨
atzers selbst dessen konvexe H¨
ulle angegeben wird.
co
^~
mo
= co mod ~
~
(.
|~A
1
, ..., ~
A
n
)
(6.61)
Der konvexe Fuzzy-Maximum-A-posteriori-Likelihood-Sch¨
atzer ist wiederum insbeson-
dere von Bedeutung im Fall diskreter Stichprobenverteilungen, da f¨
ur diese der Fuzzy-
Modus im Allgemeinen nicht konvex ist.

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
207
Begleitendes Beispiel: Ist X
Po
mit A-posteriori-Gammaverteilung (.
|x
1
, ..., x
n
) =
f
(.
|a +
n
i=1
x
i
,
1
b +n
) f¨
ur
auf (0, ) (klassische Gr¨oßen), dann ist
^
mo
= mod(f
(.
|a +
n
i=1
x
i
,
1
b +n
))
Es ist
d
d
f
(
|a,
1
b
) =
d
d
b
a
·
a-1
·e
-b
(a)
=
b
a
·((a-1)
a-2
·e
-b
-
a-1
·be
-b
)
(a)
=
b
a
·
a-2
·e
-b
(a)
(a
- 1 - b)
!
= 0
^
mo
=
a
- 1
b
und
d
2
d
2
f
(
|a,
1
b
) =
d
d
b
a
·
a-2
·e
-b
(a)
(a
- 1 - b)
=
b
a
·((a-2)
a-3
·e
-b
-
a-2
·be
-b
)
(a)
(a
- 1 - b) +
b
a
·
a-2
·e
-b
(a)
(
-b)
=
b
a
·
a-3
·e
-b
(a)
· ((a - 2 - b)(a - 1 - b) - b).
Setzt man ^
mo
=
a
-1
b
, so erh¨
alt man
b
a
·(
a-1
b
)
a-3
·e
-b( a-
1
b
)
(a)
· ((a - 2 - b(
a
-1
b
))(a
- 1 - b(
a
-1
b
))
- b(
a
-1
b
))
=
b
3
·(a-1)
a-3
·e
-(a-1)
(a)
· ((a - 2 - (a - 1))(a - 1 - (a - 1)) - (a - 1))
=
b
3
·(a-1)
a-3
·e
-(a-1)
(a)
>0
· (-(a - 1))
<0
< 0
f ¨
ur a > 1.
Bei ^
mo
=
a
-1
b
liegt somit f¨
ur a > 1, wie gew¨
unscht, ein Maximum vor.
Ist nun ( ~
X
1
, ..., ~
X
n
) eine Stichprobe von n verteilungstreuen Fuzzy-Perzeptionen
von X mit Fuzzy-Realisationen ( ~
A
1
, ..., ~
A
n
)
(F(IN
0
))
n
, aus der die Fuzzy-Schar von
invertierten A-posteriori-Gammadichten (B.6.17) aus Abschnitt 6.1.3 berechnet wird,
dann ist
^~
mo
= mod
~~
f
. a
n
i=1
~
A
i
,
1
b +n
=
mod f
. a + ,
1
b +n
,
n
i=1
~
A
i
()
supp
n
i=1
~
A
i
=
a +
- 1
b + n
,
n
i=1
~
A
1
()
supp
n
i=1
~
A
i
.
(B.6.40)
Da
a
-1
b
als Funktion von a streng monoton wachsend und stetig ist, ist außerdem
nach (3.53)-(3.56)
co
^~
mo
= co mod
~~
f
. a
n
i=1
~
A
i
,
1
b +n
= mod
~~
f
. a
n
i=1
co ~
A
i
,
1
b +n
(B.6.41)
und
co
^~
mo
=
a +
n
i=1
a
i
- 1
b + n
,
a +
n
i=1
a
i
- 1
b + n
(B.6.42)

208
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ur
(0, 1].
Begleitendes numerisches Beispiel: Mit den numerischen Angaben der begleiten-
den numerischen Fallstudie und von Abschnitt 6.1.3 auf Basis der Parameter von
(N.6.2) soll der Fuzzy-Maximum-A-posteriori-Likelihood-Sch¨
atzer berechnet werden.
Es ist
^~
mo
= mod
~~
f
(.
|~a ,
1
b
) =
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
8.4
8.6
8.8
9
9.2
9.4
9.6
9.8
,
(N.6.13)
und es ist
co
^~
mo
=
[8.4, 9.8] f¨
ur 0 <
0.2
[8.6, 9.9] f¨
ur 0.2 <
0.5
[8.8, 9.6] f¨
ur 0.5 <
0.6
[8.8, 9.4] f¨
ur 0.6 <
0.7
[9.0, 9.4] f¨
ur 0.7 <
0.8
9.2
ur 0.8 <
1.
(N.6.14)
6.4
Unscharfe HPD-Bereiche
Bereichssch¨
atzungen sind nicht nur Aufgabe der klassischen schließenden Statistik,
sondern sie spielen auch in der Bayes'schen Statistik eine bedeutende Rolle. Analog
zu den klassischen Konfidenzbereichen (vgl. Abschnitt 5.4) k¨
onnen die Bayes'schen
Vertrauens- oder Konfidenzbereiche bestimmt werden. Von gr¨
oßerem Interesse sind
allerdings die Bayes'schen HPD-Bereiche (Highest Posteriori Density Bereiche). Sie
stellen ebenfalls eine Verwertung der A-posteriori-Verteilung dar. Es soll hier nur der
Fall stetiger A-posteriori-Verteilungen, die durch eine A-posteriori-Dichte beschrieben
werden, behandelt werden.
Ist X eine klassische Zufallsvariable, X
P
, ist (.) die A-priori-Dichte, die die
Verteilung von
auf dem Parameterraum (, ) beschreibt, und ist (.|x
1
, ..., x
n
)
nach Erhebung einer Stichprobe (X
1
, ..., X
n
) von X mit Realisationen (x
1
, ..., x
n
) die
A-posteriori-Dichte von
auf , dann ist ein HPD-Bereich H ein Teilbereich des
Parameterraums , der durch die folgenden beiden Eigenschaften definiert ist:
(i) P
(
{ H}) =
H
(
|x
1
, ..., x
n
)d =
(ii) (
|x
1
, ..., x
n
)
( |x
1
, ..., x
n
)
H, / H
Bereiche, die nur (i) erf¨
ullen, bezeichnet man auch als Bayes'sche Vertrauens- oder
Konfidenzbereiche mit Sicherheit , bei eindimensionalen Parameterr¨
aumen spricht
man auch von Bayes-Intervallen. Die Gr¨
oße heißt Sicherheitsniveau, wobei
(0, 1)
eine Zahl "nahe 1" ist.
42
Bei eindimensionalen Parameterr¨
aumen ist die Eigenschaft (ii) ¨
aquivalent zu:
42
Vgl. Viertl (1996), S. 143, Viertl (2004), S. 668, Berger (1985), S. 140, Ferguson (1967), S. 255 ff.,
Gelman / Carlin / Stern / Rubin (1995), S. 33 f., Carlin / Louis (1996), S. 42 ff., Marinell (1985), S.
106 f.

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
209
(ii')
|H - H| = min |
2
-
1
|
2
1
(
|x
1
, ...x
n
)d =
wobei H := inf
{ | H} und H := sup{ | H}
Ein eindimensionaler HPD-Bereich ist somit ein Bayes-Intervall minimaler L¨
ange.
Die konkrete Berechnung von HPD-Intervallen H
(.
|x
1
,...,x
n
)
bzw. deren Untergrenze
H und Obergrenze H erfolgt durch L¨
osung des Gleichungssystems:
H
H
(
|x
1
, ..., x
n
)d =
(6.62)
(H
|x
1
, ..., x
n
) = (H
|x
1
, ..., x
n
)
(6.63)
d.h. durch Bestimmung der Quantile H und H. Die Bedingung (6.63) ist ¨
aquivalent zu
den Bedingungen (ii) bzw. (ii') f¨
ur HPD-Intervalle.
43
Ein Analogon soll nun f¨
ur unscharfe A-posteriori-Dichten gefunden werden.
44
Ist X
P
ein (scharfes) parametrisches stochastisches Modell, ist (.) die A-priori-
Dichte von
auf , und ist ( ~
X
1
, ..., ~
X
n
) eine Stichprobe von n verteilungstreuen Fuzzy-
Perzeptionen von von X mir Realisationen ( ~
A
1
, ..., ~
A
)
, dann kann daraus die Fuzzy-
Schar von A-posteriori-Dichtefunktionen ~
~
(.
|~A
1
, ..., ~
A
n
) nach (6.7) abgeleitet werden.
Aus dieser Fuzzy-Schar von A-posteriori-Dichten soll das Fuzzy-HPD-Intervall defi-
niert werden.
45
Insbesondere wird dabei die Eigenschaft ausgen¨
utzt, dass jede Funk-
tion der unscharfen Schar selbst eine Dichtefunktion ist mit
(
|x
1
, ..., x
n
)d = 1
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
).
Man kann nun mittels (6.62)-(6.63) f¨
ur jede Dichtefunktion (.
|x
1
, ..., x
n
)
supp(~
~
(.
|~A
1
, ..., ~
A
n
)) ein scharfes HPD-Intervall H
(.
|x
1
,...,x
n
)
bestimmen. Der -Schnitt
H
des Fuzzy-HPD-Intervalls ~
H ist dann gegeben durch:
H
: = co
x
1
A
1
,...,x
n
A
n
H
(.
|x
1
,...,x
n
)
= co
(|x1,...,xn)supp(~
~
(.| ~
A1,..., ~
An)):
~
~
(.| ~
A1,..., ~
An)
((.|x1,...,xn))
H
(.
|x
1
,...,x
n
)
(6.64)
Es ist dann
H
= H
, H
,
(6.65)
wobei
H
:= inf
|(.|x
1
, ..., x
n
)
(
(.
|A
1
, ..., A
n
)
: H
(.
|x
1
,...,x
n
)
=
H
:= sup
|(.|x
1
, ..., x
n
)
(
(.
|A
1
, ..., A
n
)
: H
(.
|x
1
,...,x
n
)
=
(6.66)
43
Vgl. Viertl (2003), S. 180, Viertl (1996), S. 144, Berger (1985), S. 140 ff., Gelman / Carlin / Stern
/ Rubin (1995), S. 34, Carlin / Louis (1996), S. 42 ff., Marinell (1985), S. 108 f.
44
Bei Viertl (2004), S. 668 ff., wird die Konstruktion eines unscharfen Bayes'sches Konfidenzinter-
valls vorgef¨
uhrt. In der vorliegenden Arbeit beschr¨
ankt man sich auf die Dartstellung der unscharfen
HPD Intervalle.
45
Diese Definition wird auch bei Viertl / Hule (1991), S. 117 f., Viertl (1992), S. 128 f., Viertl (1996),
S. 144 ff., Viertl (1997), S. 565 f., Viertl (2002d), S. 208 f., Viertl (2003), S. 205 ff., vorgeschlagen.

210
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
mit
H
(.
|x
1
,...,x
n
)
:= inf
{ | H
(.
|x
1
,...,x
n
)
}
H
(.
|x
1
,...,x
n
)
:= sup
{ | H
(.
|x
1
,...,x
n
)
}.
Die Zugeh¨
origkeitsfunktion des Fuzzy-HPD-Intervalls ~
H, das definiert ist durch die
-Schnitte H
,
(0, 1], lautet dann:
~
H
() =
sup
H
(.|x1,...,xn)
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
=
sup
x1supp( ~
A1),...,xnsupp( ~
An):
H(.|x1,...,xn)
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(6.67)
Bemerkung: Auch f¨
ur Bayes'sche Konfidenzintervalle kann eine unscharfe Version
definiert werden. Die Vorgangsweise ist analog: Zuerst wird f¨
ur jede der A-posteriori-
Dichten der Fuzzy-Schar ~
~
(.
|~A
1
, ..., ~
A
n
) ein scharfes Bayes-Intervall bestimmt, welches
(6.62) erf¨
ullt, die Bedingung (6.63) ist diesfalls irrelevant. Daraus kann dann analog zu
(6.64)-(6.67) das Fuzzy-Bayes-Konfidenzintervall gebildet werden.
46
Begleitendes Beispiel: Zu der Fuzzy-Schar von A-posteriori-Gammaverteilungen
~~
f
(.
|a
n
i=1
~
A
i
,
1
b +n
) soll ein unscharfes HPD-Intervall mit Sicherheit bestimmt
werden. F¨
ur jede Gammaverteilung f
(.
|a ,
1
b
)
supp
~~
f
(.
|~a ,
1
b
) muss das folgende
Problem gel¨
ost werden:
f
(
(a ,
1
b
)
|a ,
1
b
) = f
(
+(a ,
1
b
)
|a ,
1
b
)
(B.6.43)
wobei
(a,
1
b
)
das -Quantil der Gammaverteilung mit den Parametern a und
1
b
ist.
Es ist dann f¨
ur
(0, 1]
H
=
min
a
a
n
i=1
A
i
a ,
1
b
,
max
a
a
n
i=1
A
i
+a ,
1
b
=
()a +
1
i=0
a
i
,
1
b +n
,
+()a +
1
i=0
a
i
,
1
b +n
.
(B.6.44)
Begleitendes numerisches Beispiel: F¨
ur die Fuzzy-Schar (N.6.3) mit den Fuzzy-
Parametern nach (N.6.2) soll das unscharfe HPD-Intervall mit Sicherheit = 0.9 be-
stimmt werden. Es ist
H
f
(.
|43,
1
5
) =
0.039543,
1
5
,
0.939543,
1
5
= [6.4410, 10.7211],
~~
f
(.
|~a
1
b
)
f
(.
|43,
1
5
) = 0.2
H
f
(.
|44,
1
5
) =
0.039644,
1
5
,
0.939644,
1
5
= [6.6156, 10.9459],
~~
f
(.
|~a
1
b
)
f
(.
|44,
1
5
) = 0.5
H
f
(.
|45,
1
5
) =
0.039745,
1
5
,
0.939745
1
5
= [6.7905, 11.1706],
~~
f
(.
|~a
1
b
)
f
(.
|45,
1
5
) = 0.7
H
f
(.
|46,
1
5
) =
0.039846,
1
5
,
0.939846,
1
5
= [6.9657, 11.3949],
~~
f
(.
|~a
1
b
)
f
(.
|46,
1
5
) = 0.8
H
f
(.
|47,
1
5
) =
0.039947,
1
5
,
0.939947,
1
5
= [7.1413, 11.6191],
~~
f
(.
|~a
1
b
)
f
(.
|47,
1
5
) = 1
46
Vgl. auch Viertl (1996), S. 143 f.

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
211
H
f
(.
|48,
1
5
) =
0.0400548,
1
5
,
0.9400548,
1
5
= [7.3178, 11.8437],
~~
f
(.
|~a
1
b
)
f
(.
|48,
1
5
) = 0.8
H
f
(.
|49,
1
5
) =
0.0401249,
1
5
,
0.9401249,
1
5
= [7.4936, 12.0671],
~~
f
(.
|~a
1
b
)
f
(.
|49,
1
5
) = 0.6
H
f
(.
|50,
1
5
) =
0.0402550,
1
5
,
0.9402550,
1
5
= [7.6705, 12.2910],
~~
f
(.
|~a
1
b
)
f
(.
|50,
1
5
) = 0.5
und
H
=
[6.4410, 12.2910] f¨
ur 0 <
0.2
[6.6156, 12.2910] f¨
ur 0.2 <
0.5
[6.7905, 12.0671] f¨
ur 0.5 <
0.6
[6.7905, 11.8437] f¨
ur 0.6 <
0.7
[6.9657, 11.8437] f¨
ur 0.7 <
0.8
[7.1413, 11.6191] f¨
ur 0.8 <
1
(N.6.15)
Abbildung 6.8: Fuzzy-HPD-Intervall
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
6.44
7.14
11.62
12.29
()
~
H
6.5
Unscharfe A-posteriori-Wahrscheinlichkeiten
von statistischen Hypothesen
Eine weitere Auswertung von A-posteriori-Verteilungen stellt die Beurteilung von Hy-
pothesen bez¨
uglich des Parameters im parametrischen stochastischen Modell X
P
aufgrund einer konkreten Stichprobe (x
1
, ..., x
n
) von X dar. Diese Form der Beurteilung
stellt die Basis f¨
ur Bayes-Tests dar.
47
Im Folgenden werden nur klassische parametrische Hypothesen betrachtet, wel-
che jeweils als Teilbereich
0
des Parameterraums formuliert werden. Ist nun
(.
|x
1
, ..., x
n
) die A-posteriori-Verteilung von
auf nach Erhebung der Stichprobe,
dann kann die A-posteriori-Wahrscheinlichkeit der Hypothese
H
0
:
0
(im stetigen Fall) berechnet werden durch
P
(
{
0
|x
1
, ..., x
n
}) =
0
(
|x
1
, ..., x
n
)d.
47
Vgl. Viertl (2003), S. 180 f., Berger (1985), S. 145 ff., Robert (2001), S. 227, Carlin / Louis (1996),
S. 45 ff., Marinell (1985), S. 97 ff.

212
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Der Nullhypothese
H
0
wird meist eine Alternativhypothese
H
1
gegen¨
ubergestellt
(wie in der klassischen Statistik). Die Hypothese
H
1
wird formuliert durch einen Teil-
bereich
1
des Parameterraums mit
0
1
=
, h¨aufig ist
1
=
\
0
. Die
A-posteriori-Wahrscheinlichkeit der Hypothese
H
1
:
1
wird dann (im stetigen Fall) berechnet durch
P
(
{
1
|x
1
, ..., x
n
}) =
1
(
|x
1
, ..., x
n
)d.
Interessant ist ferner der Quotient der A-posteriori-Wahrscheinlichkeiten der Hy-
pothesen, der auch als relative A-posteriori-Hypothesenwahrscheinlichkeit bezeichnet
wird:
48
P
(
{
1
P
(
{
0
x
1
, ...x
n
=
P
(
{
1
|x
1
, ..., x
n
})
P
(
{
0
|x
1
, ..., x
n
})
=
1
(
|x
1
, ..., x
n
)d
0
(
|x
1
, ..., x
n
)d
Eine unscharfe Beurteilung von Hypothesen aufgrund unscharfer Daten soll nun
oglich gemacht werden. Es werden hier nur scharfe Hypothesen behandelt. Eine
oglichkeit, auf die hier nicht eingegangen werden soll, ist die Formulierung von un-
scharfen Hypothesen ¨
uber unscharfe Teilmengen des Parameterraums.
Gegeben ist X
P
ein klasssisches parametrisches stochastisches Modell, (.)
ist die A-priori-Dichtefunktion von
auf , und nach einer Erhebung einer Stich-
probe von n Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) von X mit Realisationen ( ~
A
1
, ..., ~
A
n
) ist
~
~
(
|~A
1
, ..., ~
A
n
) die unscharfe Schar von A-posteriori-Dichten von
auf . Die zu be-
urteilenden Hypothesen lauten:
H
0
:
0
,
H
1
:
1
,
0
,
1
,
0
1
=
.
Man berechnet nun f¨
ur alle (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) bzw. f¨
ur alle
(.
|x
1
, ..., x
n
)
supp(~~(.|~A
1
, ..., ~
A
n
)):
P
(
{
0
|x
1
, ...x
n
}) :=
0
(
|x
1
, ..., x
n
)d
(6.68)
und f¨
ur p
[0, 1]
~
P
~
(
{
0
| ~
A
1
,..., ~
A
n
})
(p) =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
P ({0|x1,...,xn})=p
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(6.69)
48
Vgl. Viertl (2003), S. 180 f., Berger (1985), S. 146 f., Robert (2001), S. 227, Carlin / Louis (1996),
S. 45 ff., Marinell (1985), S. 97 ff.

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
213
ur die A-posteriori-Wahrscheinlichkeit der Nullhypothese
H
0
erh¨
alt man daraus:
~
P
~
0
~
A
1
, ..., ~
A
n
:=
p,
~
P
~
(
{
0
| ~
A
1
,..., ~
A
n
})
(p)
p
[0, 1],
~
P
~
(
{
0
| ~
A
1
,..., ~
A
n
})
(p) =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
P ({0|x1,...,xn})=p
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
p,
~
P
~
(
{
0
| ~
A
1
,..., ~
A
n
})
(p)
p
[0, 1],
~
P
~
(
{
0
| ~
A
1
,..., ~
A
n
})
(p) =
sup
(|x1,...,xn)supp(~
~
(| ~
A1,..., ~
An))
0
(|x1,...,xn)d=p
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(6.70)
Daraus konstruiert man f¨
ur
(0, 1] die -Niveaus (co ( ~
P
~
))
der konvexen H¨
ulle
co ( ~
P
~
) von ~
P
~
durch:
co ( ~
P
~
(
{
0
|~A
1
, ..., ~
A
n
}))
:= co (
{P
(
{
0
|x
1
, ..., x
n
})|x
1
A
1
, ..., x
n
A
n
})
= co
0
(
|x
1
, ..., x
n
)d
(.
|x
1
, ..., x
n
)
supp ~~(.|~A
1
, ..., ~
A
n
) :
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(6.71)
Analog dazu kann die Fuzzy-A-posteriori-Wahrscheinlichkeit von
H
1
konstruiert
werden:
P
(
{
1
|x
1
, ...x
n
}) :=
1
(
|x
1
, ..., x
n
)d,
(6.72)
~
P
~
(
{
1
| ~
A
1
,..., ~
A
n
})
(p) =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
P ({1|x1,...,xn})=p
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) ,
(6.73)
~
P
~
1
~
A
1
, ..., ~
A
n
:=
p,
~
P
~
(
{
1
| ~
A
1
,..., ~
A
n
})
(p)
p
[0, 1],
~
P
~
(
{
1
| ~
A
1
,..., ~
A
n
})
(p) =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
P ({1|x1,...,xn})=p
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
p,
~
P
~
(
{
1
| ~
A
1
,..., ~
A
n
})
(p)
p
[0, 1],
~
P
~
(
{
1
| ~
A
1
,..., ~
A
n
})
(p) =
sup
(|x1,...,xn)supp(~
~
(| ~
A1,..., ~
An))
1
(|x1,...,xn)d=p
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(6.74)

214
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
und
co ( ~
P
~
(
{
1
|~A
1
, ..., ~
A
n
}))
:= co (
{P
(
{
1
|x
1
, ..., x
n
})|x
1
A
1
, ..., x
n
A
n
})
= co
1
(
|x
1
, ..., x
n
)d
(.
|x
1
, ..., x
n
)
supp ~~(.|~A
1
, ..., ~
A
n
) :
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(6.75)
ur
(0, 1].
Auch die unscharfe relative Hypothesenwahrscheinlichkeit
~
P
~
(
{
1
~
P
~
(
{
0
~
A
1
, ..., ~
A
n
})
kann mit Hilfe der Fuzzy-Schar von A-posteriori-Verteilungen berechnet werden. Man
bestimmt:
P
(
{
1
P
(
{
0
x
1
, ...x
n
=
P
(
{
1
|x
1
, ..., x
n
})
P
(
{
0
|x
1
, ..., x
n
})
=
1
(
|x
1
, ..., x
n
)d
0
(
|x
1
, ..., x
n
)d
(6.76)
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) bzw.
(.|x
1
, ..., x
n
)
supp ~~(.|~A
1
, ..., ~
A
n
)
mit
~
P ~
(
{1
~
P ~
(
{0
~
A
1
,..., ~
A
n
})
(q) =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
P ({1|x1,...,xn})
P ({0|x1,...,xn})
=q
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(.|x1,...,xn)supp(~
~
(.| ~
A1,..., ~
An)):
1
(|x1,...,xn)d
0
(|x1,...,xn)d
=q
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(6.77)
ur q
IR
+
und
~
P
~
(
{
1
~
P
~
(
{
0
~
A
1
, ..., ~
A
n
:=
q,
~
P ~
(
{1
~
P ~
(
{0
~
A
1
,..., ~
A
n
})
(q)
q
IR
+
,
~
P ~
(
{1
~
P ~
(
{0
~
A
1
,..., ~
A
n
})
(q) =
sup
x1supp( ~
A1),...,xnsupp( ~
An):
P ({1|x1,...,xn})
P ({0|x1,...,xn})
=q
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
q,
~
P ~
(
{1
~
P ~
(
{0
~
A
1
,..., ~
A
n
})
(q)
q
IR
+
,
~
P ~
(
{1
~
P ~
(
{0
~
A
1
,..., ~
A
n
})
(q) =
sup
(|x1,...,xn)supp(~
~
(| ~
A1,..., ~
An)):
1
(|x1,...,xn)d
0
(|x1,...,xn)d
=q
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(6.78)

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
215
bzw.
co
~
P
~
(
{
1
~
P
~
(
{
0
~
A
1
, ..., ~
A
n
:= co
P
(
{
1
|x
1
, ..., x
n
})
P
(
{
0
|x
1
, ..., x
n
})
x
1
A
1
, ..., x
n
A
n
= co
1
(
|x
1
, ..., x
n
)d
0
(
|x
1
, ..., x
n
)d
(.
|x
1
, ..., x
n
)
supp ~~(.|~A
1
, ..., ~
A
n
) :
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(6.79)
ur
(0, 1].
Begleitendes Beispiel: Zu der Fuzzy-Schar von A-posteriori-Gammaverteilungen
~~
f
(.
|a
n
i=1
~
A
i
,
1
b +n
) sollen die unscharfen Wahrscheinlichkeiten der Hypothesen
H
0
:
(0,
0
] =
0
H
1
:
(
0
,
) =
1
bestimmt werden. F¨
ur jede Gammaverteilung f
(.
|a ,
1
b
)
supp
~~
f
(.
|~a ,
1
b
)
ussen
die Werte F
(
0
|a ,
1
b
), 1
- F
(
0
|a ,
1
b
) und
1
-F
(
0
|a ,
1
b
)
F
(
0
|a ,
1
b
)
berechnet werden. Es ist
dann
~
P
~
(
{ (0,
0
]
|~A
1
, ~
A
2
, ~
A
3
}) = ~
F
(
0
|a
n
i=1
~
A
i
,
1
b +n
)
=
0
0
(b +n)
a +
·
a +-1
·e
-(b +n)
(a +)
d,
n
i=1
~
A
i
()
supp
n
i=1
~
A
i
,
(B.6.45)
~
P
~
(
{ (
0
,
)|~A
1
, ~
A
2
, ~
A
3
}) = 1
~
F
(
0
|a
n
i=1
~
A
i
,
1
b +n
)
=
0
(b +n)
a +
·
a +-1
·e
-(b +n)
(a +)
d,
n
i=1
~
A
i
()
supp
n
i=1
~
A
i
,
(B.6.46)
~
P
~
(
{ (
0
,
)
~
P
~
(
{ (0,
0
]
~
A
1
, ~
A
2
, ~
A
3
=
1
~
F
~
F
(
0
|a
n
i=1
~
A
i
,
1
b +n
)
=
0
(b +n)
a +
·
a +-1
·e
-(b +n)
(a +)
d
0
0
(b +n)
a +
·
a +-1
·e
-(b +n)
(a +)
d
,
n
i=1
~
A
i
()
supp
n
i=1
~
A
i
.
(B.6.47)
Wie in Abschnitt 6.3.2 gezeigt, ist F
(
0
|a ,
1
b
) in a streng monoton fallend, und
daher ist 1
- F
(
0
|a ,
1
b
) in a streng monoton wachsend und
1
-F
(
0
|a ,
1
b
)
F
(
0
|a ,
1
b
)
ist, da der
ahler wachsend und der Nenner fallend ist, ebenfalls in a streng monoton wachsend.
Daher erh¨
alt man nach (3.54)-(3.56) f¨
ur
(0, 1] die -Schnitte der konvexen H¨ullen
der Fuzzy-A-posteriori-Hypothesenwahrscheinlichkeiten
co
~
P
~
(
{ (0,
0
]
|~A
1
, ~
A
2
, ~
A
3
})
= F
(
0
|a +
n
i=1
a
i
,
1
b +n
), F
(
0
|a +
n
i=1
a
i
,
1
b +n
) ,
(B.6.48)

216
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
co
~
P
~
(
{ (
0
,
)|~A
1
, ~
A
2
, ~
A
3
})
= 1
- F
(
0
|a +
n
i=1
a
i
,
1
b +n
), 1
- F
(
0
|a +
n
i=1
a
i
,
1
b +n
) ,
(B.6.49)
co
~
P
~
(
{ (
0
,
)
~
P
~
(
{ (0,
0
]
|~A
1
, ~
A
2
, ~
A
3
})
=
min
1
- F
(
0
|a +
n
i=1
a
i
,
1
b +n
)
F
(
0
|a +
n
i=1
a
i
,
1
b +n
)
,
1
- F
(
0
|a +
n
i=1
a
i
,
1
b +n
)
F
(
0
|a +
n
i=1
a
i
,
1
b +n
)
,
max
1
- F
(
0
|a +
n
i=1
a
i
,
1
b +n
)
F
(
0
|a +
n
i=1
a
i
,
1
b +n
)
,
1
- F
(
0
|a +
n
i=1
a
i
,
1
b +n
)
F
(
0
|a +
n
i=1
a
i
,
1
b +n
)
.
(B.6.50)
Begleitendes numerisches Beispiel: Mittels (6.68)-(6.79) sollen aufgrund der An-
gaben zur begleitenden numerischen Fallstudie mit der Fuzzy-Schar von A-posteriori-
Gammaverteilungen (N.6.3) folgende Hypothesen bez¨
uglich ihrer jeweiligen Fuzzy-A-
posteriori-Wahrscheinlichkeit beurteilt werden:
H
0
:
(0, 9.2] =
0
H
1
:
(9.2, ) =
1
Man erh¨
alt die folgenden A-posteriori-Wahrscheinlichkeiten
9.2
0
f
(
|a
1
b
)d = 1
-
9.2
f
(
|a ,
1
b
)d f¨
ur a
supp(~a ):
9.2
0
f
(
|43,
1
5
)d = 0.6907 = 1
-
9.2
f
(
|43,
1
5
)d = 1
- 0.3093
9.2
0
f
(
|44,
1
5
)d = 0.6358 = 1
-
9.2
f
(
|44,
1
5
)d = 1
- 0.3642
9.2
0
f
(
|45,
1
5
)d = 0.5783 = 1
-
9.2
f
(
|45,
1
5
)d = 1
- 0.4217
9.2
0
f
(
|46,
1
5
)d = 0.5196 = 1
-
9.2
f
(
|46,
1
5
)d = 1
- 0.4804
9.2
0
f
(
|47,
1
5
)d = 0.4609 = 1
-
9.2
f
(
|47,
1
5
)d = 1
- 0.5391
9.2
0
f
(
|48,
1
5
)d = 0.4034 = 1
-
9.2
f
(
|48,
1
5
)d = 1
- 0.5966
9.2
0
f
(
|49,
1
5
)d = 0.3484 = 1
-
9.2
f
(
|49,
1
5
)d = 1
- 0.6516
9.2
0
f
(
|50,
1
5
)d = 0.2967 = 1
-
9.2
f
(
|50,
1
5
)d = 1
- 0.7033
Daraus erh¨
alt man die Fuzzy-A-posteriori-Hypothesenwahrscheinlichkeiten:
~
P
~
(
{ (0, 9.2]|~A
1
, ~
A
2
, ~
A
3
})
=
0.5
0.6
0.8
1
0.8
0.7
0.5
0.2
0.2967
0.3484
0.4034
0.4609
0.5196
0.5783
0.6358
0.6907
(N.6.16)

KAPITEL 6 UNSCHARFE BAYES'SCHE ANALYSE
217
~
P
~
(
{ (9.2, )|~A
1
, ~
A
2
, ~
A
3
})
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
0.3093
0.3642
0.4217
0.4804
0.5391
0.5966
0.6516
0.7033
(N.6.17)
so wie ihre konvexen H¨
ullen mit den -Schnitten:
co ~
P
~
(
{(0, 9.2]|~A
1
, ~
A
2
, ~
A
3
})
=
[0.2967, 0.6907] f¨
ur 0 <
0.2
[0.2967, 0.6358] f¨
ur 0.2 <
0.5
[0.3484, 0.5783] f¨
ur 0.5 <
0.6
[0.4034, 0.5783] f¨
ur 0.6 <
0.7
[0.4043, 0.5196] f¨
ur 0.7 <
0.8
0.4609
ur 0.8 <
1
(N.6.18)
co ~
P
~
(
{(9.2, )|~A
1
, ~
A
2
, ~
A
3
})
=
[0.3093, 0.7033] f¨
ur 0 <
0.2
[0.3642, 0.7033] f¨
ur 0.2 <
0.5
[0.4217, 0.6516] f¨
ur 0.5 <
0.6
[0.4217, 0.5966] f¨
ur 0.6 <
0.7
[0.4804, 0.5966] f¨
ur 0.7 <
0.8
0.5391
ur 0.8 <
1
(N.6.19)
Die relativen A-posteriori-Wahrscheinlichkeiten lauten:
P
(
{(9.2,)|43,
1
5
})
P
(
{(0,9.2]|43,
1
5
})
= 0.4478,
~
a
(43) = 0.2,
P
(
{(9.2,)|44,
1
5
})
P
(
{(0,9.2]|44,
1
5
})
= 0.5729,
~
a
(44) = 0.5
P
(
{(9.2,)|45,
1
5
})
P
(
{(0,9.2]|45,
1
5
})
= 0.7291,
~
a
(45) = 0.7,
P
(
{(9.2,)|46,
1
5
})
P
(
{(0,9.2]|46,
1
5
})
= 0.9245,
~
a
(46) = 0.8
P
(
{(9.2,)|47,
1
5
})
P
(
{(0,9.2]|47,
1
5
})
= 1.1697,
~
a
(47) = 1,
P
(
{(9.2,)|48,
1
5
})
P
(
{(0,9.2]|48,
1
5
})
= 1.4787,
~
a
(48) = 0.8
P
(
{(9.2,)|49,
1
5
})
P
(
{(0,9.2]|49,
1
5
})
= 1.8706,
~
a
(49) = 0.6,
P
(
{(9.2,)|50,
1
5
})
P
(
{(0,9.2]|50,
1
5
})
= 2.3709,
~
a
(50) = 0.5
und daher ist
~
P
~
(
{ (9.2, )
~
P
~
(
{ (0, 9.2]
~
A
1
, ~
A
2
, ~
A
3
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
0.4478
0.5729
0.7291
0.9245
1.1697
1.4787
1.8706
2.3709
(N.6.20)
und
co
~
P
~
(
{(9.2, )
~
P
~
(
{(0, 9.2]
~
A
1
, ~
A
2
, ~
A
3
=
[0.4478, 2.3709] f¨
ur 0 <
0.2
[0.5729, 2.3709] f¨
ur 0.2 <
0.5
[0.7291, 1.8706] f¨
ur 0.5 <
0.6
[0.7291, 1.4787] f¨
ur 0.6 <
0.7
[0.9245, 1.4787] f¨
ur 0.7 <
0.8
1.1697
ur 0.8 <
1.
(N.6.21)

218
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Abbildung 6.9: Fuzzy-A-posteriori-Wahrscheinlichkeitenquotient und konvexe H¨
ulle
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
0.45 0.57 0.73 0.92
1.17
1.48
1.87
2.37
q
(q)
~
P
(
{(9.2,)
~
P
(
{(0,9.2]
~
A
1
, ~
A
2
, ~
A
3
-
0.45 0.57 0.73 0.92
1.17
1.48
1.87
2.37
q
co
~
P
(
{(9.2,)
~
P
(
{(0,9.2]
~
A
1
, ~
A
2
, ~
A
3
Sowohl f¨
ur exakte als auch f¨
ur unscharfe einfache Hypothesen werden auf Basis un-
scharfer Daten von Casals, Gil und Gil A-Posteriori-Wahrscheinlichkeiten formuliert.
Auf Basis der Wahrscheinlicheitendefinition von Zadeh (4.57) werden scharfe Wahr-
scheinlichkeiten f¨
ur unscharfe Daten gebildet, die in die Bayes-Kombinationsregel ein-
gesetzt werden.
49
Im Fall unscharfer Hypothesen wird die Zadeh'sche Wahrscheinlich-
keitsberchnung (4.57) zur Berechnung der exakten A-Posteriori-Wahrscheinlichkeiten
noch einmal angewendet.
50
Die Anwendung f¨
ur sequentielle Bayes-Tests wird am Ende
der Abschnitte 8.3.2 bzw. 8.4.2 vorgestellt.
Einen weiteren Ansatz, bei dem die unscharfen Wahrscheinlichkeiten von einfachen
unscharfen Hypothesen nach der Schwerpunktmethode (3.85)-(3.86) defuzzifiziert wer-
den, bevor mit ihnen weiter gearbeitet wird, schlagen Taheri und Behboodian vor, und
zwar sowohl f¨
ur das Vorliegen von exakten Daten,
51
als auch f¨
ur das Vorliegen von
unscharfen Daten,
52
wobei im letzteren Fall wieder die Wahrscheinlichkeitsdefinition
von Zadeh (4.57) angewendet wird. Eine Anwendung dieser scharfen Wahrscheinlich-
keiten, n¨
amlich die Konstruktion eines exakten SPRT f¨
ur unscharfe Hypothesen, wird
am Ende von Abschnitt 8.6.3 kurz vorgestellt.
49
Vgl. Casals / Gil / Gil (1986b), S. 371 ff.
50
gl. Casals (1993), S. 189 ff.
51
Vgl. Taheri / Behboodian (2001, S. 39 ff.
52
Vgl. Taheri / Behboodian (2002), S. 527 ff.

Kapitel 7
Unscharfe Bayes-Entscheidungen
unter Verlustbetrachtung
In den bisherigen Ausf¨
uhrungen ¨
uber schließende Statistik wurden m¨
ogliche Verluste
aufgrund von falschen statistischen Entscheidungen nicht betrachtet. Verlustbetrach-
tung ist etwa dann wichtig, wenn aufgrund von statistischen Analysen wirtschaftlich
relevante Entscheidungen zu treffen sind.
Beim begleitenden Beispiel entsteht ein Verlust sowohl durch Untersch¨
atzung des
Flutwellenrisikos, da die ¨
Uberschwemmungen Sch¨
aden verursachen, als auch durch
¨
Ubersch¨
atzung der Anzahl der Flutwellen kritischer H¨
ohe, da entweder zu hohe Investi-
tionen f¨
ur ¨
Uberschwemmungsschutz get¨
atigt werden oder aber ein Gebiet, welches auf-
grund der biologischen Voraussetzungen wirtschaftlich nutzbar w¨
are, ungenutzt bleibt.
Verlustbetrachtung ist sowohl in der klassischen schließenden als auch in der Bayes'
schen Statistik m¨
oglich. W¨
ahrend jedoch in der klassischen schließenden Statistik Ver-
lustminimierung neben anderen Auswahlkriterien f¨
ur Entscheidungsverfahren (wie et-
wa Unverzerrtheit oder Konsistenz von Sch¨
atzfunktionen (vgl. Abschnitt 5.3)) eine
untergeordnete Rolle spielen, stellt in der Bayes'schen Statistik Verlustminimierung
das zentrale Thema der Bayes'schen Entscheidungstheorie dar.
1
In der Bayes'schen Entscheidungstheorie unter Risikobetrachtung kann an mehreren
oglichen Stellen Unsch¨
arfe auftreten. Erstens k¨
onnen die Daten, aufgrund von wel-
chen die statistischen Entscheidungen getroffen werden sollen, unscharf sein, zweitens
kann, wie bereits in der Einleitung zu Kapitel 6 erw¨
ahnt, die A-priori-Information un-
scharf sein. Drittens k¨
onnen schließlich die Verlustfunktionen, die Verluste aus falschen
Entscheidungen beschreiben, unscharf gegeben sein. Das folgende Kapitel besch¨
aftigt
sich ausschließlich mit Unsch¨
arfe aufgrund unscharfer Daten, auf unscharfe A-priori-
Informationen wird in der vorliegenden Arbeit nicht weiter,
2
auf unscharfe Verlustfunk-
tionen ¨
uberhaupt nicht eingangen.
3
1
Vgl. Viertl (2003), S. 134 und S. 182 ff.
2
Die Einbeziehung unscharfer A-priori-Information in die Konstruktion unscharfer A-posteriori-
Verteilungen wurde in Abschnitt 6.1.4 bschrieben. Ans¨
atze f¨
ur die Definition des unscharfen Risikos
aufgrund unscharfer A-priori-Information finden sich bei Viertl (1996), S. 171 ff.
3
Vgl. dazu den Ausblick (Abschnitt 9.2) in dieser Arbeit, sowie Comploj (2004), S. 26 f. und S. 31
f., und die Ans¨
atze bei Viertl (2002a), S. 113.
219

220
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
7.1
Unscharfe Entscheidungen und unscharfe
Verluste aufgrund unscharfer Daten
Bereits in Abschnitt 5.1
4
wurden die wichtigsten Grundbegriffe ¨
uber statistische Ent-
scheidungsfunktionen und Entscheidungen und ihre Anwendung auf unscharfe Daten
eingef¨
uhrt. In einem parametrischen stochastischen Modell X
P
mit unbekanntem
Parameter
sind statistische Entscheidungen Aussagen ¨uber den unbekannten
Parameter. Wichtige Entscheidungen sind vor allem statistische Test zur Beurteilung
von Hypothesen ¨
uber den unbekannten Parameter und Sch¨
atzungen des Parameters
(Punkt- oder Bereichssch¨
atzungen). Statistische Entscheidungen d erh¨
alt man ¨
uber
Entscheidungsfunktionen (.) aus der Menge der Entscheidungsfunktionen :
:
U
n
ID
(x
1
, ..., x
n
)
(x
1
, ..., x
n
) = d
Wie in Abschnitt 5.1 ist die -Algebra
ID gegeben durch
ID :=
(
{D ID|
-1
(D)
C
n
}).
Statistische Entscheidungen f¨
uhren, sofern es sich um Fehlentscheidungen handelt,
zu Verlusten, die mittels Verlustfunktion beschrieben werden. Eine Verlustfunktion be-
schreibt also den Verlust aufgrund einer statistischen Entscheidung d
ID bei Vorliegen
des "wahren" Parameters
.
Bezeichnet man die Menge der m¨
oglichen Verluste mit IL
IR
+
0
, so kann eine
Verlustfunktion definiert werden als eine Abbildung
l :
× ID IL
(, d)
l(, d).
Wichtige Verlustfunktionen sind vor allem konstante, lineare und quadratische Verlust-
funktion.
5
Weiters wird die -Algebra
IL :=
L
IL|l
-1
(, L)
ID
definiert, wobei l
-1
(, L) :=
{d ID|l(, d) L}, als die kleinste -Algebra, so dass l
messbar ist. (IL,
IL) ist somit ein messbarer Raum, genannt Verlustraum.
Liegen nun in dem stochastischen Modell X
P
unscharfe Realisationen
( ~
A
1
, ..., ~
A
n
)
(F(U))
n
einer Stichprobe von Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) von X
vor, so betrachtet man wiederum die Fuzzy-Extension
:
(
F(U))
n
F(ID)
( ~
A
1
, ..., ~
A
n
)
( ~
A
1
, ..., ~
A
n
) =: ~
D
4
In Anlehnung an Viertl (2003), S. 126 f.
5
Vgl. Viertl (2003), S. 134 f., Berger (1985), S. 3 und S. 60 ff., Viertl (1996), S. 171, Robert (2001),
S. 60 f., Bernardo / Smith (1994), S. 256, Carlin / Louis, S. 8.

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
221
der Entscheidungsfunktion (.)
, deren unscharfes Bild ~D = (~A
1
, ..., ~
A
n
) gegeben
ist durch die Zugeh¨
origkeitsfunktion
~
D
(d) =
( ~
A
1
,..., ~
A
n
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
(x1,...,xn)=d
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
Unscharfe Entscheidungen f¨
uhren zu unscharfen Verlusten. Ist IL
IR
+
0
die Menge
der m¨
oglichen Verluste aufgrund von Entscheidungen d
ID und ist l : × ID IL
eine Verlusfunktion, so wird die Fuzzy-Extension von l in der zweiten Komponente
l :
× F(ID) F(IL)
(, ~
D)
l (, ~
D)
(7.1)
als Fuzzy-Verlustfunktion oder unscharfe Verlustfunktion bezeichnet. Der Fuzzy-Verlust
aufgrund von ~
D = ( ~
A
1
, ..., ~
A
n
) bei Vorliegen von ist dann gegeben durch
l (, ~
D)
(l) =
sup
d
supp( ~
D):l(,d)=l
~
D
(d)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
l(,(x1,...,xn))=l
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(7.2)
ur l IL.
Abbildung 7.1: Lineare Fuzzy-Verlustfunktion (Fuzzy-Extension)
-
6
, d
l
(
l)
d
0
d
1
d
0
0
l(
0
, d
0
)
l(
0
, d
1
)
l(
0
, d
0
)
l (
0
, ~
D)
~
D
?
(d)
7.2
Unscharfe Bayes-Entscheidungsfunktionen
und unscharfe Bayes-Entscheidungen
aufgrund unscharfer Daten
In Abschnitt 7.1 wurden statistische Entscheidungen als Funktionen von Daten, die
als Realisationen von Stichproben auftreten, definiert. Ausgangspunkt war also die Si-
tuation a posteriori, d.h. nach Erhebung der Daten. Geht man nun von der Situation

222
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
a priori, d.h. vor Erhebung der Stichprobe (X
1
, ..., X
n
) aus, so ist eine statistische
Entscheidung als Bild einer messbaren Funktion der Zufallsvariablen X
1
,...,X
n
eben-
falls eine Zufallsvariable (X
1
, ..., X
n
). Die Verteilung der Zufallsvariablen (X
1
, ..., X
n
)
kann aus der gemeinsamen Verteilung der Zufallsvariablen X
1
,...,X
n
abgeleitet werden.
Ist also X eine diskrete Zufallsvariable mit X
p
, so lautet die Wahrscheinlichkeit
der Entscheidung d
ID unter der Bedingung , da X
1
,...,X
n
unabh¨
angig und
identisch wie X verteilt sind,
P (
{(X
1
, ..., X
n
) = d
|}) =
(x1,...,xn)Un:
d(x1,...,n)=d
p((x
1
, ..., x
n
)
|) =
(x1,...,xn)Un:
d(x1,...,n)=d
p(x
1
, ..., x
n
|)
=
(x1,...,xn)Un:
d(x1,...,n)=d
p(x
1
|) · ... · p(x
n
|).
Ist X eine stetige Zufallsvariable mit X
f
, so lautet die Wahrscheinlichkeit von
d
ID beim Vorliegen von
P (
{(X
1
, ..., X
n
) = d
|}) =
(x1,...,xn)Un:
d(x1,...,n)=d
f ((x
1
, ..., x
n
)
|)dx
1
...dx
n
=
(x1,...,xn)Un:
d(x1,...,n)=d
f (x
1
, ..., x
n
|)dx
1
...dx
n
=
(x1,...,xn)Un:
d(x1,...,n)=d
f (x
1
|) · ... · f(x
n
|)dx
1
...dx
n
.
A priori ist auch der Verlust l(., (X
1
, ..., X
n
)) als Bild einer messbaren Funktion
der Zufallsvariablen (X
1
, ..., X
n
) ebenfalls eine Statistik von (X
1
, ..., X
n
) bzw. eine
Zufallsvariable. Die Wahrscheinlichkeit eines Verlusts von l IL beim Vorliegen von
ist gegeben durch
P (
{l(, (X
1
, ..., X
n
)) = l|}) =
(x1,...,xn)Un:
l(,(x1,...,xn))=l
p(l(, (x
1
, ..., x
n
))
|)
=
(x1,...,xn)Un:
l(,(x1,...,xn))=l
n
i=1
p(x
i
|)
im diskreten Fall und
P (
{l(, (X
1
, ..., X
n
)) = l|}) =
(x1,...,xn)Un:
l(,(x1,...,xn))=l
f (l(, (x
1
, ..., x
n
))
|)dx
1
...dx
n
=
(x1,...,xn)Un:
l(,(x1,...,xn))=l
n
i=1
f (x
i
|)dx
1
...dx
n
im stetigen Fall. Man beachte hier die zweifache Abh¨
angigkeit vom Parameter : ei-
nerseits ist Funktionsparameter der Wahrscheinlichkeits- bzw. Dichtefunktion, ande-
rerseits h¨
angt der Wert des Verlusts von ab.
Ziel ist es optimale, d.h. verlustminimierende Entscheidungsfunktionen zu finden.
Dazu m¨
ussen Entscheidungsfunktionen (.)
bez¨uglich des aus ihnen entstehenden
Verlustes vergleichbar gemacht werden. Bei einer Analyse a priori ist daf¨
ur zun¨
achst der

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
223
aufgrund der Entscheidungsfunktion (.) bei Vorliegen eines vorgegebenen Parameters
zu erwartende Verlust zu berechnen, d.h. der Erwartungswert E
(l(, (X
1
, ..., X
n
)))
der Zufallsvariablen l(, (X
1
, ..., X
n
)). Dieser ist gegeben durch
E
(l(, (X
1
, ..., X
n
))) =
(x
1
,...,x
n
)
U
n
l(, (x
1
, ..., x
n
))
·
n
i=1
p(x
i
|) (X diskret)
U
n
l(, (x
1
, ..., x
n
))
·
n
i=1
f (x
i
|)dx
1
...x
n
(X stetig).
(7.3)
ur eine vorgegebene Entscheidungsfunktion (.)
h¨angt der Erwartungswert
E
(l(, (X
1
, ..., X
n
))) nur noch von ab. E
(l(, (X
1
, ..., X
n
))) ist somit eine Funktion
von und wird als Risikofunktion von oder als frequentistisches Risiko bezeichnet.
6
Da bei der Bestimmung der Risikofunktion noch keine A-priori-Information verwendet
wurde, ist sie Teil der klassischen Statistik.
7
Aufgrund der Risikofunktion E
(l(, (X
1
, ..., X
n
))) kann eine Entscheidungsfunk-
tion (.)
jedoch noch nicht beurteilt werden, da die Risikofunktion ja als Funktion
des Verteilungsparameters auch von diesem abh¨
angig ist. Um Endscheidungsfunktio-
nen tats¨
achlich vergleichbar zu machen, muss der Parameter eliminiert werden.
In der Bayes-Statistik ist der Parameter selbst eine Zufallsvariable
auf dem
messbaren Parameterraum (,
), deren Verteilung vor Erhebung der Stichprobe durch
die A-priori-Verteilung () gegeben ist. Setzt man nun voraus, dass die Verlustfunkti-
on l auch in der ersten Komponente messbar ist, d.h. wenn gilt: l
-1
(L, d)
H L IL,
dann ist auch die Risikofunktion E
.
(., (X
1
, ..., X
n
))) eine
H-IL-messbare Funktion
von . E
(l(
, (X
1
, ..., X
n
))) ist somit eine Zufallsvariable deren Erwartungswert
bez¨
uglich () berechnet werden kann. Es ist
E
(.)
(E
(l(
, (X
1
, ..., X
n
)))) =
E
(l(, (X
1
, ..., X
n
)))() (diskretes
)
E
(l(, (X
1
, ..., X
n
)))()d (stetiges
).
(7.4)
Dieser Erwartungswert E
(.)
(E
(l(
, (X
1
, ..., X
n
)))) wird als Bayes-Risiko der Ent-
scheidungsfunktion bezeichnet, und man schreibt f¨
ur das Bayes-Risiko von unter
(.)
8
r
(.)
((.)) := E
(.)
(E
(l(
, (X
1
, ..., X
n
)))).
(7.5)
Eine Entscheidungsfunktion
(.)
heißt dann Bayes'sche Entscheidungsfunktion,
wenn ihr Bayes-Risiko minimal ist, d.h.
9
r
(.)
(
(.)) = min
(.)
r
(.)
((.)).
(7.6)
6
Vgl. Viertl (2003), S. 134, Berger (1985), S. 9 und S. 36, Ferguson (1967), S. 7 f., Bernardo /
Smith (1994), S. 446, Robert (2001), S. 60 f., Pratt / Raiffa / Schlaifer (1995), S. 489, Carlin / Louis
(1996) S. 9.
7
Auf verlustminimierende Entscheidungen der klassischen Statistik wird am Ende dieses Abschnitts
noch kurz eingegangen, wo sie als Spezialf¨
alle Bayes'scher Entscheidungen klassifiziert werden.
8
Vgl. Viertl (2003), S. 183, Berger (1985), S. 11, Ferguson (1967), S. 31, Bernardo / Smith (1994),
S. 448, Robert (2001), S. 62 f., Pratt / Raiffa / Schlaifer (1995), S. 491, Carlin / Louis (1996) S. 12.
9
Vgl. Viertl (2003), S. 183, Berger (1985), S. 17, Ferguson (1967), S. 31, Bernardo / Smith (1994),
S. 448, Robert (2001), S. 63, Carlin / Louis (1996) S. 12.

224
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Die Verlustanalyse a priori zur Findung von Bayes'schen Entscheidungsfunktionen wird
auch als normale Bayes'sche Analyse bezeichnet.
10
aufig steht man jedoch vor dem Problem, nach Erhebung der Daten, also a poste-
riori, eine optimale, verlustiminimierende Entscheidung zu treffen. Die Verlustanalyse
a posteriori wird auch als extensive Form der Bayes'sche Analyse bezeichnet.
11
Im parametrischen stochastischen Modell X
P
erhalte man aufgrund einer
Stichprobe (X
1
, ..., X
n
) von X die Daten (x
1
, ..., x
n
)
U
n
. Die Verteilung der Zufalls-
variablen
wird nach Datenerhebung beschrieben durch die A-posteriori-Verteilung
(.
|x
1
, ..., x
n
). Da die Verlustfunktion l(., (x
1
, ..., x
n
)) eine messbare Funktion ist, ist
der Verlust aus der Entscheidung (x
1
, ..., x
n
) f¨
ur festes
eine Zufallsvariable
l(
, (x
1
, ..., x
n
)). Mit Hilfe der A-posteriori-Verteilung (.
|x
1
, ..., x
n
) kann der Erwar-
tungswert
E
(.|x1,...,xn)
(l(
, (x
1
, ..., x
n
))) =
l(, (x
1
, ..., x
n
))(
|x
1
, ..., x
n
) (
diskret)
l(, (x
1
, ..., x
n
))(
|x
1
, ...x
n
)d (
stetig)
(7.7)
berechnet werden, der a posteriori zu erwartender Verlust oder A-posteriori-Verluster-
wartungswert heißt.
Die folgende Aussage ist wesentlich f¨
ur alle weiteren Analysen und soll hier als Satz
formuliert werden:
12
Satz: Gegeben ist ein parametrisches stochastisches Modell X
P
, der Verteilungs-
parameter
ist eine Zufallsvariable auf dem messbaren Parameterraum (, ), die A-
priori-Verteilung von
ist durch die A-priori-Dichte (.) gegeben. (X
1
, ..., X
n
) ist eine
Stichprobe von X mit Werten in (U
n
,
A
n
). =
{ : U
n
ID|(.) A
n
-
ID-messbar} ist
die Menge von m¨
oglichen Entscheidungsfunktionen in den Entscheidungsraum (ID,
ID).
l :
× ID IL, IL IR
+
0
, ist eine
H-IL- und ID-IL-messbare Verlustfunktion, die den
Verlust aufgrund der Entscheidung d = (x
1
, ..., x
n
)
ID bei Vorliegen des Parameters
beschreibt. F¨ur (.) ist gem¨aß (7.5) r
(.)
((.)) = E
(.)
(E
(l(
, (X
1
, ..., X
n
))))
das Bayes-Risiko. Ist nun (x
1
, ..., x
n
)
U
n
eine konkrete Stichprobe von (X
1
, ..., X
n
),
besitzt
aufgrund von (x
1
, ..., x
n
) die A-posteriori-Verteilung mit Dichtefunktion
(.
|x
1
, ..., x
n
) auf (,
), so ist E
(.
|x
1
,...,x
n
)
(l(
, (x
1
, ..., x
n
))) f¨
ur (.)
gem¨aß (7.7)
der A-posteriori-Verlusterwartungswert. Existiert eine Entscheidungsfunktion
(.)
mit
E
(.
|x
1
,...,x
n
)
(l(
,
(x
1
, ..., x
n
))) = min
(.)
E
(.
|x
1
,...,x
n
)
(l(
, (x
1
, ..., x
n
)))
(7.8)
(x
1
, ..., x
n
)
U
n
, dann gilt auch:
r
(.)
(
(.)) = min
(.)
r
(.)
((.)).
10
Vgl. Pratt / Raiffa / Schlaifer (1995), S. 463 ff., Berger (1985), S. 160.
11
Vgl. Pratt / Raiffa / Schlaifer (1995), S. 463, Berger (1985), S. 160.
12
Vgl. Viertl (2003), S. 183, Berger (1985), S. 159 f., Ferguson (1967), S. 43 f., Bernardo / Smith
(1994), S. 448, Robert (2001), S. 63, Carlin / Louis (1996) S. 12.

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
225
Der Satz besagt also gerade, dass Entscheidungsfunktionen, die den A-posteriori-Ver-
lusterwartungswert minimieren, Bayes-sche Entscheidungsfunktionen im Sinn von (7.6)
sind.
Beweis: Es soll hier nur der Fall f¨
ur stetiges X und stetiges
gezeigt werden. F¨ur
diskretes X und stetiges oder diskretes
verl¨auft der Beweis analog. Es ist
r
(.)
() = E
(.)
(E
(l(
, (X
1
, ..., X
n
))))
=
U
n
l(, (x
1
, ..., x
n
))f (x
1
, ..., x
n
|)dx
1
...x
n
()d
=
U
n
l(, (x
1
, ..., x
n
))f (x
1
, ..., x
n
|)()dx
1
...x
n
d
(
)
=
U
n
l(, (x
1
, ..., x
n
))f (x
1
, ..., x
n
|)()ddx
1
...x
n
=
U
n
l(, (x
1
, ..., x
n
))(
|x
1
, ..., x
n
)
·
f (x
1
, ..., x
n
|)()d ddx
1
...x
n
(
)
=
U
n
l(, (x
1
, ..., x
n
))(
|x
1
, ..., x
n
)d f
X
(x
1
, ..., x
n
)dx
1
...x
n
=
U
n
E
(.
|x
1
,...,x
n
)
(l(, (x
1
, ..., x
n
))) f
X
(x
1
, ..., x
n
)dx
1
...x
n
Die Gleichung (
) folgt aus der Definition der gemeinsamen Randdichte f
X
(.) von
(x
1
, ..., x
n
)
U
n
f
X
(x
1
, ..., x
n
) :=
f (x
1
, ..., x
n
|)()d,
die Vertauschung der Integrationsreihenfolge in (
) ist m¨oglich unter Anwendung
des Satzes von Fubini
13
auf die Funktion l(., (.)) als Funktion auf
× U
n
, mit
l(, (x
1
, ..., x
n
)
0 , (x
1
, ..., x
n
)
U
n
, die in beiden Komponenten messbar
ist.
14
Gilt nun f¨
ur
(.)
:
E
(.
|x
1
,...,x
n
)
(l(.,
(x
1
, ..., x
n
))) = min
E
(.
|x
1
,...,x
n
)
(l(., (x
1
, ..., x
n
)))
(x
1
, ..., x
n
)
U
n
, so folgt:
U
n
E
(.
|x
1
,...,x
n
)
(l(.,
(x
1
, ..., x
n
)))f
X
(x
1
, ..., x
n
)dx
1
...x
n
= min
E
(.
|x
1
,...,x
n
)
(l(., (x
1
, ..., x
n
)))f
X
(x
1
, ..., x
n
)dx
1
...x
n
,
13
Der Satz von Fubini beinhaltet die folgende Aussage:
Ausgegangen wird von zwei Maßr¨
aumen (A,
A, m) und (B, B, N), auf A × B ist eine Funktion f(., .)
definiert, mit f (x, y)
c x A y B (c ist dabei eine beliebige Konstante). Ist f(., .) in der ersten
Komponente bez¨
uglich M und in der zweiten Komponente bez¨
uglich N messbar und integrierbar,
und sind außderdem g(x) :=
B
f (x, y)dN (y) bez¨
uglich M messbar und integrierbar und h(y) :=
A
f (x, y)dM (x) bez¨
uglich N messbar und integrierbar, dann gilt:
A
g
(x)dM (x)=
A
B
f
(x,y)dN(y)dM (x)=
B
B
f
(x,y)dM (x)dN (y)=
rmB
h
(y)dN (y)
14
Diese Form des Beweises findet sich etwa bei Viertl (2003), S. 183, Berger (1985), S. 159 f., Robert
(2001), S. 63.

226
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
d.h.
r
(.)
(
(.)) = min
(.)
r
(.)
((.)).
Bemerkung: Der vorausgehende Satz sagt nichts aus ¨
uber die Existenz bzw. Eindeu-
tigkeit einer Bayes'schen Entscheidungsfunktion, es wird lediglich gezeigt, dass eine
Entscheidungsfunktion, die f¨
ur jede konkrete Stichprobe (x
1
, ..., x
n
) den A-posteriori-
Verlusterwartungswert minimiert, auch minimales Bayes-Risiko hat.
15
Eine Vereinfachung f¨
ur die Bayes'sche Verlustanalyse f¨
ur unscharfe Daten stellt die
folgende ¨
Uberlegung dar: A priori, also vor Erhebung der Daten geht man davon aus,
dass das Experiment scharfe Daten liefern werde. Dieser Gedanke ist insbesondere in
der scharfen A-priori-Verteilung (.) der Zufallsvariablen
, die a priori scharf ist,
repr¨
asentiert. Die Bayes'sche A-priori-Analyse ist somit, unabh¨
angig davon, ob man
sp¨
ater scharfe oder unscharfe Daten erh¨
alt, immer eine scharfe. Datenunsch¨
arfe schl¨
agt
sich ausschließlich in der Bayes'schen A-posteriori-Analyse nieder.
Bei der Bayes'schen A-posteriori-Analyse, die mit Hilfe der Fuzzy-Schar von A-
posteriori-Verteilungen (6.7) durchgef¨
uhrt wird, wird die g¨
unstige Eigenschaft der Fuzzy-
Schar gen¨
utzt, dass die einzelnen Funktionen der Fuzzy-Schar selbst Wahrscheinlichkeits-
bzw. Dichtefunktionen sind, es kann also wie im scharfen Fall vorgegangen werden, und
es sind die Ergebnisse aus der klassischen Analyse, insbesondere der oben bewiesene
Satz, auf die unscharfe Analyse anwendbar.
Da
eine Zufallsvariable ist, ist auch f¨ur jedes (x
1
, ..., x
n
)
supp(~A
1
)
× ... ×
supp( ~
A
n
) die Gr¨
oße l(
, (x
1
, ..., x
n
)) eine Zufallsvariable. Durch die Fuzzy-Schar von
A-posteriori-Verteilungen von ~
~
~
(.
|~A
1
, ..., ~
A
n
) =
(.
|x
1
, ..., x
n
),
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
))
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
),
~
~
(.
| ~
A
1
,..., ~
A
n
)
((.
|x
1
, ..., x
n
)) = min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
nach (6.7) besitzt l(
, (x
1
, ..., x
n
)) f¨
ur jedes (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
)
eine A-posteriori-Verteilung, n¨
amlich (.
|x
1
, ..., x
n
).
Somit kann f¨
ur (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) der A-posteriori-Verluster-
wartungswert E
(.
|x
1
,...,x
n
)
(l(
, x
1
, ..., x
n
)) gem¨
aß (7.7) berechnet werden. Daraus ergibt
sich eine Fuzzy-Menge von A-posteriori-Verlusterwartungswerten:
~
~
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l ( ~
, (~A
1
, ..., ~
A
n
)) =
E
(.
|x
1
,...,x
n
)
(l(
, x
1
, ..., x
n
)) ,
~
~
E
~
~
(.| ~
A1,..., ~
An)
(
l ( ~
, ( ~
A
1
,..., ~
A
n
))
)
E
(.
|x
1
,...,x
n
)
(l(
, x
1
, ..., x
n
))
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
),
~
~
E
~
~
(.| ~
A1,..., ~
An)
(
l ( ~
, ( ~
A
1
,..., ~
A
n
))
)
E
(.
|x
1
,...,x
n
)
(l(
, x
1
, ..., x
n
))
=
sup
(y1,...,yn)supp( ~
A1)×...×supp( ~
An):
E(.|y1,...,yn)(l(,y1,...,yn))=E(.|x1,...,xn)(l(,x1,...,xn))
~
A
1
(y
1
), ...,
~
A
n
(y
n
)
(7.9)
15
Vgl. Berger (1985), S. 159, Ferguson (1967), S. 67 ff.

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
227
Mittels sup-Vereinigung ¨
uber (x
1
, ..., x
n
)
supp(~A
1
)
×...×supp(~A
n
) kann aus der Fuzzy-
Menge (7.9) der Fuzzy-A-posteriori-Erwartungswert E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l ( ~
, (~A
1
, ..., ~
A
n
))
abgeleitet werden durch:
E
~
~
(.| ~
A1,..., ~
An)
(
l ( ~
, ( ~
A
1
,..., ~
A
n
))
)(l) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An)
E(.|x1,...,xn)(l(,(x1,...,xn)))=l
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(7.10)
ur l IR
+
0
.
Aufgabe der unscharfen Bayes'schen Entscheidungstheorie ist es, Entscheidungs-
funktionen
(.)
zu finden, deren Fuzzy-Extension die konvexe H¨ulle des Fuzzy-
A-posteriori-Verlusterwartungswertes co
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l ( ~
, (~A
1
, ..., ~
A
n
))
nach
(7.10) unscharf minimiert, d.h. es wird nach einer Entscheidungsfunktion gesucht, f¨
ur
die gilt:
co
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
,
( ~
A
1
, ..., ~
A
n
)
= min
(.)
co
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
, (~A
1
, ..., ~
A
n
)
(7.11)
Die L¨
osung des Problems ist in dem folgenden Satz beinhaltet:
Satz (¨
uber Fuzzy-Extensionen von Bayes'schen Entscheidungsfunktionen):
Gegeben ist ein parametrisches stochastisches Modell X
P
, die Zufallsvariable
besitzt die A-priori-Verteilung mit Dichte (.) auf (, ). (X
1
, ..., X
n
) ist eine
Stichprobe von X mit Werten in dem messbaren Raum (U
n
,
A
n
). =
{ : U
n
ID
| A-ID-messbar} ist die Menge der m¨oglichen statistischen Entscheidungsfunktio-
nen aufgrund von konkreten Stichproben (x
1
, ..., x
n
)
U
n
in den Entscheidungsraum
(ID,
ID). IL IR
+
0
ist die Menge der m¨
oglichen Verluste aus den Entscheidungen, die
H-IL- und ID-IL-messbare Funktion l : × ID IL beschreibt den Verlust aufgrund
einer Entscheidung d = (x
1
, ..., x
n
)
ID bei Vorliegen des Parameters .
Aufgrund der Stichprobe von verteilungstreuen Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) von
X erh¨
alt man die Fuzzy-Daten ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
. Auf der Grundlage der Fuzzy-
Schar von A-posteriori-Verteilungen ~
~
(.
|~A
1
, ..., ~
A
n
) ist f¨
ur (.)
gem¨aß (7.10)
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
, (~A
1
, ..., ~
A
n
)
der Fuzzy-A-posteriori-Verlusterwartungswert.
Existiert eine Bayes'sche Entscheidungsfunktion
(.)
, die die Bedingung
E
(.
|x
1
,...,x
n
)
(l(
(x
1
, ..., x
n
))) = min
(.)
E
(.
|x
1
,...,x
n
)
(l((x
1
, ..., x
n
)))
(x
1
, ..., x
n
)
U
n
erf¨
ullt, dann gilt f¨
ur
(.) auch die Aussage (7.11):
co E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
,
( ~
A
1
, ..., ~
A
n
)
= min
(.)
co E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
, (~A
1
, ..., ~
A
n
)
Der Satz sagt also aus, dass es gen¨
ugt, f¨
ur klassische Daten diejenige Bayes'sche
Entscheidungsfunktion
(.)
zu finden, die den scharfen A-posteriori-Verluster-
wartungswert f¨
ur alle m¨
oglichen scharfen Datens¨
atze minimiert. Die Fuzzy-Extension
(.) von
(.) ist dann die L¨
osung des Problems f¨
ur den Fall unscharfer Daten.
Definition: Die Fuzzy-Extension
(.) einer Bayes'schen Entscheidungsfunktion
(.),
die f¨
ur unscharfe Daten nach dem vorhergehenden Satz die Bedingung (7.11) erf¨
ullt,
wird auch als Bayes'sche Fuzzy-Entscheidungsfunktion bezeichnet.

228
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Beweis des Satzes: F¨
ur (.)
gilt co E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
, (~A
1
, ..., ~
A
n
)
F(IR
+
0
),
und man kann f¨
ur
(0, 1] schreiben:
co E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
, (~A
1
, ..., ~
A
n
)
=
min
(x1,...,xn)
A1×...×An
E
(.
|x
1
,...,x
n
)
(l((x
1
, ..., x
n
))),
max
(x1,...,xn)
A1×...×An
E
(.
|x
1
,...,x
n
)
(l((x
1
, ..., x
n
))) .
Es gen¨
ugt also, f¨
ur
(0, 1] und beliebiges (.) zu zeigen:
min
(x1,...,xn)
A1×...×An
E
(.
|x
1
,...,x
n
)
(l(
(x
1
, ..., x
n
)))
min
(x1,...,xn)
A1×...×An
E
(.
|x
1
,...,x
n
)
(l((x
1
, ..., x
n
)))
und
max
(x1,...,xn)
A1×...×An
E
(.
|x
1
,...,x
n
)
(l(
(x
1
, ..., x
n
)))
max
(x1,...,xn)
A1×...×An
E
(.
|x
1
,...,x
n
)
(l((x
1
, ..., x
n
))).
Da die Bedingung E
(.
|x
1
,...,x
n
)
(l(
(x
1
, ..., x
n
))) =
min
(x
1
,...,x
n
)
U
n
E
(.
|x
1
,...,x
n
)
(l((x
1
, ..., x
n
)))
laut Voraussetzung f¨
ur alle (x
1
, ..., x
n
)
U
n
erf¨
ullt ist, gilt sie insbesondere auch f¨
ur
alle (x
1
, ..., x
n
)
A
1
× ... × A
n
(0, 1].
Sind
(0, 1] und
1
(.)
beliebig aber fest, und ist (x
1
, ..., x
n
)
A
1
× ... × A
n
definiert durch
E
(.
|x
1
,...,x
n
)
(l(
1
(x
1
, ..., x
n
))) =
min
(x
1
,...,x
n
)
A
1
×...×A
n
E
(.
|x
1
,...,x
n
)
(l(
1
(x
1
, ..., x
n
))),
dann erh¨
alt man unter Anwendung der Voraussetzung:
E
(.
|x
1
,...,x
n
)
(l(
1
(x
1
, ..., x
n
)))
E
(.
|x
1
,...,x
n
)
(l(
(x
1
, ..., x
n
)))
min
(x
1
,...,x
n
)
A
1
×...×A
n
E
(.
|x
1
,...,x
n
)
(l(
(x
1
, ..., x
n
)))
Ist weiters (x
1
, ..., x
n
)
A
1
× ... × A
n
definiert durch
E
(.
|x
1
,...,x
n
)
(l(
(x
1
, ..., x
n
))) =
max
(x
1
,...,x
n
)
U
n
E
(.
|x
1
,...,x
n
)
(l(
(x
1
, ..., x
n
))),
dann erh¨
alt man f¨
ur beliebiges
2
(.)
:
E
(.
|x
1
,...,x
n
)
(l(
(x
1
, ..., x
n
)))
E
(.
|x
1
,...,x
n
)
(l(
2
(x
1
, ..., x
n
)))
max
(x
1
,...,x
n
)
A
1
×...×A
n
E
(.
|x
1
,...,x
n
)
(l(
2
(x
1
, ..., x
n
)))
Bemerkung: Wie im vorausgehenden Satz wird hier keine Aussage ¨
uber die Existenz
von Bayes'schen Fuzzy-Entscheidungsfunktionen gemacht. Der Satz stellt lediglich ei-
ne Reduktion des unscharfen Minimierungsproblems auf ein scharfes Minimierungspro-
blem dar.
Mit Verlustminimierung besch¨
aftigt sich neben der Bayes'schen Statistik auch die
klassische schließende Statistik. In einem parametrischen stochastischen Modell X
P
mit unbekanntem Parameter
wird mit ebenfalls die Menge der Entscheidungs-
funktionen : U
n
ID, die jeder konkreten Stichprobe (x
1
, ..., x
n
)
U
n
jeweils eine
statistische Entscheidung (x
1
, ..., x
n
) im Entscheidungsraum ID zuordnen. F¨
ur eine

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
229
gegebene Verlustfunktion l :
× ID IL kann f¨ur jedes (.) gem¨aß (7.3) die Risi-
kofunktion E
(l(, (x
1
, ..., x
n
))) als Funktion von bestimmt werden. Im klassischen
Modell steht jedoch keine A-priori-Information ¨
uber den Parameter zur Verf¨
ugung.
Um Entscheidungsfunktionen dennoch vergleichbar zu machen, wird zwecks Elimina-
tion von der maximal zu erwartende Verlust, also das maximale Risiko
max
E
(l(, (x
1
, ..., x
n
)))
ur (x
1
, ..., x
n
)
U
n
betrachtet. Eine Entscheidungsfunktion
(.), die das maximale
Risiko minimiert, d.h. f¨
ur die f¨
ur (x
1
, ..., x
n
)
U
n
gilt
max
E
(l(,
(x
1
, ..., x
n
))) = min
(.)
max
E
(l(, (x
1
, ..., x
n
))),
heißt Minimax-Entscheidungsfunktion. Minimax-Entscheidungsfunktionen k¨
onnen als
spezielle Bayes-Entscheidungsfunktionen angesehen werden, denen die ung¨
unstigste A-
priori-Verteilung zugrunde liegt. Die ung¨
unstigste A-priori-Verteilung
0
(.) ist gegeben
als diejenige A-priori-Verteilung, die das bez¨
uglich (.)
minimierte Bayes-Risiko
maximiert. Bezeichnet man die Menge der m¨
oglichen A-posteriori-Verteilungen von
auf (,
) mit , so kann die ung¨unstigste A-priori-Verteilung definiert werden:
min
(.)
r
0
(.)
((.)) = max
(.)
min
(.)
r
(.)
((.))
bzw. f¨
ur alle (x
1
, ..., x
n
)
U
n
:
min
(.)
E
0
(.)
(E
(l(, (x
1
, ..., x
n
)))) = max
(.)
min
(.)
E
(.)
(E
(l(, (x
1
, ..., x
n
))))
Minimax-Entscheidungsfunktionen k¨
onnen also als Spezialfall den Bayes' schen Ent-
scheidungsfunktionen subsumiert werden, daher soll ihre Fuzzifikation hier nicht weiter
behandelt werden.
16
Eine Verallgemeinerung der Entscheidungsfunktionen stellen randomisierte oder
verzuf¨
alligte Entscheidungsfunktionen dar. Eine randomisierte Entscheidungsfunktion
ordnet einer konkreten Stichprobe (x
1
, ..., x
n
) einer Zufallsvariablen X in einem stocha-
stischen Modell X
P
im Gegensatz zu nichtrandomisierten Entscheidungsfunktionen
nicht eine Entscheidung d = (x
1
, ..., x
n
)
ID zu, sondern eine Wahrscheinlichkeitsver-
teilung Q
(x
1
,...,x
n
)
auf dem messbaren Entscheidungsraum (ID,
ID) zu. Ist Q eine Menge
von Wahrscheinlichkeitsverteilungen auf (ID,
ID), so ist eine randomisierte Entschei-
dungsfunktion (.) eine Abbildung:
:
U
n
Q
(x
1
, ..., x
n
)
(x
1
, ..., x
n
) = Q
(x
1
,...,x
n
)
16
Vgl. Wald (1950), S. 18, Ferguson (1967), S. 36 ff., Berger (1985), S. 18 f. und S. 308 ff., Carlin /
Louis (1996), S. 14, Marinell (1987), S. 131.
Auch besteht ein enger Zusammenhang zwischen Minimax-Entscheidungsfunktionen und Spieltheo-
rie (Vgl. Wald (1947b), S. 283 ff., Wald (1950), S. 24 ff., Ferguson (1967), S. 36 ff., Berger (1985),
S. 310 ff., Carlin / Louis (1996), S. 14, Marinell (1987), S. 131.) F¨
ur diesen Zugang zu unscharfen
Minimax-Entscheidungsfunktionen wird auf die Literatur zur unscharfen Spieltheorie verwiesen: etwa
Zimmermann (1993), S. 185 ff., Ragade (1976), S. 213 ff., Butnariu (1978), S. 181 ff.

230
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Eine randomisierte Entscheidungsfunktion ist somit eine ¨
Ubergangswahrscheinlichkeit,
sie gibt an, mit welcher Wahrscheinlichkeit bei Auftreten der konkreten Stichprobe
(x
1
, ..., x
n
)
U
n
die Entscheidung d
ID gew¨ahlt wird.
17
Eine nichtrandomisierte Entscheidungsfunktion (.) kann als spezielle randomisierte
Entscheidungsfunktion interpretiert werden mit
Q
(x
1
,...,x
n
)
(
{d}) =
1 falls (x
1
, ..., x
n
) = d
0 sonst
Im Hinblick auf Optimalit¨
at stellt die Betrachtung von randomisierten Entschei-
dungsfunktionen jedoch keine Verbesserung gegen¨
uber der bloßen Analyse von gew¨
ohn-
lichen Entscheidungsfunktionen dar, solange der Parameter, ¨
uber den zu entscheiden
ist, lediglich vom Zufall, nicht aber von einem rationalen Gegenspieler abh¨
angt.
18
Aus
diesem Grund wird auf eine Betrachtung von randomisierten Entscheidungsfunktionen
beim Vorliegen unscharfer Daten verzichtet.
Abschließend soll hier noch ein von Viertl
19
vorgeschlagener Ansatz f¨
ur die Fuz-
zifikation von Bayes'schen Entscheidungsregeln vorgestellt werden. Viertl geht von ei-
ner unscharfen A-priori-Verteilung aus, deren Unsch¨
arfe auf unscharfe Hyperparameter
zur¨
uckzuf¨
uhren ist.
20
Das Modell soll in der folgenden Darstellung allerdings dahinge-
hend modifiziert werden, dass von einer unscharfen A-posteriori-Verteilung ausgegan-
gen wird, die aufgrund der unscharfen Daten ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
bzw. der daraus
abgeleiteten unscharfen suffizienten Statistik s ( ~
A
1
, ..., ~
A
n
)
F(S) unscharf ist, wel-
che somit die Funktion des unscharfen Hyperparameters erf¨
ullt. Viertl bestimmt aus
der fuzzifizierenden A-posteriori-Verteilung ~
(.
| s (~A
1
, ..., ~
A
n
)) f¨
ur jedes
die -
Schnitte
~
| s (~A
1
, ..., ~
A
n
)
=
min
( s (A
1
,...,A
n
))
(
|),
max
( s (A
1
,...,A
n
))
(
|)
ur
(0, 1] bzw. die -Nivaukurven
(.
| s (~A
1
, ..., ~
A
n
)) und
(.
| s (~A
1
, ..., ~
A
n
)) f¨
ur
(0, 1] durch
(
| s (~A
1
, ..., ~
A
n
)) =
min
( s (A
1
,...,A
n
))
(
|)
(
| s (~A
1
, ..., ~
A
n
)) =
max
( s (A
1
,...,A
n
))
(
|)
ur
. Mit Hilfe der -Niveaukurven werden sodann (unter Ausn¨utzung der Mo-
notonieeigenschaft des Erwartungswertfunktionals) die -Komponenten
E
V ~
(.
| s ( ~
A
1
,..., ~
A
n
))
(l(
, d)) := E
(.
| s ( ~
A
1
,..., ~
A
n
))
(l(
, d))
=
l(, d)
·
(
| s (~A
1
, ..., ~
A
n
))
ur diskretes
l(, d)
·
(
| s (~A
1
, ..., ~
A
n
))d
ur stetiges
E
V ~
(.
| s ( ~
A
1
,..., ~
A
n
))
(l(
, d)) := E
(.
| s ( ~
A
1
,..., ~
A
n
))
(l(
, d))
=
l(, d)
·
(
| s (~A
1
, ..., ~
A
n
))
ur diskretes
l(, d)
·
(
| s (~A
1
, ..., ~
A
n
))d
ur stetiges
17
Vgl. Wald (1950), S. 7, Berger (1985), S. 12 ff., Ferguson (1967), S. 22 ff., Wald (1947b), S. 280 f.
18
Vgl. Wald (1950), S. 7, Berger (1985), S. 15, Marinell (1987), S. 132.
19
Vgl. Viertl (1996), S. 171 ff.
20
Vgl. Viertl (1996), S. 156 ff.

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
231
bzw. -Schnitte
E
V ~
(.
| s ( ~
A
1
,..., ~
A
n
))
(l(
, d)) = E
(.
| s ( ~
A
1
,..., ~
A
n
))
(l(
, d)), E
(.
| s ( ~
A
1
,..., ~
A
n
))
(l(
, d))
ur
(0, 1] eines unscharfen Verlusterwartungswerts ~
E
V ~
(.
| s ( ~
A
1
,..., ~
A
n
))
(l(
, d)) ei-
ner zun¨
achst als scharf klassifizierten Entscheidung d berechnet. Die Bayes'sche Ent-
scheidung d
soll schließlich aus dem so berechneten unscharfen Verlusterwartungswert
bestimmt werden. Eine exakte Anleitung f¨
ur die Berechnung der Bayes'schen Ent-
scheidung gibt Viertl jedoch nicht, sondern er weist lediglich auf die Problematik der
mangelnden gr¨
oßenm¨
aßigen Vergleichbarkeit unscharfer Zahlen aufgrund der fehlenden
eindeutigen Ordnungsrelation auf
F(IR) hin.
21
In der vorliegenden Arbeit wurde dage-
gen versucht, das Fuzzy-Minimum der m¨
oglichen unscharfen Verlusterwartungswerte
als Basis f¨
ur die Definition von Bayes'schen Entscheidungen aufgrund unscharfer Daten
heranzuziehen.
7.3
Fuzzy-Bayes-Punktsch¨
atzungen
Bayes'sche Punktsch¨
atzungen sind Sch¨
atzungen f¨
ur den unbekannten Parameter in
einem parametrischen stochastischen Modell X
P
, die den zu erwartenden Verlust
minimieren.
22
Die Besonderheit von Sch¨
aztentscheidungen besteht, dass der Entschei-
dungsraum hier im Allgemeinen den gesamten Parameterraum umfasst, d.h. es ist
ID = .
Hier sollen Bayes-Sch¨
atzungen aufgrund von unscharfen Daten bei quadratischer
und bei linearer Verlustfunktion behandelt werden.
7.3.1
Fuzzy-Bayes-Punktsch¨
atzung bei quadratischer Verlust-
funktion
Gegeben ist also ein parametrisches stochastisches Modell X
P
. F¨
ur den unbekann-
ten Parameter
soll eine Sch¨atzung d gefunden werden, die den zu erwartenden
Verlust minimiert, wobei eine quadratische Verlustfunktion
l(, d) = s
· ( - d)
2
(7.12)
s
IR
+
, zugrunde gelegt wird.
23
ist eine Zufallsvariable auf (, ) mit der A-priori-
Verteilung (.). F¨
ur eine beliebige konkrete Stichprobe (x
1
, ..., x
n
)
U
n
, die als Reali-
sation einer (klassischen) Stichprobe (X
1
, ..., X
n
) von X auftritt, ist die A-posteriori-
Verteilung von
gegeben durch (.|x
1
, ..., x
n
). F¨
ur eine Sch¨
atzfunktion der Form :
U
n
, (x
1
, ..., x
n
)
(x
1
, ..., x
n
) = d lautet der A-posteriori-Verlusterwartungswert
E
(.
|x
1
,...,x
n
)
(l(
, (x
1
, ..., x
n
))) = E
(.
|x
1
,...,x
n
)
(l(
, d))
21
Vgl. Viertl (1996), S. 174 f.
22
Vgl. etwa Viertl (2003), S. 185 f., Berger (1985), S. 161 ff., Robert (2001), S. 165 ff., Carlin /
Louis (1996), S. 39 ff., Marinell (1987), S. 161 ff.
23
Vgl. etwa Viertl (2003), S. 185, Berger (1985), S. 161 f., Carlin / Louis (1996), S. 39 f., Marinell
(1987), S. 163 f. und S. 188, Marinell / Seeber (1993), S. 82 f.

232
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
=
l(, d)
· (|x
1
, ..., x
n
)
l(, d)
· (|x
1
, ..., x
n
)d
=
s
· ( - d)
2
· (|x
1
, ..., x
n
)
ur diskretes
s
· ( - d)
2
· (|x
1
, ..., x
n
)d f¨
ur stetiges
=
s
·
2
· (|x
1
, ..., x
n
)
- s · 2d ·
· (|x
1
, ..., x
n
) + s
· d
2
·
(
|x
1
, ..., x
n
)
ur diskretes
s
·
2
· (|x
1
, ..., x
n
)d
- s · 2d ·
· (|x
1
, ..., x
n
)d + s
· d
2
·
(
|x
1
, ..., x
n
)d
ur stetiges
= s
· E
(.
|x
1
,...,x
n
)
(
2
)
- 2d · E
(.
|x
1
,...,x
n
)
(
) + d
2
.
Die Minimierungsaufgabe wird gel¨
ost, indem man den A-posteriori-Verlusterwartungs-
wert nach d differenziert und die Ableitung gleich Null setzt:
d
dd
E
(.
|x
1
,...,x
n
(l(
, d)) =
d
dd
s
· E
(.
|x
1
,...,x
n
)
(
2
)
- 2d · E
(.
|x
1
,...,x
n
)
(
) + d
2
= s
· -2E
(.
|x
1
,...,x
n
)
(
) + 2d = 0
d
=
(x
1
, ..., x
n
) = E
(.
|x
1
,...,x
n
)
(
)
(7.13)
Da die zweite Ableitung
d
2
dd
2
E
(.
|x
1
,...,x
n
)
(l(
, d)) =
d
dd
s
· -2E
(.
|x
1
,...,x
n
)
(
) + 2d = 2s > 0
positiv ist, handelt es sich um ein Minimum.
Im Fall einer quadratischen Verlustfunktion ist also der A-posteriori-Erwartungs-
wert-Sch¨
atzer ^
(vgl. Abschnitt 6.3.1) Bayes'scher Punktsch¨
atzwert von . Man beachte
dabei, dass die L¨
osung des Minimierungsproblems unabh¨
angig von dem Funktionspa-
rameter s der Verlustfunktion ist.
24
Der minimale A-posteriori-Verlusterwartungswert E
(.
|x
1
,...,x
n
)
(l(
,
(x
1
, ..., x
n
)))
ur den A-posteriori-Erwartungswert ^
= E
(.
|x
1
,...,x
n
)
(
) von ist somit gerade gleich
der s-fachen Varianz von
bez¨uglich der A-posteriori-Verteilung (.|x
1
, ..., x
n
),
25
also
E
(.
|x
1
,...,x
n
)
(l(
, E
(.
|x
1
,...,x
n
)
(
))) = E
(.
|x
1
,...,x
n
)
s
· ( - ^)
2
= s
· E
(.
|x
1
,...,x
n
)
(
- ^)
2
= s
· V ar
(.
|x
1
,...,x
n
)
(
),
(7.14)
somit handelt es sich bei dem Sch¨
atzer E
(.
|x
1
,...,x
n
)
(
) um einen effizienten Sch¨atzer.
Liefert eine Stichprobe von verteilungstreuen Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) von
X unscharfe Daten ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
, so erh¨
alt man Fuzzy-Sch¨
atzfunktionen der
Form
:
(
F(U))
n
F()
( ~
A
1
, ..., ~
A
n
)
( ~
A
1
, ..., ~
A
n
) = ~
D
(7.15)
mit
~
D
(d) =
( ~
A
1
,..., ~
A
n
)
(d) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
(x1,...,xn)=d
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(7.16)
24
Vgl. etwa Viertl (2003), S. 185, Berger (1985), S. 161, Carlin / Louis (1996), S. 39 f., Marinell
(1987), S. 164 und S. 188, Marinell / Seeber (1993), S. 82.
25
Vgl. etwa Viertl (2003), S. 185, Berger (1985), S. 161, Carlin / Louis (1996), S. 39 f., Marinell /
Seeber (1993), S. 83.

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
233
Der unscharfe Verlust aus einer Fuzzy-Punktsch¨
atzung ist dann gegeben durch die
Fuzzy-Extension der quadratischen Verlustfunktion
l (, ~
D) = s
· (
~
D)
2
=
l,
l (, ~
D)
(l)
l (, ~
D)
(l) =
s
·( ~
D)
2
(l) =
sup
dsupp( ~
D):
s·(-d)2=l
~
D
(d)
(7.17)
ur
.
Mit Hilfe der Fuzzy-Schar von A-posteriori-Verteilungen ~
~
(.
|~A
1
, ..., ~
A
n
) von
auf-
grund von ( ~
A
1
, ..., ~
A
n
) kann der Fuzzy-A-posteriori-Verlusterwartungswert f¨
ur
: (
F(U))
n
F() berechnet werden:
E
~
~
(.| ~
A1,..., ~
An)
l
~
, ~A
1
, ..., ~
A
n
=
l,
E
~
~
(.| ~
A1,..., ~
An)
( l ( ~
, ( ~
A
1
,..., ~
A
n
)))
(l)
l IR
+
,
E
~
~
(.| ~
A1,..., ~
An)
( l ( ~
, ( ~
A
1
,..., ~
A
n
)))
(l)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
E(.|x1,...,xn)(l(,(x1,...,xn)))=l
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
(x1,...,xn)=d mit
s·(E(.|x1,...,xn)(
2)-2dE
(.|x1,...,xn)
(
)+d2)=l
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(7.18)
Gem¨
aß dem Satz ¨
uber Fuzzy-Extensionen von Bayes'schen Entscheidungsfunktionen
in Abschnitt 7.2 minimiert die Fuzzy-Extension (7.15) der f¨
ur beliebiges (x
1
, ..., x
n
)
U
n
gebildeten Bayes'schen Punktsch¨
atzfunktion (7.13), die den scharfen A-posteriori-
Verlusterwartungswert s
· E
(.
|x
1
,...,x
n
)
(
2
)
- 2d · E
(.
|x
1
,...,x
n
)
(
) + d
2
minimiert, die
konvexe H¨
ulle co E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( l ( ~
, (~A
1
, ..., ~
A
n
))) des Fuzzy-A-posteriori-Verlust-
erwartungswertes (7.18) unscharf. Somit ist die Bayes'sche Fuzzy-Punktsch¨
atzfunktion
(.) f¨
ur quadratische Verlustfunktion gegeben durch:
:
(
F(U))
n
F()
( ~
A
1
, ..., ~
A
n
)
( ~
A
1
, ..., ~
A
n
) = E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( ~
)
(7.19)
Die Fuzzy-Bayes-Punktsch¨
atzung f¨
ur quadratische Verlustfunktion ist also gleich dem
Fuzzy-A-posteriori-Erwartungswert-Sch¨
atzer (6.48)-(6.50) in Abschnitt 6.3.1.
26
Es ist
also
~
D
=
( ~
A
1
, ..., ~
A
n
) = E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( ~
) =
~^.
(7.20)
Der Fuzzy-A-posteriori-Verlusterwartungswert
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( l ( ~
,
( ~
A
1
, ..., ~
A
n
)))
26
Gertner / Zhu (1996), S. 277 ff., geben den von ihnen definierten (am Ende von Abschnitt 6.3.1
kurz beschriebenen) A-posteriori-Erwartungswertsch¨
atzer als besten exakten Punktsch¨
atzer bei qua-
dratischer Verlustfunktion und unscharfen Daten an.

234
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
der Bayes'schen Entscheidung
( ~
A
1
, ..., ~
A
n
) = E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( ~
) ist gleich
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
, E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( ~
) = l,
E
~
~
(.| ~
A1,..., ~
An)
( l ( ~
, E
~
~
(.| ~
A1,..., ~
An)
( ~
)))
(l)
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
s
· (E
(.
|x
1
,...,x
n
)
((
- E
(.
|x
1
,...,x
n
)
(
))
2
)) = s
· V ar
(.
|x
1
,...,x
n
)
(
) = l,
E
~
~
(.| ~
A1,..., ~
An)
( l ( ~
, E
~
~
(.| ~
A1,..., ~
An)
( ~
)))
(l)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
s·(E(.|x1,...,xn)((-E(.|x1,...,xn)())
2))=s·V ar
(.|x1,...,xn)
(
)=l
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
.
(7.21)
Etwa f¨
ur stetiges
ist
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
, E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( ~
) =
s
·
2
· (|x
1
, ..., x
n
)d
-
· (|x
1
, ..., x
n
)d
2
,
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
, (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
)
,
(7.22)
bzw. insbesondere im Fall der Existenz einer suffizienten Statistik
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
, E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( ~
)
= E
~
~
(.
| s ( ~
A
1
,..., ~
A
n
))
l
~
, E
~
~
(.
| s ( ~
A
1
,..., ~
A
n
))
( ~
) =
s
·
2
· (|)d -
· (|)d
2
,
s ( ~
A
1
,..., ~
A
n
)
()
,
supp s (~A
1
, ..., ~
A
n
)
.
(7.23)
Bei unscharfen Daten ist der Fuzzy-A-posteriori-Verlusterwartungswert f¨
ur quadrati-
sche Verlustfunktionen nicht gleich der s-fachen Varianz der Fuzzy-Zufallsvariablen
27
bez¨
uglich der A-posteriori-Verteilung, es gilt aber:
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
, E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( ~
) V ar
~
~
(.
| ~
A
1
,..., ~
A
n
)
( ~
)
(7.24)
7.3.2
Fuzzy-Bayes-Punktsch¨
atzung bei linearer Verlustfunk-
tion
Der Verlust, der aus einer (scharfen) Sch¨
atzung d f¨
ur den unbekannten Parameter
in einem parametrischen stochastischen Modell X
P
resultiert, ist im Folgenden
gegeben durch eine lineare Verlustfunktion
l(, d) =
s
1
· (d - ) f¨ur d >
0
ur d =
s
2
· ( - d) f¨ur d <
(7.25)
27
Ausf¨
uhrlich wurde die Varianz von Fuzzy-Zufallsvariablen, auf welche in dieser Arbeit nicht ein-
gegangen wurde, bei Comploj (1994), S. 117 ff., in Anlehnung an Kruse / Meyer (1987), S. 80 ff,
beschrieben.

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
235
s
1
, s
2
IR
+
.
28
ur die Zufallsvariable
auf (, ) mit der A-priori-Verteilung (.)
erh¨
alt man aufgrund einer konkreten Stichprobe (x
1
, ..., x
n
)
U
n
als Realisation einer
(scharfen) Stichprobe (X
1
, ..., X
n
) von X die A-posteriori-Verteilung (.
|x
1
, ..., x
n
). F¨
ur
eine Sch¨
atzfunktion : U
n
IR, (x
1
, ..., x
n
)
(x
1
, ..., x
n
) = d lautet der A-posteriori-
Verlusterwartungswert:
E
(.
|x
1
,...,x
n
)
(l(
, (x
1
, ..., x
n
))) = E
(.
|x
1
,...,x
n
)
(l(
, d))
=
:<d
s
1
· (d - ) · (|x
1
, ..., x
n
) +
:>d
s
2
· ( - d) · (|x
1
, ..., x
n
)
ur diskretes
auf einer diskreten Teilmenge IR
d
-
s
1
· (d - ) · (|x
1
, ..., x
n
)d +
d
s
2
· ( - d) · (|x
1
, ..., x
n
)d
ur stetiges
auf = IR
ur stetiges
auf = IR erh¨alt man weiter:
E
(.
|x
1
,...,x
n
)
(l(
, (x
1
, ..., x
n
)))
= s
1
· d ·
d
-
(
|x
1
, ..., x
n
)d
- s
1
·
d
-
· (|x
1
, ..., x
n
)d
+ s
2
·
d
· (|x
1
, ..., x
n
)d
- s
2
· d ·
d
(
|x
1
, ..., x
n
)d
= s
1
· d ·
d
-
(
|x
1
, ..., x
n
)d
- s
1
·
d
-
· (|x
1
, ..., x
n
)d
+ s
2
·
-
· (|x
1
, ..., x
n
)d
-
d
-
· (|x
1
, ..., x
n
)d
- s
2
· d ·
-
(
|x
1
, ..., x
n
)d
-
d
-
(
|x
1
, ..., x
n
)d
= s
1
· d ·
d
-
(
|x
1
, ..., x
n
)d
- s
1
·
d
-
· (|x
1
, ..., x
n
)d
+s
2
· E
(.
|x
1
,...,x
n
)
(
) -
d
-
· (|x
1
, ..., x
n
)d
-s
2
·d· 1 -
d
-
(
|x
1
, ..., x
n
)d
= (s
1
+ s
2
)
· d ·
d
-
(
|x
1
, ..., x
n
)d
- (s
1
+ s
2
)
·
d
-
· (|x
1
, ..., x
n
)d
+ s
2
· E
(.
|x
1
,...,x
n
)
(
) - d
= (s
1
+ s
2
)
· d ·
d
-
(
|x
1
, ..., x
n
)d
-
d
-
· (|x
1
, ..., x
n
)d
+ s
2
· E
(.
|x
1
,...,x
n
)
(
) - d
Das Minimierungsproblem wird wiederum gel¨
ost durch Differenzieren und Nullsetzen:
d
dd
E
(.
|x
1
,...,x
n
)
(l(
, d))
= (s
1
+ s
2
)
·
d
-
(
|x
1
, ..., x
n
)d + d
· (d|x
1
, ..., x
n
)
- d · (d|x
1
, ..., x
n
)
- s
2
= (s
1
+ s
2
)
·
d
-
(
|x
1
, ..., x
n
)d
- s
2
= 0
28
Vgl. etwa Berger (1985), S. 162 f., Marinell (1987), S. 162 f. und S. 187 f., Marinell / Seeber
(1993), S. 81 f.

236
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
d
-
(
|x
1
, ..., x
n
)d =
(x
1
,...,x
n
)
-
(
|x
1
, ..., x
n
)d =
s
2
s
1
+ s
2
(7.26)
bzw.
d
=
(x
1
, ..., x
n
) =
s2
s1+s2
x
1
,...,x
n
,
(7.27)
wobei
x
1
,...,x
n
ur
[0, 1] definiert ist durch
x1,...,xn
-
(
|x
1
, ..., x
n
)d = .
Da die zweite Ableitung
d
2
dd
2
E
(.
|x
1
,...,x
)
(l(
, d)) = (s
1
+ s
2
)
· (d|x
1
, ..., x
n
) > 0
ur alle d
ID positiv ist, handelt es sich um ein Minimum.
Analog kann die L¨
osung f¨
ur diskretes
auf einer diskreten Teilmenge IR
bestimmt werden.
Die Bayes'sche Punktsch¨
atzung
s2
s1+s2
x
1
,...,x
n
ur eine lineare Verlustfunktion ist
somit gleich dem
s
2
s
1
+s
2
-Quantil der Verteilungsfunktion der A-posteriori-Verteilung.
29
Spezialfall: Ist speziell der Verlust aus einer ¨
Ubersch¨
atzung des Parameters gleich
dem Verlust aus einer Untersch¨
atzung, d.h. s
2
= s
1
, so ergibt sich wegen
s
1
s
1
+s
1
=
1
2
als
Bayes'sche Punktsch¨
atzung das 0.5-Quantil der A-posteriori-Verteilung, welches uns
bereits aus Abschnitt 6.3.2 als A-posteriori-Median-Sch¨
atzer bekannt ist.
Liefert eine Stichprobe von verteilungstreuen Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) von
X unscharfe Daten ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
, so erh¨
alt man Fuzzy-Sch¨
atzfunktionen im
Sinne von (7.15).
Der unscharfe Verlust aus einer Fuzzy-Punktsch¨
atzentscheidung ~
D
F() ist dann
gegeben durch die Fuzzy-Extension der linearen Verlustfunktion
l (, ~
D) =
l,
l (, ~
D)
(l) l IR
+
0
,
l (, ~
D)
(l) =
sup
dsupp( ~
D):
l(,d)=l
~
D
(d)
= max
sup
dsupp( ~
D)
{|}:
s1·(d-)=l
~
D
(d),
sup
dsupp( ~
D)
{|}:
s2·(-d)=l
~
D
(d)
.
(7.28)
Mit Hilfe der Fuzzy-Schar von A-posteriori-Verteilungen ~
~
(.
|~A
1
, ..., ~
A
n
) von
aufgrund
von ( ~
A
1
, ..., ~
A
n
) kann der Fuzzy-A-posteriori-Verlusterwartungswert f¨
ur die Fuzzy-Punkt-
29
Vgl. etwa Berger (1985), S. 162, Marinell (1987), S. 163 und S. 188, Marinell / Seeber (1993), S.
81.

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
237
sch¨
atzfunktion
(.) berechnet werden:
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
, ~A
1
, ..., ~
A
n
=
l,
E
~
~
(.| ~
A1,..., ~
A)
( l ( ~
, ( ~
A
1
,..., ~
A
n
)))
(l)
l IR
+
,
E
~
~
(.| ~
A1,..., ~
A)
( l ( ~
, ( ~
A
1
,..., ~
A
n
)))
(l)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
E(.|x1,...,xn)(l(,(x1,...,xn)))=l
min
~
A
1
(x
1
), ...,
f uzA
n
(x
n
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
(s1+s2)· (x1,...,xn)·
(x1,...,xn)
-
(|x1,...,xn)d
-
(x1,...,xn)
-
·(|x1,...,xn)d
+s2·(E(.|x1,...,xn)()-(x1,...,xn))=l
min
~
A
1
(x
1
), ...,
f uzA
n
(x
n
)
(7.29)
ur
= IR, stetig. Nach dem Satz ¨uber Fuzzy-Extensionen von Bayes'schen
Entscheidungsfunktionen in Abschnitt 7.2 erh¨
alt man das Fuzzy-Minimum der kon-
vexen H¨
ulle des Fuzzy-A-posteriori-Verlusterwartungswertes (7.29) durch Anwendung
der Fuzzy-Extension (7.29) der f¨
ur beliebiges (x
1
, ..., x
n
)
U
n
gebildeten Bayes'schen
Punktsch¨
atzfunktion (7.26)-(7.27), die den scharfen A-posteriori-Verlusterwartungswert
E
(.
|x
1
,...,x
n
)
(l(
, (x
1
, ..., x
n
))) minimiert. Die Bayes'sche Fuzzy-Punktsch¨
atzfunktion
bei linearer Verlustfunktion ist somit gegeben durch:
: (
F(U))
n
F() = F(IR)
( ~
A
1
, ..., ~
A
n
)
( ~
A
1
, ..., ~
A
n
) =
d,
( ~
A
1
,..., ~
A
n
)
(d)
d
= IR
(7.30)
mit
( ~
A
1
,..., ~
A
n
)
(d) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
d
-
(|x1,...,xn)d=
s2
s1+s2
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
s2
s1+s2 x1,...,xn
=d
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(7.31)
Die Fuzzy-Bayes-Punktsch¨
atzung f¨
ur lineare Verlustfunktion (7.25) erh¨
alt man also,
indem man f¨
ur die einzelnen A-posteriori-Verteilungen (.
|x
1
, ..., x
n
) der Fuzzy-Schar
~
~
(.
|~A
1
, ..., ~
A
n
) jeweils das
s
2
s
1
+s
2
-Quantil bestimmt und ¨
uber die Quantile
s2
s1+s2
x
1
,...,x
n
die sup-Vereinigung bez¨
uglich (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) bildet.
Als Spezialfall ergibt sich f¨
ur die Verlustfunktion l(, d) = s
1
·| -d| beim Vorliegen
von unscharfen Daten ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
als unscharfe Bayes'sche Punktsch¨
atzung
der unscharfe Median der unscharfen A-posteriori-Verteilung
~
D
=
( ~
A
1
, ..., ~
A
n
) =
d,
( ~
A
1
,..., ~
A
n
)
(d)
d
,
( ~
A
1
,..., ~
A
n
)
(d)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
0.5x1,...,xn =d
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
.
(7.32)

238
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Begleitendes numerisches Beispiel: Man geht aus von den Angaben der vorgehen-
den Abschnitte: Aufgrund der Erhebung einer Stichprobe vom Umfang n = 3 von ver-
teilungstreuen Fuzzy-Perzeiptionen der Poisson-verteilten Fuzzy-Zufallsvariablen, die
die Anzahl der Flutwellen kritischer H¨
ohe im Jahr beschreibt die die Fuzzy-Daten
( ~
A
1
, ~
A
2
, ~
A
3
) =
0.2
0.8
1
0.5
8
9
10
11
,
0.7
1
0.6
11
12
13
,
0.5
1
0.8
6
7
8
liefert, erh¨
alt man un-
ter Ber¨
ucksichtigung der A-priori-Information, die durchschnittliche Anzahl der Flut-
wellen kritischer H¨
ohe betrage 9, der das Gewicht einer Stichprobe vom Umfang n = 2
beigemessen wird, die Fuzzy-Schar von A-posteriori-Gammaverteilungen nach (N.6.3)
~
~
(
|~A
1
, ~
A
2
, ~
A
3
) =
~~
f
|~a ,
1
b
=
5
43
·
42
·e
-5
42!
, 0.2 ,
5
44
·
43
·e
-5
43!
, 0.5 ,
5
45
·
44
·e
-5
44!
, 0.7 ,
5
46
·
45
·e
-5
45!
, 0.8 ,
5
47
·
46
·e
-5
46!
, 1 ,
5
48
·
47
·e
-5
47!
, 0.8 ,
5
49
·
48
·e
-5
48!
, 0.6 ,
5
50
·
49
·e
-5
49!
, 0.5
mit ~
a =
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
und
1
b
=
1
5
nach (N.6.2).
Es soll f¨
ur den Fuzzy-Parameter ~
die Fuzzy-Bayes-Punktsch¨
atzung gefunden wer-
den, wobei man von der folgenden linearen Verlustfunktion ausgeht:
l(, d) =
2
· (d - ) f¨ur d >
0
ur d =
3
· ( - d) f¨ur d <
Es ist somit s
1
= 2, s
2
= 3, und daher ist
s
2
s
1
+s
2
=
3
5
= 0.6.
Die Fuzzy-Schar von A-posteriori-Verteilungen ist die Fuzzy-Schar der Gammaver-
teilungen, die gegeben ist durch die Fuzzy-Schar von Gamma-Verteilungen (N.6.3)
f
(.
|a ,
1
b
),
~
a
(a )
|a supp(~a ) . Es muss also nun f¨ur die Gammaverteilungen
f
(.
|a ,
1
b
, a
supp(~a ) jeweils das 0.6-Quantil
0.6a ,
1
b
berechnet werden und ¨
uber
diese dann bez¨
uglich a
supp(~a ) die sup-Vereinigung gebildet werden. Es ist
0.643,
1
5
= 8.8685,
~
a
(43) = 0.2,
0.644,
1
5
= 9.0723,
~
a
(44) = 0.5,
0.645,
1
5
= 9.2761,
~
a
(45) = 0.7,
0.646,
1
5
= 9.4799,
~
a
(46) = 0.8,
0.647,
1
5
= 9.6836,
~
a
(47) = 1,
0.648,
1
5
= 9.8873,
~
a
(48) = 0.8,
0.649,
1
5
= 10.0910,
~
a
(49) = 0.6,
0.650,
1
5
= 10.2946,
~
a
(50) = 0.5.
Die Bayes'sche Punktsch¨
atzung lautet somit
~
A
1
, ~
A
2
, ~
A
3
= ~
D
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
8.8685
9.0723
9.2761
9.4799
9.6836
9.8873
10.0910
10.2946
,
(N.7.1)
und die -Schnitte ihrer konvexe H¨
ulle lauten f¨
ur
(0, 1]
co ~
D
=
[8.8685, 10.2946] f¨
ur 0 <
0.2
[9.0723, 10.2946] f¨
ur 0.2 <
0.5
[9.2761, 10.0910] f¨
ur 0.5 <
0.6
[9.2761, 9.8873]
ur 0.6 <
0.7
[9.4789, 9.8873]
ur 0.7 <
0.8
9.6836
ur 0.8 <
1.
(N.7.2)

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
239
Abbildung 7.2: Fuzzy-Bayes-Punktsch¨
atzung bei linearer Verlustfunktion
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
8.87 9.07 9.28 9.48 9.68 9.89 10.09 10.29
()
~
D
-
8.87 9.07 9.28 9.48 9.68 9.89 10.09 10.29
co ~
D
7.4
Fuzzy-Bayes-Bereichsch¨
atzungen
Durch Bayes'sche Bereichsch¨
atzungen wird ein Teilbereich D des Parameterraums
angegeben, in dem der unbekannte Parameter in einem stochastischen Modell X
P
vermutet wird. Bayes'sche Bereichsch¨
atzungen sind Bereichsch¨
atzungen, f¨
ur die der zu
erwartende Verlust bei vorgegebener Verlustfunktion minimal ist.
30
Im Fall eindimen-
sionaler Parameterr¨
aume sind die gesuchten Bereiche Intervalle, man spricht daher
dann auch von Intervallsch¨
atzungen.
In einem parametrischen stochastischen Modell X
P
soll ein reelles Intervall
D = [d
u
, d
o
] angegeben werden, das den Parameter enthalten soll. Der Verlust aus
der Intervallsch¨
atzung setzt sich zusammen aus dem Verlust aufgrund der Intervalll¨
ange
und dem Verlust aus einem m¨
oglichen Nichtenthaltensein des Parameters in dem In-
tervall. Im Folgenden wird eine lineare Verlustfunktion angenommen:
l(, D) = l(, d
u
, d
o
) =
s
0
· (d
o
- d
u
) + s
1
· (d
u
- ) f¨ur d
u
>
s
0
· (d
o
- d
u
)
ur d
u
d
o
s
0
· (d
o
- d
u
) + s
2
· ( - d
o
) f¨
ur d
o
<
(7.33)
s
0
, s
1
; s
2
IR
+
.
31
Ist
eine Zufallsvariable auf (, ) = (IR, B) mit der stetigen A-
priori-Verteilung (.), und erh¨
alt man aufgrund einer Stichprobe (X
1
, ..., X
n
) von X die
Daten (x
1
, ..., x
n
)
U
n
, auf deren Grundlage die A-posteriori-Verteilung (.
|x
1
, ..., x
n
)
gebildet wird, dann lautet f¨
ur die Sch¨
atzfunktion
= (
u
,
o
) :
U
n
IR
2
(x
1
, ..., x
n
)
(x
1
, ..., x
n
) = (
u
(x
1
, ..., x
n
),
o
(x
1
, ..., x
n
)) = (d
u
, d
o
)
der A-posteriori-Verlusterwartungswert:
E
(.
|x
1
,...,x
n
)
(l(
, (x
1
, ..., x
n
))) = E
(.
|x
1
,...,x
n
)
(l(
, (d
u
, d
o
)))
= s
0
· (d
o
- d
u
) +
d
u
-
s
1
· (d
u
- ) · (|x
1
, ..., x
n
)d
30
Vgl. etwa Robert (2001), S. 264 ff., Marinell (1987), S. 154 ff., Marinell / Seeber (1993), S. 107 ff.
31
Vgl. etwa Robert (2001), S. 265, Marinell (1987), S. 155 f. und S. 186 f., Marinell / Seeber (1993),
S. 110 ff.

240
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
+
d
o
s
2
· ( - d
o
)
· (|x
1
, ..., x
n
)d
= s
0
· (d
o
- d
u
) + s
1
· d
u
·
d
u
-
(
|x
1
, ..., x
n
)d
- s
1
·
d
u
-
· (|x
1
, ..., x
n
)d
- s
2
· d
o
·
d
o
(
|x
1
, ..., x
n
)d + s
2
·
d
o
· (|x
1
, ..., x
n
)d
= s
0
· (d
o
- d
u
) + s
1
· d
u
·
d
u
-
(
|x
1
, ..., x
n
)d
- s
1
·
d
u
-
· (|x
1
, ..., x
n
)d
-s
2
·d
o
· 1 -
d
o
-
(
|x
1
, ..., x
n
)d +s
2
· E
(.
|x
1
,...,x
n
)
(
) -
d
o
-
· (|x
1
, ..., x
n
)d
Die verlustminimierenden Intervallgrenzen d
u
und d
o
erh¨
alt man durch partielles Dif-
ferenzieren und Nullsetzen der partiellen Ableitungen:
d
u
E
(.
|x
1
,...x
n
)
(l(
, (d
u
, d
o
)))
=
-s
0
+ s
1
·
d
u
-
(
|x
1
, ..., x
n
)dt
- s
1
· d
u
· (d
u
|x
1
, ..., x
n
) + s
1
· d
u
· (d
u
|x
1
, ..., x
n
)
=
-s
0
+ s
1
·
d
u
-
(
|x
1
, ..., x
n
)dt = 0
d
u
-
(
|x
1
, ..., x
n
)d =
u
(x
1
,...,x
n
)
-
(
|x
1
, ..., x
n
)d =
s
0
s
1
(7.34)
und
d
o
E
(.
|x
1
,...x
n
)
(l(
, (d
u
, d
o
)))
= s
0
- s
2
+ s
2
·
d
o
-
(
|x
1
, ..., x
n
)dt + s
2
· d
o
· (d
o
|x
1
, ..., x
n
)
- s
2
· d
o
· (d
o
|x
1
, ..., x
n
)
= s
0
- s
2
+ s
2
·
d
o
-
(
|x
1
, ..., x
n
)dt = 0
d
o
-
(
|x
1
, ..., x
n
)d =
o
(x
1
,...,x
n
)
-
(
|x
1
, ..., x
n
)d =
s
2
- s
0
s
2
= 1
-
s
0
s
2
(7.35)
Die Hesse'sche Matrix
H
=
2
d
2
u
E
(.
|x
1
,...x
n
)
(l(
, (d
u
, d
o
)))
2
d
u
d
o
E
(.
|x
1
,...x
n
)
(l(
, (d
u
, d
o
)))
2
d
o
d
u
E
(.
|x
1
,...x
n
)
(l(
, (d
u
, d
o
)))
2
d
2
o
E
(.
|x
1
,...x
n
)
(l(
, (d
u
, d
o
)))
s
1
· (d
u
|x
1
, ..., x
n
)
0
0
s
2
· (d
o
|x
1
, ..., x
n
)
ist positiv definit
32
, daher handelt es sich um ein Minimum. Es ist also
d
u
=
u
(x
1
, ..., x
n
) =
s0
s1
x
1
,...,x
n
(7.36)
d
o
=
o
(x
1
, ..., x
n
) =
-1
s0
s2
x
1
,...,x
n
.
(7.37)
32
D.h.
x IR
2
gilt: x
T
Hx > 0
x = 0 und x
T
Hx = 0
x = 0.

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
241
ur eine lineare Verlustfunktion (7.33) sind die Bayes'schen Sch¨
atzungen f¨
ur die obere
und untere Grenze des Intervalls gleich dem
s
0
s
1
-Quantil bzw. gleich dem 1
-
s
0
s
2
-Quantil
der A-posteriori-Verteilung (.
|x
1
, ..., x
n
).
33
Liefert eine Stichprobe von verteilungstreuen Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) von
X die unscharfen Daten ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
, so muss eine optimale Fuzzy-Intervall-
sch¨
atzung gefunden werden mittels einer Fuzzy-Intervallsch¨
atzfunktion der Form
:
(
F(U))
n
F
cb
(IR)
( ~
A
1
, ..., ~
A
n
)
( ~
A
1
, ..., ~
A
n
) = ~
D = co ( ~
D )
(7.38)
mit
~
D
(d) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
d[du(x1,...,xn),do(x1,...,xn)]
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(7.39)
Bezeichnet man
~
D
u
:=
1
=0
/ [d
, d
1
]
~
D
o
:=
1
=0
/ d
1
, d
(7.40)
so kann die Fuzzy-Verlustfunktion angeschrieben werden:
l (, ~
D) =
s
0
· (~D
o
~
D
u
)
s
1
· (~D
u
)
ur
d
0
s
0
· (~D
o
~
D
u
)
s
1
· (max{, ~D
u
} ) f¨ur supp(~D
u
)
s
0
· (~D
o
~
D
u
)
ur
[d
1
, d
1
]
s
0
· (~D
o
~
D
u
)
s
2
· ( min{, ~D
o
}) f¨ur supp(~D
o
s
0
· (~D
o
~
D
u
)
s
2
· (
~
D
o
)
ur
d
0
(7.41)
Mit Hilfe der Fuzzy-Schar von A-posteriori-Verteilungen ~
~
(.
|~A
1
, ..., ~
A
n
) von
aufgrund
von ( ~
A
1
, ..., ~
A
n
) kann der Fuzzy-A-posteriori-Verlusterwartungswert f¨
ur die Fuzzy-Inter-
vallsch¨
atzfunktion (7.38)-(7.39) berechnet werden:
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
, ~A
1
, .. ~
A
n
=
l,
E
~
~
(.| ~
A1,..., ~
An)
( l ( ~
, ( ~
A
1
,.. ~
A
n
)))
(l)
l IR
+
,
E
~
~
(.| ~
A1,..., ~
An)
( l ( ~
, ( ~
A
1
,.. ~
A
n
)))
(l)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
E(.||x1,...,xn)(l(,(x1,...,xn)))=l
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
s0·(o(x1,...,xn)-u(x1,...,xn))
+s1·u(x1,...,xn)·
u(x1,...,xn)
-
(|x1,...,xn)d
-s1·
u(x1,...,xn)
-
·(|x1,...,xn)d
+s2·o(x1,...,xn)· E(.|x1,...,xn)()
o(x1,...,xn)
-
(|x1,...,xn)d
-s2· 1-
o(x1,...,xn)
-
·(|x1,...,xn)d =l
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(7.42)
Gem¨
aß dem Satz ¨
uber Fuzzy-Extensionen von Bayes'schen Entscheidungsfunktionen
in Abschnitt 7.2 erh¨
alt man das Fuzzy-Minimum der konvexen H¨
ulle des Fuzzy-A-
posteriori-Verlusterwartungswertes (7.42) mittels der Fuzzy-Extension (7.38)-(7.39) der
33
Vgl. etwa Marinell (1987), S. 155 und S. 187, Marinell / Seeber (1993), S. 111.

242
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ur beliebiges (x
1
, ..., x
n
) gebildeten Bayes'schen Intervallsch¨
atzfunktion (7.34)-(7.37),
die den scharfen A-posteriori-Verlusterwartungswert minimiert. Man erh¨
alt also f¨
ur die
Bayes'sche Fuzzy-Intervallsch¨
atzfunktion
: (
F(U))
n
F
cb
(IR)
( ~
A
1
, ..., ~
A
n
)
( ~
A
1
, ..., ~
A
n
) = co
d,
( ~
A
1
,..., ~
A
n
)
(d)
d
IR,
( ~
A
1
,..., ~
A
n
)
(d)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
d[ s0
s1 x1,...,xn
,
1
- s0
s2 x1,...,xn
]
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
.
(7.43)
Die Fuzzy-Bayes-Intervallsch¨
atzung erh¨
alt man also, indem man f¨
ur (x
1
, ..., x
n
)
supp( ~
A
1
)
×...×supp(~A
n
) jeweils die untere und obere Intervallgrenze bestimmt, d.h.
s
0
s
1
-
Quantil und das 1
-
s
0
s
2
-Quantil der A-posteriori-Verteilung (.
|x
1
, ..., x
n
) aus der Fuzzy-
Schar ~
~
(.
|~A
1
, ..., ~
A
n
), diesem Intervall den Zugeh¨
origkeitsgrad
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
(0, 1] zuordnet, und indem man anschließend die sup-Vereinigung ¨
uber die Intervalle
bez¨
uglich (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) bildet. Die konvexe H¨
ulle der sup-
Vereinigung der Intervalle ist dann die gesuchte Fuzzy-Bayes-Intervallsch¨
atzung.
Begleitendes numerisches Beispiel: Auf Basis der Angaben zum begleitenden Bei-
spiel aus den vorigen Abschnitten soll bei Vorliegen der unscharfen Daten ( ~
A
1
, ~
A
2
, ~
A
3
)
ur den Parameter die Fuzzy-Bayes-Intervallsch¨
atzung angegeben werden, die den zu
erwartenden Verlust minimiert unter der Annahme der folgenden linearen Verlustfunk-
tion:
l(, d) =
3
· (d
o
- d
u
) + 8
· (d
u
- ) f¨ur d
u
>
3
· (d
o
- d
u
)
ur d
u
d
o
3
· (d
o
- d
u
) + 10
· ( - d
o
) f¨
ur d
o
<
Es ist also s
0
= 3, s
1
= 8, s
2
= 10, daher ist
s
0
s
1
=
3
8
= 0.375 und 1
-
s
0
s
2
= 1
-
3
10
= 0.7.
Die Fuzzy-Schar von A-posteriori-Verteilungen ist nach Abschnitt 6.1.3 die Fuzzy-Schar
von invertierten Gammaverteilungen mit Dichtefunktionen
{(f
(.
|a ,
1
b
),
~
a
(a ))
|a
supp(~
a )
}. Es ist also f¨ur die invertierten Gammaverteilungen f
(.
|a ,
1
b
), a
supp(~a ),
jeweils das 0.375-Quantil und das 0.7-Quantil zu bestimmen. Es ist
0.37543,
1
5
= 8.1242,
0.743,
1
5
= 9.2365,
~
a
(43) = 0.2
0.37544,
1
5
= 8.3193,
0.744,
1
5
= 9.4445,
~
a
(44) = 0.5
0.37545,
1
5
= 8.5145,
0.745,
1
5
= 9.6524,
~
a
(45) = 0.7
0.37546,
1
5
= 8.7098,
0.746,
1
5
= 9.8602,
~
a
(46) = 0.8
0.37547,
1
5
= 8.9051,
0.747,
1
5
= 10.0679,
~
a
(47) = 1
0.37548,
1
5
= 9.1004,
0.748,
1
5
= 10.2755,
~
a
(48) = 0.8
0.37549,
1
5
= 9.2958,
0.749,
1
5
= 10.4831,
~
a
(49) = 0.6
0.37550,
1
5
= 9.4913,
0.750,
1
5
= 10.6906,
~
a
(50) = 0.5.

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
243
Man erh¨
alt die Fuzzy-Bayes-Intervallsch¨
atzung mit den -Schnitten f¨
ur
(0, 1]
~
D
= co ~
D
=
[8.1242, 10.6906] f¨
ur 0 <
0.2
[8.3193, 10.6906] f¨
ur 0.2 <
0.5
[8.5145, 10.4831] f¨
ur 0.5 <
0.6
[8.5145, 10.2755] f¨
ur 0.6 <
0.7
[8.7098, 10.2755] f¨
ur 0.7 <
0.8
[8.9051, 10.0679] f¨
ur 0.8 <
1.
(N.7.3)
Abbildung 7.3: Fuzzy-Bayes-Intervallsch¨
atzung bei linearer Verlustfunktion
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
8.12 8.32 8.51 8.71 8.91
10.07 10.28 10.48 10.69
()
~
D
7.5
Fuzzy-Bayes-Tests
Statistische Testentscheidungen zeichnen sich dadurch aus, dass der Entscheidungs-
raum nur aus zwei Elementen besteht: ID =
{d
0
, d
1
} bzw. ID = {0, 1}. Es sind also nur
zwei Entscheidungen m¨
oglich, n¨
amlich Annahme oder Verwerfung einer statistischen
Hypothese. Folgendes Modell soll dazu betrachtet werden:
34
X
P
ist ein parametrisches stochastisches Modell mit unbekanntem Parameter
. Die Nullhypothese H
0
ist gegeben durch einen Teilbereich
0
des Parame-
terraums, ihr steht die Alternativhypothese, die durch
1
,
0
1
=
, gegeben
ist gegen¨
uber, h¨
aufig ist
1
=
\
0
. Der Entscheidungsraum besteht aus zwei Ele-
menten ID =
{d
0
, d
1
} = {0, 1}, der Verlust aus einer Entscheidung d
j
, j
{0, 1} bei
Vorliegen von
wird beschrieben durch die Verlustfunktion
l(, d
j
) =
0
ur
j
s
j
ur
1
-j
(7.44)
s
0
, s
1
IR
+
. Weiters ist
eine Zufallsvariable mit der A-priori-Verteilung (.) auf
(,
). F¨ur einen beliebigen (scharfen) Datensatz (x
1
, ..., x
n
)
U
n
, der als Realisation
34
Vgl. etwa Viertl (2003), S. 186 ff., Berger (1985), S. 163 ff., Ferguson (1967), S. 198 ff., Robert
(2001), S. 224 ff., Carlin / Louis (1996), S. 45 ff., Marinell (1987), S. 135 ff., Marinell / Seeber (1993),
S. 36 f.

244
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
einer Stichprobe (X
1
, ..., X
n
) von X auftreten kann, ist die A-posteriori-Verteilung von
gegeben durch (.|x
1
, ..., x
n
).
ur eine Testfunktion der Form : U
n
{d
0
, d
1
}, (x
1
, ..., x
n
)
d
j
, j
{0, 1} hat
der A-posteriori-Verlusterwartungswert nach (7.7) die folgende Form:
E
(.
|x
1
,...,x
n
)
(l(
, (x
1
, ..., x
n
))) =
l(, (x
1
, ..., x
n
))(
|x
1
, ..., x
n
) f¨
ur diskretes
l(, (x
1
, ..., x
n
))(
|x
1
, ...x
n
)d
ur stetiges
=
1
l(, d
0
)(
|x
1
, ..., x
n
) f¨
ur diskretes
1
l(, d
0
)(
|x
1
, ...x
n
)d
ur stetiges
ur (x
1
, ..., x
n
) = d
0
0
l(, d
1
)(
|x
1
, ..., x
n
) f¨
ur diskretes
0
l(, d
1
)(
|x
1
, ...x
n
)d
ur stetiges
ur (x
1
, ..., x
n
) = d
1
=
1
s
0
· (|x
1
, ..., x
n
) f¨
ur diskretes
1
s
0
· (|x
1
, ...x
n
)d
ur stetiges
ur (x
1
, ..., x
n
) = d
0
0
s
1
· (|x
1
, ..., x
n
) f¨
ur diskretes
0
s
1
· (|x
1
, ...x
n
)d
ur stetiges
ur (x
1
, ..., x
n
) = d
1
=
s
0
·
1
(
|x
1
, ..., x
n
) f¨
ur diskretes
s
0
·
1
(
|x
1
, ...x
n
)d
ur stetiges
ur (x
1
, ..., x
n
) = d
0
s
1
·
0
(
|x
1
, ..., x
n
) f¨
ur diskretes
s
1
·
0
(
|x
1
, ...x
n
)d
ur stetiges
ur (x
1
, ..., x
n
) = d
1
=
s
0
· P
(
{
1
|x
1
, ..., x
n
}) f¨ur (x
1
, ..., x
n
) = d
0
s
1
· P
(
{
0
|x
1
, ..., x
n
}) f¨ur (x
1
, ..., x
n
) = d
1
Es ist nun eine Entscheidungsfunktion
(.) gesucht mit:
E
(.
|x
1
,...,x
n
)
(l(
,
(x
1
, ..., x
n
))) =
min
{0,1}
Un
E
(.
|x
1
,...,x
n
)
(l(
, (x
1
, ..., x
n
)))
= min
{s
0
· P
(
{
1
|x
1
, ..., x
n
}), s
1
· P
(
{
0
|x
1
, ..., x
n
})}
(7.45)
Es ist
s
0
·P
(
{
1
|x
1
, ..., x
n
})s
1
·P
(
{
0
|x
1
, ..., x
n
})
P
(
{
1
|x
1
, ..., x
n
})
P
(
{
0
|x
1
, ..., x
n
})
s
1
s
0
.
In diesem Fall ist dann
(x
1
, ..., x
n
) = d
1
, ansonsten ist
(x
1
, ..., x
n
) = d
0
.
Die Bayes'sche Testfunktion
(.) ist diejenige Testfunktion, die nach (7.45) die Null-
hypothese
H
0
verwirft
(und
die
Alternativhypothese
H
1
annimmt),
falls
P
(
{
1
P
(
{
0
x
1
, ..., x
n
>
s
1
s
0
, und ansonsten die
H
0
annimmt. Die Bayes'sche Testfunk-

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
245
tion hat somit die folgende Gestalt:
35
:
U
n
{0, 1}
(x
1
, ..., x
n
)
(x
1
, ..., x
n
) =
0 falls
P
(
{
1
P
(
{
0
x
1
, ..., x
n
s
1
s
0
1 falls
P
(
{
1
P
(
{
0
x
1
, ..., x
n
>
s
1
s
0
(7.46)
Liefert eine Stichprobe von verteilungstreuen Fuzzy-Perzeptionen ( ~
X
1
, ..., ~
X
n
) von
X unscharfe Daten ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
, so erh¨
alt man Fuzzy-Testfunktionen der
Form
:
(
F(U))
n
F({d
0
, d
1
}) = F({0, 1})
( ~
A
1
, ..., ~
A
n
)
( ~
A
1
, ..., ~
A
n
) = ~
D
(7.47)
mit
~
D
(d
j
) =
( ~
A
1
,..., ~
A
n
)
(d
j
) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
(x1,...,xn)=dj
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(7.48)
ur j
{0, 1}. Der unscharfe Verlust aus der Fuzzy-Entscheidung ~D F({d
0
, d
1
}) bei
Vorliegen von
wird dann beschrieben durch die Fuzzy-Verlustfunktion
l (, ~
D) =
{(0,
~
D
(d
1
)) , (s
0
,
~
D
(d
0
))
} f¨ur
1
{(0,
~
D
(d
0
)) , (s
1
,
~
D
(d
1
))
} f¨ur
0
.
(7.49)
Aufgrund der Fuzzy-Daten ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
erh¨
alt man die Fuzzy-Schar von
A-posteriori-Verteilungen ~
~
(.
|~A
1
, ..., ~
A
n
) von
. Mit dieser Fuzzy-Schar erh¨alt man den
Fuzzy-A-posteriori-Verlusterwartungswert die Fuzzy-Entscheidungsfunktion
(.):
E
~
~
(.| ~
A1,..., ~
An)
l
~
, ~A
1
, ..., ~
A
n
=
l,
E
~
~
(.| ~
A1,..., ~
An)
( l (~
, ( ~
A
1
,..., ~
A
n
)))
(l) l IR
+
,
E
~
~
(.| ~
A1,..., ~
An)
( l ( ~
, ( ~
A
1
,..., ~
A
n
)))
(l) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
E(.|x1,...,xn)(l(,(x1,...,xn)))=l
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
max
j{0,1}
sj ·P ({jc })=l
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
(x1,...,xn)=dj
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(7.50)
In dem Satz ¨
uber Fuzzy-Extensionen von Bayes-Entscheidungsfunktionen in Ab-
schnitt 7.2 wurde gezeigt, dass die Fuzzy-Extension (7.47)-(7.48) der Testfunktion
(.)
(7.46), die den scharfen Verlusterwartungswert gem¨
aß (7.45) minimiert, die konvexe
ulle des Fuzzy-A-posteriori-Verlusterwartungswertes (7.50) unscharf minimiert. Sie
ist somit die gesuchte Bayes'sche Fuzzy-Testfunktion:
:
(
F(U))
n
F({0, 1})
( ~
A
1
, .., ~
A
n
)
( ~
A
1
, .., ~
A
n
)
=
0,
( ~
A
1
,.., ~
A
n
)
(0) , 1,
( ~
A
1
,.., ~
A
n
)
(1)
(7.51)
35
Vgl. etwa Viertl (2003), S. 187, Berger (1985), S. 164.

246
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
mit
( ~
A
1
,.., ~
A
n
)
(0) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
P ({1|x1,...,xn})
P ({0|x1,...,xn})
s1
s0
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
( ~
A
1
,.., ~
A
n
)
(1) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
P ({1|x1,...,xn})
P ({0|x1,...,xn})
>
s1
s0
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(7.52)
Der Fuzzy-Bayes-Test (7.51)-(7.52) ist somit eine Anwendung der unscharfen relativen
A-posteriori-Wahrscheinlichkeit (6.76)-(6.79) von Hypothesen aus Abschnitt 6.5.
Der Fuzzy-Bayes-Test (7.51)-(7.52) kann auch unter Anwendung der unscharfen
Gr¨
oßer-Kleinergleich-Relation ~
R
~
>
~
P
~
(
{
1
~
P
~
(
{
0
~
A
1
, ..., ~
A
n
,
s
1
s
0
im Sinne von (3.84) for-
muliert werden. Es ist
( ~
A
1
,.., ~
A
n
)
(1) =
~
R
~
>
~
P
~
(
{
1
~
P
~
(
{
0
~
A
1
, ..., ~
A
n
,
s
1
s
0
( ~
A
1
,.., ~
A
n
)
(0) =
~
R
~
~
P
~
(
{
1
~
P
~
(
{
0
~
A
1
, ..., ~
A
n
,
s
1
s
0
.
(7.53)
Begleitendes numerisches Beispiel: Nach den Angaben zum begleitenden Beispiel
soll die Nullhypothese
H
0
:
(0, 9.2] gegen die Alternativhypothese H
1
:
(9.2, )
getestet werden (vgl. Abschnitt 6.5). Dabei soll die folgende Verlustfunktion zugrunde
gelegt werden:
l(, d
0
) =
0 f¨
ur
(0, 9.2]
3 f¨
ur
(9.2, )
l(, d
1
) =
0 f¨
ur
(9.2, )
2 f¨
ur
(0, 9.2]
Es ist also s
0
= 3 und s
1
= 2, daher ist
s
1
s
0
=
2
3
= 0.6667. Die f¨
ur den Test ben¨
otig-
ten A-posteriori-Wahrscheinlichkeiten der Hypothesen P
(
{ (0, 9.2]|x
1
, x
2
, x
3
}) und
P
(
{ (9.2, |x
1
, x
2
, x
3
}), so wie die relativen A-posteriori-Wahrscheinlichkeiten
P
(
{(9.2,)|x
1
,x
2
,x
3
})
P
(
{(0,9.2]|x
1
,x
2
,x
3
})
wurden f¨
ur (x
1
, x
2
, x
3
)
supp(~A
1
)
× supp(~A
2
)
× supp(~A
3
) bereits
in Abschnitt 6.5 berechnet. Die relativen A-posteriori-Wahrscheinlichkeiten m¨
ussen nun
mit dem Wert
s
1
s
0
verglichen werden. Da die A-posteriori-Wahrscheinlichkeiten mit Hilfe
der suffizienten Statistik ~
A
1
~A
2
~A
3
bzw. der unscharfen konjugierten invertierten
Gammaverteilung mit den Parametern ~
a = a
~A
1
~A
2
~A
3
und
1
b
nach (N.6.2)
berechnet wurden, kann man die Fuzzy-Schar
P
(
{(9.2,)|x
1
,x
2
,x
3
})
P
(
{(0,9.2]|x
1
,x
2
,x
3
})
,
~
P ({(9.2,)|
~
A1, ~
A2, ~
A3})
~
P ({(0,9.2]|
~
A1, ~
A2, ~
A3})
P
(
{(9.2,)|x
1
,x
2
,x
3
})
P
(
{(0,9.2]|x
1
,x
2
,x
3
})
(x
1
, x
2
, x
3
)
supp(~A
1
)
× supp(~A
2
)
× supp(~A
3
)
ersetzen durch
P
(
{(9.2,)|a ,
1
b
})
P
(
{(0,9.2]|a ,
1
b
})
,
~
a
(a )
a
supp(~a )
P
(
{(9.2,)|
P
(
{(0,9.2]
a ,
1
b
,
~
a
(a )
a
supp(~a ) .
Es ist
ur a = 43 mit
~
a
(43) = 0.2
P
(
{(9.2,)
P
(
{(0,9.2]
43,
1
5
= 0.4478
0.6667 d
(43,
1
5
)
= 0
ur a = 44 mit
~
a
(44) = 0.5 :
P
(
{(9.2,)
P
(
{(0,9.2]
44,
1
5
= 0.5729
0.6667 d
(44,
1
5
)
= 0

KAPITEL 7 FUZZY-BAYES-ENTSCHEIDUNGEN
247
ur a = 45 mit
~
a
(45) = 0.7 :
P
(
{(9.2,)
P
(
{(0,9.2]
45,
1
5
= 0.7291 > 0.6667
d
(45,
1
5
)
= 1
ur a = 46 mit
~
a
(46) = 0.8 :
P
(
{(9.2,)
P
(
{(0,9.2]
46,
1
5
= 0.9245 > 0.6667
d
(46,
1
5
)
= 1
ur a = 47 mit
~
a
(47) = 1 :
P
(
{(9.2,)
P
(
{(0,9.2]
47,
1
5
= 1.1697 > 0.6667
d
(47,
1
5
)
= 1
ur a = 48 mit
~
a
(48) = 0.8 :
P
(
{(9.2,)
P
(
{(0,9.2]
48,
1
5
= 1.4787 > 0.6667
d
(48,
1
5
)
= 1
ur a = 49 mit
~
a
(49) = 0.6 :
P
(
{(9.2,)
P
(
{(0,9.2]
49,
1
5
= 1.8706 > 0.6667
d
(49,
1
5
)
= 1
ur a = 50 mit
~
a
(50) = 0.5 :
P
(
{(9.2,)
P
(
{(0,9.2]
50,
1
5
= 2.3709 > 0.6667
d
(50,
1
5
)
= 1.
Die Bayes'sche Fuzzy-Testentscheidung ~
D
lautet daher:
~
D
=
~
A
1
, ~
A
2
, ~
A
3
=
0.5
1
0
1
(N.7.4)
Abbildung 7.4: Fuzzy-Bayes-Test
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
0.45 0.57
0.73 0.92 1.17
1.48
1.87
2.37
p
1
p
0
,
s
1
s
0
(q)
s
1
s
0
0.67
~
P
(
{(9.2,)
~
P
(
{(0,9.2]
~
A
1
, ~
A
2
, ~
A
3
Annahmebereich
-
Ablehnungsbereich
Sowohl exakte als auch unscharfe einfache Hypothesen werden auf Basis unscharfer
Daten von Casals, Gil und Gil getestet. Die auf Basis der Wahrscheinlicheitendefinition
von Zadeh (4.57) gebildeten scharfen Wahrscheinlichkeiten f¨
ur unscharfe Daten werden
in die Kombinationsregel des Bayes-Theorems eingesetzt.
36
Im Fall unscharfer Hypo-
thesen werden mit Hilfe der Zadeh'schen Wahrscheinlichkeitsdefiniton (4.57) exakte A-
posteriori-Wahrscheinlichkeiten berechnet.
37
Am Ende der Abschnitte 8.3.2 bzw. 8.4.2
werden die Weiterentwicklungen der beiden Methoden zu sequentiellen Bayes-Tests
vorgestellt.
Taheri und Behboodian konstruieren Bayes-Tests f¨
ur Paare aus einfachen unschar-
fen Hypothesen, indem die unscharfen A-posteriori-Wahrscheinlichkeiten, die aufgrund
exakter Daten
38
oder unscharfer Daten
39
zustande kommen, nach der Schwerpunktme-
thode (3.85)-(3.86) defuzzifiziert werden, und indem anschließend wie mit gew¨
ohnlichen
einfachen Hypothesen weiter gearbeitet wird. Am Ende von Abschnitt 8.6.3 wird die
die Defuzzifikation von unscharfen Hypothesen kurz vorgef¨
uhrt.
36
Vgl. Casals / Gil / Gil (1986b), S. 371 ff.
37
Vgl. Casals (1993), S. 189 ff.
38
Vgl. Taheri / Behboodian (2001), S. 39 ff.
39
Vgl. Taheri / Behboodian (2002), S. 527 ff.

Kapitel 8
Sequentielle statistische
Entscheidungen unter Unsch¨
arfe
Bisher wurden nur statistische Verfahren behandelt, bei denen der Stichprobenum-
fang eine fix vorgegebene Gr¨
oße darstellte. Im Gegensatz dazu besch¨
aftigt sich die
Sequentialanalyse mit statistischen Verfahren, bei denen der Stichprobenumfang von
den beobachteten Realisationen der Zufallsvariablen der Stichprobe abh¨
angt und so-
mit selbst Realisation einer Zufallsvariablen ist. Das Modell der sequentiellen Statistik
wurde von A. Wald in den 40er Jahren des 20. Jahrhunderts entworfen
1
und auch
weiterentwickelt
2
, inzwischen wurde es auf zahlreiche Gebiete innerhalb der Statistik
ausgeweitet
3
.
Bei sequentiellen statistischen Verfahren erfolgt die statistische Auswertung der
Beobachtungen parallel zum Beobachtungsvorgang, sodass nach jeder Beobachtung
die weitere Vorgangsweise an die bereits erzielten Ergebnisse angepasst wird, d.h. es
wird insbesondere nach jeder Beobachtung entschieden, ob das Verfahren fortgesetzt
oder abgebrochen wird. Der Vorteil sequentieller statistischer Verfahren besteht darin,
dass oft wesentlich geringere Stichprobenumf¨
ange notwendig sind, um "gleich gute"
statistische Aussagen machen zu k¨
onnen.
Diese Einsparung ist insbesondere f¨
ur den Fall hoher Beobachtungskosten von Be-
deutung. F¨
ur die Fragestellung des begleitenden Beispiels der vorliegenden Arbeit be-
deutet ein kleinerer Stichprobenumfang eine Verk¨
urzung des Beobachtungszeitraums.
Es werden damit nicht nur die Kosten der Messung der Flutwellenh¨
ohe eingespart,
sondern es kann gegebenenfalls fr¨
uher mit der Nutzung des Gebietes begonnen werden.
Weitere Anwendungsbereiche sequentieller statistischer Entscheidungsverfahren auf-
grund hoher Beobachtungskosten bestehen etwa in der Qualit¨
atskontrolle,
4
wenn durch
die Pr¨
ufung das Produkt zerst¨
ort wird (z.B. Lebensdauerpr¨
ufung von Gl¨
uhlampen oder
Batterien), oder bei medizinischen Untersuchungen, wenn nicht nur die meist sehr ho-
hen Untersuchungskosten anfallen, sondern f¨
ur den Patienten mit der Untersuchung
1
Wald (1945), Wald (1947a), aufbauend auf Wald (1944).
2
Wald (1947b), Wald (1948a), Wald (1948b), Wald / Wolfowitz (1948), Wald / Wolfowitz (1950).
3
Zahlreiche Monographien wie von Wetherill (1975), Ghosh (1970), Siegmund (1985) oder Irle
(1990) besch¨
aftigen sich mit dem Thema ebenso wie zahlreiche Artikel in Zeitschriften, etwa von
Wolfowitz (1947), Arrow / Blackwell / Girshick (1949), Bahadur (1958) oder Hoeffding (1960) und
Teile von B¨
uchern wie von Ferguson (1967), S. 309 ff., oder Berger (1985), S. 434 ff.
4
Siegmund (1985), S. 2, Vogt (1988), S. 91 ff. und S. 148 ff., Terveer (1995).
248

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
249
zus¨
atzlich ein Risiko verbunden ist.
Das folgende Kapitel versucht, L¨
osungsverfahren f¨
ur sequentielle statistische Ent-
scheidungsprobleme f¨
ur den Fall zu entwickeln, dass die Information aus den Beobach-
tungen unscharf ist.
8.1
Sequentielle statistische Entscheidungen f¨
ur un-
scharfe Daten
Ausgegangen wird von einem messbaren Raum (U,
C), d.h. einer Menge U und einer
-Algebra
C auf U. (C
n
)
n
IN
ist eine aufsteigende Folge von Sub--Algebren von
C, also
C
n
C
n+1
n IN
0
, speziell soll
C
0
=
{, U} und C
=
(
C
n
|n IN
0
) gelten.
Ferner wird eine Menge von m¨
oglichen Parameterwerten f¨
ur eine parametrische
Wahrscheinlichkeitsverteilung auf (U,
C), sodass P
ur alle
eine Wahrscheinlich-
keitsverteilung ist, (U,
C, P
) ist also f¨
ur alle
ein Wahrscheinlichkeitsraum.
ur alle
wird eine ¨Aquivalenz der auf die -Algebren C
n
, n
IN, einge-
schr¨
ankten Wahrscheinlichkeitsverteilungen P
|
C
n
in dem Sinn angenommen, dass gilt:
,
(P
(A) = 0
P
(A) = 0)
A C
n
Geht man aus von einer Folge von Zufallsvariablen X
1
, X
2
, ... mit Werten in messbaren
aumen (U
1
,
C
1
), (U
2
,
C
2
),..., also X
i
:
i
U
i
ur i
IN, wobei (
i
,
A
i
) messbare
aume sind f¨
ur i
IN, und C
i
jeweils die von
A
1
und X
i
auf U
i
induzierte -Algebra
ist, so k¨
onnen folgende Definitionen angegeben werden:
5
U :=
×
iIN
U
i
= U
1
× U
2
× ... der Produktraum der Universen
C :=
i
IN
C
i
=
C
1
C
2
...
die Produkt--Algebra
C
n
:=
(X
1
, ..., X
n
)
die kleinste -Algebra, sodass X
1
, ..., X
n
messbar f¨
ur n
IN,
d.h. sodass f¨
ur C
n
C
n
gilt:
C
n
= C
n
× U
n+1
× ... mit C
n
n
i
IN
C
i
=
C
1
...C
n
Die -Algebra
C
n
wird auch als -Algebra der bis zur n-ten Beobachtung beobachtbaren
Ereignisse bezeichnet.
aufig hat man es mit einer Folge von i.i.d. Zufallsvariablen
{X
i
}
i
IN
= X
1
, X
2
, ...
zu tun.
6
In diesem Fall gilt dann f¨
ur i, j
IN, i = j:
i
=
j
=: ,
A
i
=
A
j
=
A, U
i
= U
j
=: U und
U = U
IN
Da im sequentiellen Modell die einzelnen Beobachtungen zeitlich nacheinander erho-
ben werden m¨
ussen, wird die Situation nach der n-ten Beobachtung auch als Zeitpunkt
n bezeichnet.
Ein sequentielles Entscheidungsverfahren soll nun zwei Aufgaben erf¨
ullen:
5
In Anlehnung an Wald (1947b), S. 279 f., Wald / Wolfowitz (1950), S. 82 f., Berger (1985), S. 433
und S. 441, Irle (1990), S. 11 f.
6
Vgl. Wald (1947), S. 279, Wald (1950), S. 103, Wald / Wolfowitz (1950), S. 82, Hoeffding (1960),
S. 362.

250
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
- Einerseits soll aufgrund der beobachteten Daten (x
1
, ..., x
n
)
U
n
, n
IN, eine op-
timale Entscheidung d in einem Entscheidungsraum ID bez¨
uglich des Parameters
getroffen werden.
- Andererseits soll dar¨
uber entschieden werden, wie lange die Beobachtung von Da-
ten fortgesetzt wird, und wann es am g¨
unstigsten ist, das Verfahren abzubrechen.
8.1.1
Sequentielle statistische Entscheidungsverfahren
Ein sequentielles Entscheidungsverfahren (.) kann nun aufgrund der oben dargelegten
Grundlagen definiert werden als ein Paar
7
(.) := ( (.), ][(.)) .
Dabei ist
:
U 0, 1, ..., ; (x
1
, x
2
, ...)
(x
1
, x
2
, ...) =:
T
eine Funktion, die den Abbruchszeitpunkt beschreibt, und die Stoppzeit
8
oder auch
Anzahl der Beobachtungen
9
heißt.
Da (.) eine Funktion von Realisationen von Zufallsvariablen ist, ist die Stoppzeit
vor Erhebung der Datenfolge selbst eine Zufallsvariable
T = (X
1
, X
2
, ...) mit m¨
ogli-
chen Realisationen
T
in
{0, 1, 2, ..., }.
ur n
IN wird die Menge aller Datenfolgen (x
1
, x
2
, ...)
U
IN
, f¨
ur die das Verfahren
(.) = ( (.), ][(.)) zum Zeitpunkt n abgebrochen wird, als das Ereignis
{T = n}
bezeichnet, also
10
{T = n} = {(x
1
, x
2
, ..., x
n
, ...)
U
IN
|(x
1
, x
2
, ..., x
n
, ...) = n
},
und es ist
{T = n} C f¨ur alle n IN.
Dazu ist
][(.) := (
0
,
1
(.),
2
(.), ...) = (
n
(.))
n
IN
0
eine Folge von Entscheidungsfunktionen
11
n
:
{T = n} ID; (x
1
, x
2
, ...x
n
, ...)
n
(x
1
, x
2
, ..., x
n
, ...) =
n
(x
1
, ..., x
n
)
ur n
IN und
0
ID mit Werten in einem messbaren Entscheidungsraum (ID, ID), die
Entscheidungsfunktionen
n
(.) sind
C
n
-
ID-messbar f¨ur n IN
0
.
12
][(.) heißt sequenti-
elle Entscheidungsfunktion. Die Entscheidungsfunktion
n
(.) beschreibt die Entschei-
dung zum Zeitpunkt n
IN
0
, wo nur die ersten n Komponenten (x
1
, ..., x
n
) der Folge
(x
1
, ..., x
n
, ...) ber¨
ucksichtig werden, da zu diesem Zeitpunkt nur diese bekannt sind.
Mit
{T = n}|
U
n
wird f¨
ur n
IN die Teilmenge von U
n
bezeichnet, die gerade
die ersten n Komponenten (x
1
, ..., x
n
) der Folgen (x
1
, ..., x
n
, ...)
{T = n} enth¨alt,
7
Vgl. Berger (1985), S. 441, Irle (1990), S. 12.
8
Berger (1985), S. 441, Ferguson (1967), S. 311, Irle (1990), S. 13.
9
Vgl. Wald (1947), S. 280, Wald / Wolfowitz (1950), S. 83, Hoeffding (1960), S. 52.
10
Vgl. Berger (1985), S. 442, Irle (1990), S. 13.
11
Vgl. Berger (1985), S. 441, Ferguson (1967), S. 311.
12
Vgl. Irle (1990), S. 13.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
251
{T = n}|
U
n
ist also die Projektion von
{T = n} nach U
n
. Es ist
{T = n}|
U
n
C
n
ur
alle n
IN.
Statt durch eine Stoppzeit (.) kann der Abbruchzeitpunkt auch durch eine Ab-
bruchregel ][(.) beschrieben werden. Eine Abbruchregel ist eine Folge von Abbildungen
13
][(.) = (
0
,
1
(.),
2
(.), ...) = (
n
(.))
n
IN
0
mit
n
:
U
[0, 1]
(x
1
, ..., x
n
, ...)
n
(x
1
, ..., x
n
, ...) =
n
(x
1
, ..., x
n
) := ø
n
=
0
ur P (
{T n|X
1
= x
1
, ..., X
n
= x
n
}) = 0
P (
{T = n|X
1
= x
1
, ..., X
n
= x
n
})
P (
{T n|X
1
= x
1
, ..., X
n
= x
n
})
sonst
ur n
IN und
0
= ø
0
= P (
{T = 0}).
Dabei ist
P (
{T = 0}) {0, 1}, denn {T = 0} C
0
=
{, U},
und f¨
ur n
1 ist
P (
{T = n|X
1
= x
1
, ..., X
n
= x
n
}) = 1
{T=n}|
Un
(x
1
, ..., x
n
) = 1
{T=n}
(x
1
, ..., x
n
, ...)
und P (
{T n|X
1
= x
1
, ..., X
n
= x
n
}) ist ekursiv gegeben durch
14
P (
{T n|X
1
= x
1
, ..., X
n
= x
n
})
= (1
- P ({T = 0})) · 1 -
P (
{T=1|X
1
=x
1
})
P (
{T1|X
1
=x
1
})
· ... · 1 -
P (
{T=n-1|X
1
=x
1
,...,X
n-1
=x
n-1
})
P (
{Tn-1|X
1
=x
1
,...,X
n-1
=x
n-1
})
= (1
-
0
)
· (1 -
1
(x
1
))
· ... · (1 -
n
-1
(x
1
, ..., x
n
-1
)).
Es ist
n
(x
1
, ..., x
n
, ...)
{0, 1} und zwar ist
n
(x
1
, ..., x
n
, ...) =
0 f¨
ur P (
{T n|X
1
= x
1
, ..., X
n
= x
n
}) = 0,
d.h. falls
j : 0 j n - 1 :
j
(x
1
, ..., x
n
, ...) = 1
0 f¨
ur (x
1
, ..., x
n
, ...) /
{T = n}
1 f¨
ur (x
1
, ..., x
n
, ...)
{T = n}
ur n
IN und
0
= P (
{T = 0}) =
0 f¨
ur
{T = 0} =
1 f¨
ur
{T = 0} = U.
Da
n
(.) f¨
ur n
IN
0
eine Funktion von Realisationen von Zufallsvariablen ist, ist
n
(X
1
, ..., X
n
, ...) vor Erhebung der Daten ebenfalls eine Zufallsvariable.
Eine alternative Schreibweise f¨
ur ein sequentielles Entscheidungsverfahren anstatt
(.) = ( (.), ][(.)) ist das Paar
15
][(.) = (][(.), ][(.)) .
13
Vgl. Arrow / Blackwell / Girshick (1949), S. 214, Berger (1985), S. 442, Ferguson (1967), S. 310
f.
14
Vgl. Ferguson (1967), S. 311.
15
Vgl. Ferguson (1967), S. 312.

252
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
8.1.2
Unscharfe Entscheidungen und unscharfe Stoppzeiten
Liegen nun unscharfe Daten ( ~
A
1
, ~
A
2
, ...) als Realisationen von Fuzzy-Perzeptionen
~
X
1
, ~
X
2
, ... der Zufallsvariablen X
1
, X
2
, ... vor, so schl¨
agt sich die Unsch¨
arfe sowohl in
der Entscheidungsfunktion als auch in der Stoppzeit bzw. Abbruchregel nieder.
Ein erster Versuch der Definition eines sequentiellen Entscheidungsverfahrens auf
Basis unscharfer Daten besteht in der Anwendung des Extensionsprinzips auf die Ab-
bildungen
n
(.) und (.) bzw.
n
(.). Wie man sogleich sehen wird, kann das Extensi-
onsprinzip hier jedoch keine sinnvollen Resultate liefern.
Definition: Es wird von einem parametrischen stochastischen Modell X
P
aus-
gegangen, der Verteilungsparameter
ist unbekannt. Weiters wird ausgegan-
gen von einer Menge ID m¨
oglicher statistischer Entscheidungen bez¨
uglich des Pa-
rameters . ~
X ist eine verteilungstreue Fuzzy-Perzeption von X. ~
X
1
, ~
X
2
, ... ist ei-
ne Folge von unabh¨
angigen und identisch wie ~
X verteilten Fuzzy-Zufallsvariablen.
~
A
1
, ~
A
2
, ..., ~
A
j
F(U) j IN ist die Folge der unscharfen Daten, die man als Realisa-
tionen der Fuzzy-Zufallsvariablen erh¨
alt.
(i) Ist : U
IN
{0, 1, ..., } eine Stoppzeit, dann ist (~A
1
, ~
A
2
, ...) gegeben durch
( ~
A
1
, ~
A
2
,..., ~
A
n
,...)
(n) =
sup
(x1,...xn){T=n}|
UIN
(
supp( ~
A1)×...×supp( ~
An)
)
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(x1,...xn)supp( ~
A1)×...×supp( ~
An)
(x1,...,xn,...)=n
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(8.1)
Die Fuzzy-Extension von (.)
:
(
F(U))
IN
F({0, 1, ..., })
( ~
A
1
, ~
A
2
, ...)
(~A
1
, ~
A
2
, ...)
(8.2)
heißt Fuzzy-Stoppzeit.
(ii) Ist
n
(.) zu jedem n
IN eine Fuzzy-Entscheidungsfunktion gem¨aß (5.3) mit
n
( ~
A
1
,..., ~
A
n
,...)
(d) =
sup
(x1,...xn)supp( ~
A1)×...×supp( ~
An):
(x1,...,xn)=d
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) ,
(8.3)
also
n
:
(
F(U
n
)
F(ID)
( ~
A
1
, ..., ~
A
n
, ...)
n
( ~
A
1
, ..., ~
A
n
, ...)
=
n
( ~
A
1
, ..., ~
A
n
),
(8.4)
dann heißt die Folge
] [(.) =
0
,
1
(.),
2
(.), ... =
n
(.)
n
IN
0
(8.5)
von Fuzzy-Entscheidungsfunktionen nach (8.4) sequentielle Fuzzy-Entscheidungs-
funktion.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
253
(iii) Das Paar
(.) :=
(.), ] [(.)
(8.6)
heißt unscharfes sequentielles Entscheidungsverfahren oder Fuzzy-Sequential-Ent-
scheidungsverfahren.
(iv) Wird der Abbruch des Verfahrens durch eine Abbruchregel beschrieben, so kann
diese ebenfalls auf unscharfe Daten angewandt werden. Ist : U
IN
{0, 1, ..., }
eine Stoppzeit und ist ][(.) = (
n
(.))
n
IN
0
die zu (.) geh¨
orige Abbruchregel,
dann kann die Fuzzy-Extension ] [(.) der Abbruchregel ][(.), die als Fuzzy-
Abbruchregel bezeichnet wird, f¨
ur eine Folge von Fuzzy-Daten ( ~
A
1
, ~
A
2
, ...) wie
folgt, beschrieben werden:
] [(.) =
0
,
1
(.),
2
(.), ... =
n
(.)
n
IN
0
,
(8.7)
wobei
0
= P (
{T = 0}) {0, 1}
(scharf)
n
( ~
A
1
, ..., ~
A
n
, ...)
F({0, 1}) f¨ur n 1
(8.8)
mit
n
( ~
A
1
,..., ~
A
n
,...)
(e)
=
sup
(x1,...,xn)supp( ~
A1×...×supp( ~
An):
(x1,...,xn,...)=e
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
ur e
{0, 1}
=
sup
(x1,...,xn)supp( ~
A1×...×supp( ~
An):
P ({T=n|X1=x1,...,Xn=xn})
P ({Tn|X1=x1,...,Xn=xn})
=1
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
ur e = 1
sup
(x1,...,xn)supp( ~
A1×...×supp( ~
An):
P ({T=n|X1=x1,...,Xn=xn})=0 oder
P ({Tn|X1=x1,...,Xn=xn})=0
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
ur e = 0.
(8.9)
(v) Als alternative Schreibweise f¨
ur das Fuzzy-Sequential-Entscheidungsverfahren er-
alt man nun das Paar
] [(.) = ] [(.), ] [(.) .
(8.10)
Beispiel: X
P
ist ein parametrisches stochastisches Modell, die Realisationen von
X sind Elemente von U =
{-1, 0, 1}. Außerdem sind
T
= min
{n : |
n
i=1
x
i
| 2}
und
T
(x
1
, ..., x
T
) =
x
1
+...+x
-
T
gegeben. F¨
ur Realisationen der Folge von unabh¨
angigen
und identisch verteilten Fuzzy-Perzeptionen ~
X
1
, ~
X
2
, ... von X mit Fuzzy-Realistaionen
in
F({-1, 0, 1}) sollen mittels des unscharfen sequentiellen Entscheidungsverfahrens
Fuzzy-Stoppzeit und Fuzzy-Entscheidung gefunden werden.
Zun¨
achst werden zwei Zufallsvariablen beobachtet. Man erh¨
alt die Fuzzy-Realisationen
~
A
1
=
1
0
0
-1
0
1
, ~
A
2
=
0.8
1
0.6
-1
0
1
.
Es ist
( ~
A
1
, ~
A
2
)
(
-1, -1) = 0.8 mit -1 - 1 = -2
( ~
A
1
, ~
A
2
)
(
-1, 0) = 1
mit
-1 + 0 = -1
( ~
A
1
, ~
A
2
)
(
-1, 1) = 0.6
mit
-1 + 1 = 0.

254
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Daher ist
( ~
A
1
, ~
A
2
,...)
(2) = 0.8 bzw.
2
(( ~
A
1
, ~
A
2
)
{T = 2}) =
1
0.8
0
1
und
2
(( ~
A
1
, ~
A
2
)
{T = 2}) =
0.8
-1
.
Es muss eine weitere Zufallsvariable beobachtet werden. Man erh¨
alt
~
A
3
=
1
0.3
0
-1
0
1
.
Es ist
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, 0, -1) = 1
mit
-1 + 0 - 1 = -2
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, 0, 0) = 0.3
mit
-1 + 0 + 0 = -1
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, 1, -1) = 0.6 mit -1 + 1 - 1 = -1
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, 1, 0) = 0.3
mit
-1 + 1 + 0 = 0.
Daher ist
( ~
A
1
, ~
A
2
, ~
A
3
,...)
(3) = 1 bzw.
3
(( ~
A
1
, ~
A
2
, ~
A
3
)
{T = 3}) =
0.6
1
0
1
und
3
(( ~
A
1
, ~
A
2
, ~
A
3
)
{T = 3}) =
1
-1
.
Die Fuzzy-Perzeption ~
X
4
der Zufallsvariablen X
4
hat die Fuzzy-Realisation
~
A
4
=
1
0.1
0
-1
0
1
.
Es ist
( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
)
(
-1, 0, 0, -1) = 0.3
mit
-1 + 0 + 0 - 1 = -2
( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
)
(
-1, 1, -1, -1) = 0.6 mit -1 + 1 - 1 - 1 = -2
( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
)
(
-1, 1, 0, -1) = 0.3
mit
-1 + 1 + 0 - 1 = -1
( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
)
(
-1, 0, 0, 0) = 0.1
mit
-1 + 0 + 0 + 0 = -1
( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
)
(
-1, 1, -1, 0) = 0.1
mit
-1 + 1 - 1 + 0 = -1
( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
)
(
-1, 1, 0, 0) = 0.1
mit
-1 + 1 + 0 + 0 = 0.
Daher ist
( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
,...)
(4) = 0.6 bzw.
4
(( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
)
{T = 4}) =
0.3
0.6
0
1
und
4
(( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
)
{T = 4}) =
0.6
-1
.
So kann das Verfahren beliebig weiter fortgesetzt werden.
Bereits aus diesem einfachen Beispiel ist sofort ersichtlich, dass die konsequente
Anwendung des Extensionsprinzips bei dieser Fragestellung aus verschiedenen Gr¨
unden
zu h¨
ochst unbefriedigenden Ergebnissen f¨
uhrt.
(i) Die Stoppzeit
T
stellt inhaltlich einen Stichprobenumfang dar, eine unscharfe An-
gabe ¨
uber einen Stichprobenumfang macht daher keinen Sinn. Auch im obigen
Beispiel wurde tats¨
achlich eine Stichprobe vom Umfang 4 beobachtet. Insbeson-
dere sobald Beobachtungskosten mit zu ber¨
ucksichtigen sind, ist zu bedenken,
dass die Kosten f¨
ur jede Beobachtung in voller H¨
ohe entstehen, auch wenn die
Nummer der Beobachtung selbst nur noch ein Fuzzy-Singleton mit geringem Zu-
geh¨
origkeitsgrad zur Fuzzy-Stoppzeit darstellt.
(ii) Die Folgen von Fuzzy-Daten ( ~
A
1
, ~
A
2
, ...) werden aufgefasst als Fuzzy-Mengen von
Folgen von gew¨
ohnlichen Daten (x
1
, x
2
, ...). Im Allgemeinen gibt es nun Datenfol-
gen (x
1
, x
2
, ..., x
n
, ...), (x
1
, x
2
, ..., x
n
, ...)
supp(~A
1
)
×supp(~A
2
)
×...×supp(~A
n
)
×...
mit (x
1
, x
2
, ..., x
n
, ...)
{T = n}|
U
N
und (x
1
, x
2
, ..., x
n
, ...) /
{T = n}|
U
N
. Wie
beim Vorliegen scharfer Datenfolgen wird bei dem eben vorgestellten Verfahren
die Entscheidung ebenfalls nur auf Basis der (x
1
, x
2
, ..., x
n
, ...)
supp(~A
1
)
×
supp( ~
A
2
)
× ... × supp(~A
n
)
× ... {T = n}|
U
N
getroffen, da f¨
ur (x
1
, x
2
, ..., x
n
, ...) /
{T = n}|
U
N
auf der Stufe n gar keine Entscheidung zustande kommt. Diese Vor-
gangsweise ist ebenfalls unbefriedigend, da auch die Datenfolgen (x
1
, x
2
, ..., x
n
, ...)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
255
supp(~A
1
)
× supp(~A
2
)
× ... × supp(~A
n
)
× ...\{T = n}|
U
N
relevante Information
beinhalten, welche in die unscharfe Entscheidung einbezogen werden sollte.
Abbildung 8.1: Stoppzeitsituation bei unscharfen Daten
Um auf Basis unscharfer Daten sinnvolle sequentielle Entscheidungsverfahren formu-
lieren zu k¨
onnen m¨
ussen also alternative Konzepte entwickelt werden.
Yoshida und andere
16
entwickelten ein Konzept zu unscharfen Stoppzeiten f¨
ur Fol-
gen von Fuzzy-Zufallsvariablen und erweiterten dabei die Methode unscharfer Stopp-
zeiten f¨
ur dynamische Fuzzy-Systeme von Kurano und anderen
17
. Fuzzifiziert wird ein
Modell, bei dem die Stoppzeit gegeben ist durch die Vorschrift
T
Y
= min
{n|E(X
n
)
E(X
T
)
T
n}.
18
Es werden nur Folgen von Fuzzy-Zufallsvariablen ~
X
1
, ~
X
2
, ... betrach-
tet, deren Realisationen ~
X
1
(), X
2
(), ... konvexe Fuzzy-Mengen ¨
uber IR mit kompak-
ten -Schnitten (X
i
())
= [X
i
(), X
i
()], i
IN, (0, 1], sind.
Mittels einer -additiven Abbildung g :
I
k
(IR)
IR, (X())
g((X())
), mit
g (
n
i=1
(X
i
())
) =
n
i=1
g((X
i
())
) und g(
· (X())
) =
· g((X())
), wird jeder
-Schnitt (X
i
())
von ~
X
i
(), i
IN, (0, 1], auf eine reelle Zahl g((X())
)
verdichtet.
Eine unscharfe Stoppzeit
Y
: (
F
cb
(IR))
IN
F(IN), ( ~
X
1
, ~
X
2
, ...)
Y
( ~
X
1
, ~
X
2
, ...) = ~
T
Y
wird dann so konstruiert, dass f¨
ur jedes
(0, 1] die optimale Stoppzeit
Y,
: (
I
k
(IR))
IN
IN, (X
1
, X
2
, ...)
Y,
(X
1
, X
2
, ...) =
T
Y,
ermittelt wird, f¨
ur die
E(g((X
T
Y,
)
))
E(g((X
T
)
))
16
Vgl. Yoshida / Yasuda / Nakagami / Kurano (2000), S. 135 ff., Yoshida (2002), S. 89 ff.
17
Vgl. Kurano / Yasuda / Nakagami / Yoshida (2002), S. 225 ff.
18
Diese Bedingung an die Stoppzeit ist stets Abbruchkriterium in der Arbeiten von Yoshida, sowohl
dynamischen Systemen mit unscharfen Belohungen bei Yoshida (1996), S. 17 ff., als auch in dem
Stoppspiel von Yoshida (1999), S. 147 ff.

256
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ur alle m¨
oglichen Stoppzeiten
T
IN gilt. Durch nicht n¨aher ausgef¨uhrte Annahmen
wird gefordert, dass
T
Y,
in
(0, 1] monoton fallend ist, also dass
T
Y,1
T
Y,
1
T
Y,
2
T
Y,0
ur 1 >
1
>
2
> 0 ist.
19
Die unscharfe Stoppzeit ~
T
Y
ist dann gegeben
durch die Zugeh¨
origkeitsfunktion
20
~
T
Y
(n) = sup
(0,1]
min
{, 1
{T
Y,
>n
}
()
},
wobei
{T
Y,
> n
} = { |
Y,
((X
1
())
, ..., (X
n
())
) > n
} f¨ur n IN
0
. Eine
Fortsetzung nach
T
Y,1
=
wird gezeigt.
21
Yoshida / Yasuda / Nakagami / Kurano
22
bef¨
urworten die Wahl einer unscharfen
Stoppzeit mit der Begr¨
undung, die Evaluierung
1
0
E(g((X
T
Y,
)
))d liefere das bessere
Ergebnis als die Evaluierung einer scharfen Stoppzeit
23
, also
1
0
E g((X
T
Y,
)
) d
E
1
0
g((X
T
)
)d
ur alle m¨
oglichen scharfen Stoppzeiten (.).
Dieser Aussage kann hier nicht Folge geleistet werden. Das Modell mag theoretisch
funktionieren, aber sobald eine reale Datenfolge erhoben werden soll, kann nach jeder
Beobachtung immer nur entweder fortgesetzt oder abgebrochen werden. Außerdem
ist zu beachten, dass bei Anfallen von Beobachtungskosten diese immer zur G¨
anze
zu be¨
ucksichtigen sind. Auch Ter´
an kritisiert an dem Ansatz von Yoshida, dass die
Anwendung einer unscharfen Stoppzeit zur ¨
Ubersch¨
atzung des erzielbaren Nutzens aus
dem unscharfen stochastischen System f¨
uhren kann.
24
Die Konstruktion von scharfen
Stoppzeiten aufgrund unscharfer Daten ist also erforderlich.
8.1.3
Scharfe Stoppzeiten und scharfe Abbruchregeln f¨
ur un-
scharfe Daten
Wie am Ende des vorgehenden Abschnitts dargestellt, erweisen sich Fuzzy-Stoppzeiten
und Fuzzy-Abbruchregeln als ung¨
unstig, da die Stoppzeit bzw. Abbruchregel inhaltlich
einen Stichprobenumfang bzw. eine Entscheidung dar¨
uber, ob die Realisation einer wei-
teren Zufallsvariablen beobachtet werden soll, darstellt. Es m¨
ussen Verfahren gefunden
werden, die trotz Unsch¨
arfe der Daten eine scharfe Eintscheidung ¨
uber Fortsetzung
oder Abbruch der Datenerhebung erm¨
oglichen.
Es handelt sich bei dieser Fragestellung um ein Defuzzifikationsproblem. Die in
Abschnitt 3.2.7 vorgestellten Defuzzifizierungsverfahren versagen bei dieser Problem-
stellung, da f¨
ur deren Anwendbarkeit die ganze Fuzzy-Menge bekannt sein muss. Beim
19
Vgl. Yoshida / Yasuda / Nakagami / Kurano (2000), S. 140 f., Yoshida (2002), S. 92. In den
Beispielen wird durch die Gestalt von ~
X
i
() und durch die Wahl der Abbildung g(.) gew¨
ahrleistet,
dass die Monotonieforderung erf¨
ullt ist (vgl. Yoshida / Yasuda / Nakagami / Kurano (2000), S. 141,
Yoshida (2002), S. 92.
20
Vgl. Yoshida / Yasuda / Nakagami / Kurano (2000), S. 145 f., Yoshida (2002), S. 98 ff.
21
Vgl. Yoshida / Yasuda / Nakagami / Kurano (2000), S. 142, Yoshida (2002), S. 94.
22
Vgl. Yoshida / Yasuda / Nakagami / Kurano (2000), S. 144.
23
Die Konstruktion der optimalen scharfen Stoppzeit f¨
ur unscharfe stochastische Systeme von Yos-
hida / Yasuda / Nakagami / Kurano wird am Ende von Abschnitt 8.1.3 gezeigt.
24
Ter´
an (2006), S. 673 f.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
257
vorliegenden Problem ist aber immer nur der "untere" Teil der Fuzzy-Stoppzeit be-
kannt. Liegen auf der Stufe n die unscharfen Daten ( ~
A
1
, ~
A
2
, ..., ~
A
n
) vor, so kann ledig-
lich
( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...)
F({1, ..., n})
bestimmt werden, ( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...)
F({n + 1, ...}) ist auf der Stufe n unbekannt.
Mit anderen Worten ist zur Berechung eines defuzzifizierten Stichprobenumfangs
immer ein gr¨
oßerer Stichprobenumfang n¨
otig als der defuzzifizierte optimale Stichpro-
benumfang. So ist etwa CoG
0.3
0.5
0.7
1
0.9
1
1
0.8
0.4
16
17
18
19
20
21
22
23
24
= 20.2879, um
diese Zahl zu berechnen sind aber 24 Beobachtungen erforderlich. Man schießt bei die-
ser Methode sozusagen ¨
uber das Ziel hinaus. Als weiteres Problem erweist sich die
Tatsache, dass die defuzzifizieten Werte im Allgemeinen keine ganze Zahlen sind.
Auch bei Anwendung einer Abbruchregel anstelle einer Stoppzeit versagen die all-
gemeinen Defuzzifikationsverfahren nach Abschnitt 3.2.7. W¨
ahrend f¨
ur eine scharfe
Stoppzeit
n
( ~
A
1
, ..., ~
A
n
, ...))
{0, 1} gelten soll, wird im Allgemeinen eher der Fall
CoG(
n
( ~
A
1
, ..., ~
A
n
, ...))
[0, 1] zutreffen. Liegen auf der Stufe n die unscharfen Da-
ten ( ~
A
1
, ~
A
2
, ..., ~
A
n
) vor, so enth¨
alt das kartesische Produkt ihrer Tr¨
ager im Allgemeinen
die ersten n Glieder von drei Gattungen von Datenfolgen:
(x
1
, x
2
, ..., x
n
)
supp(~A
1
)
× supp(~A
2
)
× ... × supp(~A
n
)
{T = n}|
U
n
(x
1
, x
2
, ..., x
n
)
supp(~A
1
)
× supp(~A
2
)
× ... × supp(~A
n
)
{T < n}|
U
n
(x
1
, x
2
, ..., x
n
)
supp(~A
1
)
× supp(~A
2
)
× ... × supp(~A
n
)
{T > n}|
U
n
ahrend f¨
ur die erste Gattung
n
(x
1
, x
2
, ..., x
n
, ...) = 1gilt, trifft f¨
ur beide letztere Gat-
tungen
n
(x
1
, x
2
, ..., x
n
, ...) = P (
{T n|X
1
= x
1
, ..., X
n
= x
n
}) =
n
(x
1
, x
2
, ..., x
n
, ...) =
P (
{T=n|X
1
=x
1
,...,X
n
=x
n
})
P (
{Tn|X
1
=x
1
,...,X
n
=x
n
})
= 0 zu. Ob die Abbruchregel auf der Stufe n deshalb nicht
zum Abbruch f¨
uhrt, weil das Verfahren beim Vorliegen ausschließlich scharfer Daten
bereits auf einer fr¨
uheren Stufe zum Abbruch gef¨
uhrt h¨
atte, oder weil das Verfah-
ren noch weiter fortgesetzt werden soll, kann allein aus dem Wert der Abbruchregel
nicht abgelesen werden. Aus diesem Grund ist eine gew¨
ohnliche Defuzzifikation von
n
( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...) nicht sinnvoll. Dennoch muss auf der Stufe n eine scharfe Ent-
scheidung ¨
uber Abbruch oder Fortsetzung des Verfahrens gefunden werden.
Neben dem Defuzzifikationsproblem bei der Stoppzeit bzw. Abbruchregel muss auch
noch das zweite im vorgehenden Abschnitt angesprochene Problem, n¨
amlich die Nicht-
ber¨
ucksichtigung von Datenfolgen, die nicht zum Abbruch f¨
uhren, bei der unscharfen
Entscheidung, muss noch sinnvoll gel¨
ost werden.
Um eine sinnvolle Definition von sequentiellen Entscheidungsverfahren auf Basis
unscharfer Daten geben zu k¨
onnen, muss somit ein v¨
ollig alternatives Konzept ent-
wickelt werden. Ziel ist die Konstruktion von Verfahren, welche bei unscharfen Daten
scharfe Stoppzeiten und unscharfe Entscheidungen liefern. Dazu muss der Produktraum
U = U
IN
entsprechend anders als bei der urspr¨
unglichen scharfen Problemstellung auf-
geteilt werden.
Definition: Ist (,
A, P ) ein Wahrscheinlichkeitsraum, ist (U, C) ein messbarer Raum,
(X
n
)
n
IN
und ist X
n
: (,
A, P ) (U, C) n IN, eine Folge von i.i.d. Zufallsvariablen

258
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
mit Fuzzy-Perzeptionen ~
X
n
: (,
A, P ) (F(U), C
) f¨
ur n
IN, dann kann f¨ur n 2
der Raum U
n
in die folgenden vier Teilbereiche eingeteilt werden:
(i) Die Menge aller Datenfolgen, welche genau nach der n-ten Beobachtung zum
Abbruch f¨
uhren und zu keinem fr¨
uheren Zeitpunkt zum Abbruch gef¨
uhrt h¨
atten:
{T = n}|
U
n
:=
{(x
1
, ..., x
n
)
U
n
| ((x
1
, ..., x
n
) = n)
(k {1, ..., n - 1} : (x
1
, ..., x
k
) = k)
}
(8.11)
(ii) Die Menge aller Datenfolgen, welche bereits zu einem fr¨
uheren Zeitpunkt zum
Abbruch gef¨
uhrt h¨
atten und nach der n-ten Beobachtung ebenfalls zum Abbruch
uhren, sofern das Verfahren bis zum Punkt n fortgesetzt wurde:
{T = n|T n}|
U
n
:=
{(x
1
, ..., x
n
)
U
n
| ((x
1
, ..., x
n
) = n)
(k {1, ..., n - 1} : (x
1
, ..., x
k
) = k)
}
(8.12)
(iii) Die Menge aller Datenfolgen, welche nach der n-ten Beobachtung nicht zum
Abbruch f¨
uhren und auch zu keinem fr¨
uheren Zeitpunkt zum Abbruch gef¨
uhrt
atten:
{T > n}|
U
n
:=
{(x
1
, ..., x
n
)
U
n
| ((x
1
, ..., x
n
) > n)
(k {1, ..., n - 1} : (x
1
, ..., x
k
) = k)
}
(8.13)
(iv) Die Menge aller Datenfolgen, welche zwar zu einem fr¨
uheren Zeitpunkt zum
Abbruch gef¨
uhrt h¨
atten, aber nach der n-ten Beobachtung nicht zum Abbruch
uhren, sofern das Verfahren bis zum Punkt n fortgesetzt wurde:
{T > n|T n}|
U
n
:=
{(x
1
, ..., x
n
)
U
n
| ((x
1
, ..., x
n
) > n)
(k {1, ..., n - 1} : (x
1
, ..., x
k
) = k)
}
(8.14)
Abbildung 8.2: Teilbereiche des Stichprobenraums
Einige M¨
oglichkeiten f¨
ur die Konstruktion von Verfahren, die bei unscharfen Da-
ten zu scharfen Stoppzeiten und unscharfen Entscheidungen f¨
uhren, sollen hier im

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
259
Anschluss vorgestellt werden. Allgemein wird ein sequentielles Entscheidungsverfah-
ren, das bei unscharfen Daten zu scharfen Stoppzeiten und unscharfen Entscheidungen
uhrt, als sequentielles Fuzzy-Entscheidungsverfahren bezeichnet.
Definition: Es wird von einem parametrischen stochastischen Modell X
P
ausge-
gangen, X : (,
A, P ) (U, C), (X
n
)
n
IN
ist eine Folge von unabh¨
angigen und iden-
tisch wie X verteilten Zufallsvariablen. Dazu ist : U
IN
{0, 1, ..., } eine Stoppzeit,
][(.) = (
0
,
1
(.),
3
(.), ...),
n
: U
IN
{0, 1} ist die zugeh¨orige Abbruchregel, und
][(.) = (
0
,
1
(.),
2
(.), ...),
n
: U
n
ID, ist eine sequentielle Entscheidungsfunkti-
on f¨
ur den unbekannten Parameter
im parametrischen stochastischen Modell
X
P
. ~
X ist eine verteilungstreue Fuzzy-Perzeption von X. ( ~
A
1
, ~
A
2
, ...) ist eine Folge
von Fuzzy-Realisationen einer Folge von unabh¨
angigen und wie ~
X verteilten Fuzzy-
Zufallsvariablen ~
X
1
, ~
X
2
, ...
n
: (
F(U))
n
F(ID); (~A
1
, ..., ~
A
n
)
n
( ~
A
1
, ..., ~
A
n
) ist
die Fuzzy-Extension (5.3)-(5.4) von
n
(.) f¨
ur n
IN.
(i) Die Stoppzeit (.) ist definiert durch
: (
F(U))
IN
{0, 1, ..., }
( ~
A
1
, ~
A
2
, ...)
(~A
1
, ~
A
2
, ...) =
T
= min
{n {0, 1, ..., }|(supp(~A
1
)
× ... × supp(~A
n
))
({T = n}|
U
n
{T = n|T n}|
U
n
) =
}
= min
{n {0, 1, ..., }|(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
(x
1
, ..., x
n
)
{T = n}|
U
n
{T = n|T n}|
U
n
}.
(8.15)
(.) heißt Stoppzeit nach der Tr¨
agerber¨
uhrungsmethode oder Tr¨
agertangential-
methode.
Die zugeh¨
orige Abbruchregel ][(.) = (
0
,
1
(.),
2
(.), ...) lautet:
0
= ø
0
= P (
{T = 0}) {0, 1}
n
( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...) = ø
n
=
1 f¨
ur n = min j
IN|(x
1
, ..., x
j
)
supp(~A
1
)
×...×supp(~A
j
) :
j
(x
1
, ..., x
j
) =
P (
{T=j|X
1
=x
1
,...,X
j
=x
j
})
P (
{Tj|X
1
=x
1
,...,X
j
=x
j
})
= 1
0 sonst
(8.16)
ur n
IN.
][(.) heißt Abbruchregel nach der Tr¨
agerber¨
uhrungsmethode oder Tr¨
agertangen-
tialmethode.
Das sequentielle Entscheidungsverfahren, das gegeben ist durch das Paar
(.) = (.), ] [(.)
(8.17)
oder durch das Paar
] [(.) = ][(.), ] [(.) ,
(8.18)
heißt sequentielles Fuzzy-Entscheidungsverfahren nach der Tr¨
agerber¨
uhrungsmethode
oder Tr¨
agertangentialmethode.

260
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Abbildung 8.3: Stoppzeit nach der Tr¨
agertangentialmethode
(ii) Die Stoppzeit (.) ist definiert durch
: (
F(U))
IN
{0, 1, ..., }
( ~
A
1
, ~
A
2
, ...)
(~A
1
, ~
A
2
, ...) =
T
= min
{n {0, 1, ..., }|(supp(~A
1
)
× ... × supp(~A
n
))
({T = n}|
U
n
{T = n|T n}|
U
n
)
}
= min
{n {0, 1, ..., }|(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
(x
1
, ..., x
n
) /
{T = n}|
U
n
{T = n|T n}|
U
n
}.
(8.19)
(.) heißt Stoppzeit nach der Tr¨
agereinschlussmethode oder Tr¨
agerinklusionsme-
thode.
Die zugeh¨
orige Abbruchregel ][(.) = (
0
,
1
(.),
2
(.), ...) lautet:
0
= ø
0
= P (
{T = 0}) {0, 1}
n
( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...) = ø
n
=
1 f¨
ur n = min j
IN|(x
1
, ..., x
j
)
supp(~A
1
)
×...×supp(~A
j
) :
j
(x
1
, ..., x
j
) =
P (
{T=j|X
1
=x
1
,...,X
j
=x
j
})
P (
{Tj|X
1
=x
1
,...,X
j
=x
j
})
= 1
0 sonst
(8.20)
ur n
IN.
][(.) heißt Abbruchregel nach der Tr¨
agereinschlussmethode oder Tr¨
agerinklu-
sionsmethode.
Das sequentielle Entscheidungsverfahren, das gegeben ist durch das Paar
(.) = (.), ] [(.)
(8.21)
oder durch das Paar
] [(.) = ][(.), ] [(.) ,
(8.22)
heißt sequentielles Fuzzy-Entscheidungsverfahren nach der Tr¨
agereinschlussme-
thode oder Tr¨
agerinklusionsmethode.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
261
Abbildung 8.4: Stoppzeit nach der Tr¨
agerinklusionsmethode
(iii) Die Stoppzeit (.) ist definiert durch
: (
F(U))
IN
{0, 1, ..., }
( ~
A
1
, ~
A
2
, ...)
(~A
1
, ~
A
2
, ...) =
T
= min
{n {0, 1, ..., }|(ker(~A
1
)
× ... × ker(~A
n
))
({T = n}|
U
n
{T = n|T n}|
U
n
) =
}
= min
{n {0, 1, ..., }|(x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
(x
1
, ..., x
n
)
{T = n}|
U
n
{T = n|T n}|
U
n
}.
(8.23)
(.) heißt Stoppzeit nach der Kernber¨
uhrungsmethode oder Kerntangentialme-
thode.
Die zugeh¨
orige Abbruchregel ][(.) = (
0
,
1
(.),
2
(.), ...) lautet:
0
= ø
0
= P (
{T = 0}) {0, 1}
n
( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...) = ø
n
=
1 f¨
ur n = min j
IN| (x
1
, ..., x
j
)
ker(~A
1
)
×...×ker(~A
j
) :
j
(x
1
, ..., x
j
) =
P (
{T=j|X
1
=x
1
,...,X
j
=x
j
})
P (
{Tj|X
1
=x
1
,...,X
j
=x
j
})
= 1
0 sonst
(8.24)
ur n
IN.
][(.) heißt Abbruchregel nach der Kernber¨
uhrungsmethode oder Kerntangenti-
almethode.
Das sequentielle Entscheidungsverfahren, das gegeben ist durch das Paar
(.) = (.), ] [(.)
(8.25)
oder durch das Paar
] [(.) = ][(.), ] [(.) ,
(8.26)
heißt sequentielles Fuzzy-Entscheidungsverfahren nach der Kernber¨
uhrungsme-
thode oder Kerntangentialmethode.

262
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Abbildung 8.5: Stoppzeit nach der Kerntangentialmethode
(iv) Die Stoppzeit (.) ist definiert durch
: (
F(U))
IN
{0, 1, ..., }
( ~
A
1
, ~
A
2
, ...)
(~A
1
, ~
A
2
, ...) =
T
= min
{n {0, 1, ..., }|(ker(~A
1
)
× ... × ker(~A
n
))
({T = n}|
U
n
{T = n|T n}|
U
n
)
}
= min
{n {0, 1, ..., }| (x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
(x
1
, ..., x
n
) /
{T = n}|
U
n
{T = n|T n}|
U
n
}.
(8.27)
(.) heißt Stoppzeit nach der Kerneinschlussmethode oder K erninklusionsmetho-
de.
Die zugeh¨
orige Abbruchregel ][(.) = (
0
,
1
(.),
2
(.), ...) lautet:
0
= ø
0
= P (
{T = 0}) {0, 1}
n
( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...) = ø
n
=
1 f¨
ur n = min j
IN| (x
1
, ..., x
j
)
ker(~A
1
)
×...×ker(~A
j
) :
j
(x
1
, ..., x
j
) =
P (
{T=j|X
1
=x
1
,...,X
j
=x
j
})
P (
{Tj|X
1
=x
1
,...,X
j
=x
j
})
= 1
0 sonst
(8.28)
ur n
IN.
][(.) heißt Abbruchregel nach der Kerneinschlussmethode oder Kerninklusions-
methode.
Das sequentielle Entscheidungsverfahren, das gegeben ist durch das Paar
(.) = (.), ] [(.)
(8.29)
oder durch das Paar
] [(.) = ][(.), ] [(.) ,
(8.30)
heißt sequentielles Fuzzy-Entscheidungsverfahren nach der Kerneinschlussmetho-
de oder Kerninklusionsmethode.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
263
Abbildung 8.6: Stoppzeit nach der Kerninklusionsmethode
(v) Die Stoppzeit
(.) ist definiert durch
: (
F(U))
IN
{0, 1, ..., }
( ~
A
1
, ~
A
2
, ...)
( ~
A
1
, ~
A
2
, ...) =
T
= min
{n {0, 1, ..., }|(A
1
× ... × A
n
)
({T = n}|
U
n
{T = n|T n}|
U
n
) =
}
= min
{n {0, 1, ..., }| (x
1
, ..., x
n
)
A
1
× ... × A
n
:
(x
1
, ..., x
n
) /
{T = n}|
U
n
{T = n|T n}|
U
n
}.
(8.31)
(.) heißt Stoppzeit nach der -Niveauber¨
uhrungsmethode oder -Niveautan-
gentialmethode.
Die zugeh¨
orige Abbruchregel ]
[(.) = (
0
,
1
(.),
2
(.), ...) lautet:
0
= ø
0
= P (
{T = 0}) {0, 1}
n
( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...) =
ø
n
=
1 f¨
ur n = min j
IN| (x
1
, ..., x
j
)
A
1
× ... × A
j
:
j
(x
1
, ..., x
j
) =
P (
{T=j|X
1
=x
1
,...,X
j
=x
j
})
P (
{Tj|X
1
=x
1
,...,X
j
=x
j
})
= 1
0 sonst
(8.32)
ur n
IN.
]
[(.) heißt Abbruchregel nach der -Niveauber¨
uhrungsmethode oder -Niveau-
tangentialmethode.
Das sequentielle Entscheidungsverfahren, das gegeben ist durch das Paar
(.) =
(.), ] [(.)
(8.33)
oder durch das Paar
]
[(.) = ]
[(.), ] [(.) ,
(8.34)
heißt sequentielles Fuzzy-Entscheidungsverfahren nach der -Niveauber¨
uhrungs-
methode oder -Niveautangentialmethode.

264
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Abbildung 8.7: Stoppzeit nach der -Niveautangentialmethode
(vi) Die Stoppzeit
(.) ist definiert durch
: (
F(U))
IN
{0, 1, ..., }
( ~
A
1
, ~
A
2
, ...)
( ~
A
1
, ~
A
2
, ...) =
T
= min
{n {0, 1, ..., }|(A
1
× ... × A
n
)
({T = n}|
U
n
{T = n|T n}|
U
n
)
}
= min
{n {0, 1, ..., }|(x
1
, ..., x
n
)
A
1
× ... × A
n
:
(x
1
, ..., x
n
)
{T = n}|
U
n
{T = n|T n}|
U
n
}.
(8.35)
(.) heißt Stoppzeit nach der -Niveaueinschlussmethode oder -Niveauinklusi-
onsmethode.
Die zugeh¨
orige Abbruchregel ]
[(.) = (
0
,
1
(.),
2
(.), ...) lautet:
0
= P (
{T = 0}) {0, 1}
n
( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...) =
ø
n
=
1 f¨
ur n = min j
IN| (x
1
, ..., x
j
)
A
1
× ... × A
j
:
j
(x
1
, ..., x
j
) =
P (
{T=j|X
1
=x
1
,...,X
j
=x
j
})
P (
{Tj|X
1
=x
1
,...,X
j
=x
j
})
= 1
0 sonst
(8.36)
ur n
IN.
]
[(.) heißt Abbruchregel nach der -Niveaueinschlussmethode oder -Niveau-
inklusionsmethode.
Das sequentielle Entscheidungsverfahren, das gegeben ist durch das Paar
(.) =
(.), ] [(.)
(8.37)
oder durch das Paar
]
[(.) = ]
[(.), ] [(.) ,
(8.38)
heißt sequentielles Fuzzy-Entscheidungsverfahren nach der -Niveaueinschluss-
methode oder -Niveauinklusionsmethode.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
265
Abbildung 8.8: Stoppzeit nach der -Niveauinklusionsmethode
(vii) Die Stoppzeit
(card)
(.) ist definiert durch
(card)
: (
F(U))
IN
{0, 1, ..., }
( ~
A
1
, ~
A
2
, ...)
(card)
( ~
A
1
, ~
A
2
, ...) =
T (card)
= min
{n {0, 1, ..., }|
card(( ~
A
1
... ~A
n
)
({T = n}|
U
n
{T = n|T n}|
U
n
))
card((~A
1
... ~A
n
)
({T > n}|
U
n
{T > n|T n}|
U
n
))
}.
(8.39)
mit
{T > n}|
U
n
= U
n
\
n
j=1
{T = j}|
U
n
(card)
(.) heißt Stoppzeit nach der Kardinalit¨
atsmethode.
Die zugeh¨
orige Abbruchregel ][
(card)
(.) = (
0
,
(card)1
(.),
(card)2
(.), ...) lautet:
0
= ø
0
= P (
{T = 0}) {0, 1}
(card)n
( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...) = ø
(card)n
=
=
1 f¨
ur n = min j
IN|card (x
1
,
~
A
1
(x
1
)), ..., (x
j
,
~
A
j
(x
j
))
(x
1
, ..., x
j
)
supp(~A
1
)
× ... × supp(~A
j
) :
j
(x
1
, ..., x
j
) = 1
card (x
1
,
~
A
1
(x
1
)), ..., (x
j
,
~
A
j
(x
j
))
(x
1
, ..., x
j
)
supp(~A
1
)
×... ×supp(~A
j
) :
j
(x
1
, ..., x
j
) = 0
0 sonst
(8.40)
][
(card)
(.) heißt Abbruchregel nach der Kardinalit¨
atsmethode.
Das sequentielle Entscheidungsverfahren, das gegeben ist durch das Paar
(card)
(.) =
(card)
(.), ] [(.)
(8.41)
oder durch das Paar
] [
(card)
(.) = ][
(card)
(.), ] [(.) ,
(8.42)
heißt sequentielles Fuzzy-Entscheidungsverfahren nach der Kardinalit¨
atsmethode.

266
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Abbildung 8.9: Stoppzeit nach der Kardinalit¨
atsmethode
Bemerkung: Unter den scharfen Stoppzeiten f¨
ur unscharfe Daten gelten die folgenden
Beziehungen:
T
T
T
T
T
T
T
T
ur ,
(0, 1), <
(8.43)
T
T (card)
T
(8.44)
Beweis: (8.43): F¨
ur < gilt f¨
ur n
IN: (A
1
× ... × A
n
A
1
× ... × A
n
(A
1
× ... × A
n
)
({T = n} {T = n|T n}) (A
1
× ... × A
n
)
({T = n} {T =
n
|T n}).
T
( ~
A
1
, ..., ~
A
n
) = n
(x
1
, ..., x
n
)
(A
1
× ... × A
n
)
({T = n} {T = n|T n})
(x
1
, ..., x
n
)
(A
1
× ... × A
n
)
({T = n} {T = n|T n})
T
n.
T
( ~
A
1
, ..., ~
A
n
) = n
(x
1
, ..., x
n
)
(A
1
×...×A
n
) :
T
(x
1
, ..., x
n
)
n (x
1
, ..., x
n
)
(A
1
× ... × A
n
) :
T
(x
1
, ..., x
n
)
n
T
( ~
A
1
, ..., ~
A
n
)
n.
(8.44):
T
= min
{n IN|(~A
1
... ~A
n
)
({T = n} {T = n|T n}) = }
T
= min
{n IN|card((~A
1
... ~A
n
)
({T = n} {T = n|T n})) > 0} = min{n
IN
|card((~A
1
... ~A
n
)
(U
n
\({T = n} {T = n|T n}))) < card(~A
1
... ~A
N
)
}.
T
= min
{n IN|(~A
1
... ~A
n
)
({T = n} {T = n|T n})}
T
= min
{n
IN
|card((~A
1
... ~A
n
)
({T = n}{T = n|T n})) = card(~A
1
... ~A
n
)
} = min{n
IN
|card((~A
1
... ~A
n
)
(U
n
\({T = n} {T = n|T n}))) = 0}.
Aus 0
card((~A
1
... ~A
n
)
({T = n} {T = n|T n})) card(~A
1
... ~A
n
) =
card(( ~
A
1
... ~A
n
)
({T = n} {T = n|T n})) + card((~A
1
... ~A
n
)
(U
n
\({T =
n
} {T = n|T n}))) und
0
card((~A
1
... ~A
n
)
(U
n
\({T = n} {T = n|T n}))) card(~A
1
... ~A
n
) =
card(( ~
A
1
... ~A
n
)
({T = n} {T = n|T n})) + card((~A
1
... ~A
n
)
(U
n
\({T =
n
} {T = n|T n}))) folgt die Behauptung.
Bemerkung: Die scharfen Stoppzeiten f¨
ur unscharfe Daten k¨
onnen in zwei Gruppen
eingeteilt werden:
(i) Die erste Gruppe enth¨
alt alle -Niveautangential und -inklusionsmethoden, wo-
bei Tr¨
ager und Kern als spezielle -Niveaus angesehen werden k¨
onnen. Diese
Stoppzeiten liefern nur unscharfe Information zur Optimalit¨
at von Abbruch oder

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
267
Fortsetzung des Verfahrens auf jeder Stufe. Es bleibt dem Entscheidungstr¨
ager
¨
uberlassen, f¨
ur welches -Niveau er sich entscheidet, und ob es ihm gen¨
ugt, dass
wenigstens eine Datenfolge (x
1
, x
2
, ...)
(A
1
, A
2
, ...) zum Abbruch f¨
uhrt, oder
ob er fordert, dass alle Datenfolgen (x
1
, x
2
, ...)
(A
1
, A
2
, ...) zum Abbruch
uhren.
(ii) Die Stoppzeit nach der Kardinalit¨
atsmethode stellt die zweite Gruppe dar. Sie
liefert Entscheidungen, die vom Entscheidungstr¨
ager unabh¨
angig sind. Dem se-
quentiellen Entscheidungsverfahren nach der Kardinalit¨
atsmethode liegt die fol-
gende Idee zu Grunde: Das Verfahren wird dann gestoppt, wenn es f¨
ur mindestens
ebenso viele scharfe Datenfolgen (x
1
, x
2
, ...) in (supp( ~
A
1
), supp( ~
A
2
), ...) abgebro-
chen wie fortgesetzt wird. Die scharfen Datenfolgen (x
1
, x
2
, ...) sind gem¨
aß ihrem
Zugeh¨
origkeitsgrad zu ( ~
A
1
, ~
A
2
, ...) zu gewichten.
25
Beispiel (Fortsetzung): Wiederum ist X
P
ein parametrisches stochastisches Mo-
dell, die Realisationen von X sind in U =
{-1, 0, 1}, wieder sind
T
= min
{n :
|
n
i=1
x
i
| 2} und
T
(x
1
, ..., x
T
) =
x
1
+...+x
-
T
gegeben. F¨
ur Realisationen der Folge
von unabh¨
angigen und identisch verteilten Fuzzy-Perzeptionen von X ~
X
1
, ~
X
2
, ... in
F({-1, 0, 1}) sollen mittels des sequentiellen Fuzzy-Entscheidungsverfahrens nach der
Kardinalit¨
atsmethode Stoppzeit und Fuzzy-Entscheidung gefunden werden.
Zun¨
achst werden zwei Zufallsvariablen beobachtet. Man erh¨
alt die Fuzzy-Realisationen
~
A
1
=
1
0
0
-1
0
1
, ~
A
2
=
0.8
1
0.6
-1
0
1
.
Es ist
( ~
A
1
, ~
A
2
)
(
-1, -1) = 0.8 mit -1 - 1 = -2
( ~
A
1
, ~
A
2
)
(
-1, 0) = 1
mit
-1 + 0 = -1
( ~
A
1
, ~
A
2
)
(
-1, 1) = 0.6
mit
-1 + 1 = 0.
Wegen
( ~
A
1
, ~
A
2
)
(
-1, -1) = 0.8 <
( ~
A
1
, ~
A
2
)
(
-1, 0) +
( ~
A
1
, ~
A
2
)
(
-1, 1) = 1 + 0.6 = 1.6 muss
eine weitere Zufallsvariable beobachtet werden. Man erh¨
alt:
~
A
3
=
1
0.3
0
-1
0
1
.
Es ist
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, -1, -1) = 0.8 mit -1 - 1 - 1 = -3
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, -1, 0) = 0.3
mit
-1 - 1 + 0 = -2
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, 0, -1) = 1
mit
-1 + 0 - 1 = -2
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, 0, 0) = 0.3
mit
-1 + 0 + 0 = -1
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, 1, -1) = 0.6
mit
-1 + 1 - 1 = -1
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, 1, 0) = 0.3
mit
-1 + 1 + 0 = 0.
Das sequentielle Fuzzy-Entscheidungsverfahren nach der Kardinalit¨
atsmethode wird
abgebrochen, denn es ist
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, -1, -1) +
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, -1, 0) +
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, 0, -1) = 0.8 + 0.3 + 1 = 2.1
>
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, 0, 0) +
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, 1, -1) +
( ~
A
1
, ~
A
2
, ~
A
3
)
(
-1, 1, 0) = 0.3 + 0.6 + 0.3 = 1.2.
Somit ist
T (card)
= 3 und ~
D
T
(card)
=
3
( ~
A
1
, ~
A
2
, ~
A
3
) =
0.8
1
0.6
0.3
-1
-0.67
-0.33
0
.
Unter denselben Bedingungen stoppt das sequentielle Fuzzy-Entscheidungsverfahren
nach der Tr¨
agertangentialmethode bereits bei
T
= 2, denn
( ~
A
1
, ~
A
2
)
(
-1, -1) = 0.8 > 0
25
Der Vergleich von Kardinalit¨
aten um scharfe Entscheidungen zu treffen wird auch in dem von
Buckley (2005), S. 514 ff., vorgeschlagenen am Ende von Abschnitt 5.5.2 vorgestellten Testverfahren
gew¨
ahlt.

268
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
mit
-1 - 1 = -2.
Ebenso stoppen die Stoppzeiten nach der -Niveautangentialmethode bei
T
= 2 f¨
ur
0 <
0.8 und es ist ~D
T
= ~
D
(0,0.8]
T
=
2
( ~
A
1
, ~
A
2
) =
0.8
1
0.6
-1
-0.5
0
.
Die sequentiellen Entscheidungsverfahren nach der Kerntangential- und Kerninklusi-
onsmethode und nach der -Niveautangentialmethode werden ebenfalls bei
T
=
T
=
(0.8,1)T
= 3 abgebrochen, denn die Kernfolge lautet: (
-1, 0, -1, ...) und es ist
-1 + 0 - 1 = -2.
Man erh¨
alt ~
D
T
= ~
D
T
= ~
D
(0.8,1)
T
=
3
( ~
A
1
, ~
A
2
, ~
A
3
) =
0.8
1
0.6
0.3
-1
-0.67
-0.33
0
.
Die sequentiellen Fuzzy-Entscheidungsverfahren nach der -Niveauinklusionsmethode
werden bei n = 3 noch nicht abgebrochen, es wird die Zufallsvariable X
4
beobachtet.
Die Fuzzy-Perzeption ~
X
4
der Zufallsvariablen X
4
hat die Fuzzy-Realisation
~
A
4
=
1
0.1
0
-1
0
1
.
Die sequentiellen Fuzzy-Entscheidungsverfahren nach der -Niveauinklusionsmethode
werden f¨
ur 1 > > 0.3 bei
T
= 4 abgebrochen,
es ist ~
D
(0.3,1)
T
=
4
( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
) =
0.8
1
0.6
0.3
0.1
-1
-0.75
-0.5
-0.25
0
.
Die sequentiellen Fuzzy-Entscheidungsverfahren nach der Tr¨
agerinklusionsmethode und
nach der -Niveauinklusionsmethode f¨
ur 0.3
> 0 werden bei einem Stichprobe-
numfang von n = 4 fortgesetzt, da Datenkomponenten (x
1
, x
2
, x
3
, x
4
)
supp(~A
1
)
×
supp( ~
A
2
)
× supp(~A
3
)
× supp(~A
4
) existieren mit
|x
1
+ x
2
+ x
3
+ x
4
| < 2 und
0 <
( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
)
(x
1
, x
2
, x
3
, x
4
)
0.3, n¨amlich
(
-1, 1, 0, -1) mit
( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
)
(
-1, 1, 0, -1) = 0.3,
(
-1, 0, 0, 0) mit
( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
)
(
-1, 0, 0, 0) = 0.1,
(
-1, 1, -1, 0) mit
( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
)
(
-1, 1, -1, 0) = 0.1,
(
-1, 1, 0, 0) mit
( ~
A
1
, ~
A
2
, ~
A
3
, ~
A
4
)
(
-1, 1, 0, 0) = 0.1.
Es ist also
T
> 4.
Yoshida, Yasuda, Nakagami und Kurano
26
bringen neben dem bereits am En-
de von Abschnitt 8.1.2 vorgestellten Modell einer unscharfen Stoppzeit auch einen
Vorschlag f¨
ur eine scharfe Stoppzeit. Nur Fuzzy-Zufallsvariablen mit Realisationen
~
X()
F
cb
(IR), deren -Schnitte f¨
ur
(0, 1] kompakte Intervalle X
I
k
(IR)
sind, werden betrachtet.
Mittels einer -additiven Abbildung g :
I
k
(IR)
IR wird wie bei der in Ab-
schnitt 8.1.2 vorgestellten unscharfen Stoppzeit nach Yoshida zun¨
achst jeder -Schnitt
(X
i
())
von ~
X
i
(), i
IN, (0, 1], auf eine reelle Zahl g((X())
) verdichtet.
Daraus wird dann eine klassische Zufallsvariable
G : (,
A, P ) (IR, B), G() :=
1
0
g((X())
)d
konstruiert. Die scharfe Stoppzeit nach Yoshida ist dann gegeben durch
T
Y
= min
{n|E(G
n
)
E(G
T
)
T
n}.
Bei der scharfen Stoppzeit nach Yoshida handelt es sich um eine Stoppzeit auf Basis
von defuzzifizierten Realisationen von Fuzzy-Zufallsvariablen. Da Yoshida und ande-
re nur Fuzzy-Zufallsvariablen betrachten, deren Realisationen konvexe Fuzzy-Mengen
26
Vgl. Yoshida / Yasuda / Nakagami / Kurano (2000), S. 138 f.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
269
mit beschr¨
anktem Tr¨
ager auf IR sind, ist bei deren Ansatz sichergestellt, dass G()
supp( ~
X()) ist. In der vorliegenden Arbeit wurden dagegen auch Fuzzy-Zufallsvariablen
betrachtet, die Fuzzy-Perzeptionen von diskreten Zufallsvariablen sind. Etwa Realisa-
tionen von unscharf Poisson-verteilten Fuzzy-Zufallsvariablen sind Elemente von
F(IN).
Die defuzzifizierten Werte CoA( ~
X()) oder CoG( ~
X()) liegen dagegen im allgemeinen
nicht in IN, etwa ist CoG
0.2
0.8
1
0.5
8
9
10
11
= 9.72 /
IN. Daher wurde eine Berech-
nung einer scharfen Stoppzeit auf Basis von defuzzifizierten Stichprobenergebnissen in
der vorliegenden Arbeit nicht in Betracht gezogen.
8.1.4
Vereinfachte scharfe Stoppzeiten f¨
ur unscharfe Daten
In dem vorhergehenden Beispiel wurde gezeigt, dass es oft umst¨
andlich ist und einen
hohen Rechenaufwand mit sich bringt, die Kardinalit¨
aten der unscharfen Folgen, welche
zu Abbruch oder Fortsetzung des Verfahrens f¨
uhren, zu berechnen. Eine Vereinfachung
des Verfahrens w¨
are also w¨
unschenswert.
Im Allgemeinen ist die Stoppzeit bzw. Abbruchregel nicht mit Hilfe des Datensatzes
selbst, sondern mit Hilfe einer Statistik, also einer Stichprobenfunktion, formuliert
(im vorhergehenden Beispiel wird etwa das Abbruchkriterium ¨
uber den Betrag der
Summe der Daten formuliert). Nahe liegend scheint es also, vereinfachte Stoppzeiten
bzw. Abbruchregeln f¨
ur sequentielle Verfahren mit unscharfen Daten mit Hilfe der
Statistiken zu formulieren, ¨
uber die auch die Abbruchbedingungen im Fall scharfer
Daten formuliert sind.
Definition: Es ist X
P
, X : (,
A, P ) (U, C), ein parametrisches stochasti-
sches Modell, (X
n
)
n
IN
ist eine Folge von unabh¨
angigen und identisch wie X verteilten
Zufallsvariablen. (s
n
(.))
n
IN
, s
n
: U
n
S, ist eine Folge von Statistiken der Daten
(x
1
, ..., x
n
), (
n
)
n
IN
= (s
n
(x
1
, ..., x
n
))
n
IN
ist die Folge der Werte
n
der Statistiken der
Daten. ][(.) = (
0
,
1
(.),
3
(.), ...),
n
: U
IN
{0, 1} ist eine Abbruchregel, welche
¨
uber die Folge von Statistiken (s
n
(.))
n
IN
ausgedr¨
uckt werden kann, d.h. es gibt eine
Folge von Abbildungen (
sn
(.))
n
IN
:
sn
:
S
{0, 1}
n
= s
n
(x
1
, ..., x
n
)
sn
(s
n
(x
1
, ..., x
n
)) :=
n
(x
1
, ..., x
n
)
: U
IN
{0, 1, ..., } ist die zugeh¨orige Stoppzeit, welche ebenfalls mit Hilfe der
Folgen von Statistiken ausgedr¨
uckt werden kann, d.h. es gibt eine Abbildung
s
:
S
IN
{0, 1, ..., }
(
1
,
2
, ...,
n
, ...)
s
(
1
, ...,
n
, ...)
=
s
(s
1
(x
1
), ..., s
n
(x
1
, ..., x
n
), ...)
:= (x
1
, ..., x
n
, ...)
Mit
{T
s
= n
} := {(
1
,
2
, ...,
n
, ...)
S
IN
|
s
(
1
,
2
, ...,
n
, ...) = n
} wird die Menge aller
Folgen von Statistiken in S bezeichnet, die nach n Beobachtungen zum Abbruch des
Verfahrens f¨
uhren.
{T
s
= n
}|
S
n
bezeichnet die Menge, die von den Folgen in
{T
s
= n
}
nur die ersten n Komponenten enth¨
alt.
{T
s
= n
}
n
S enth¨alt von jeder der Folgen in
{T
s
= n
} nur jeweils die n-te Komponente f¨ur n IN.

270
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
][(.) = (
0
,
1
(.),
2
(.), ...),
n
: U
n
ID, ist eine sequentielle Entscheidungsfunktion
ur den unbekannten Parameter
im parametrischen stochastischen Modell X
P
. ~
X ist eine verteilungstreue Fuzzy-Perzeption von X. ( ~
A
1
, ~
A
2
, ...) ist eine Folge
von Fuzzy-Realisationen einer Folge von unabh¨
angigen und wie ~
X verteilten Fuzzy-
Zufallsvariablen ~
X
1
, ~
X
2
, ... s
n
: (
F(U))
n
F(S); (~A
1
, ..., ~
A
n
)
s
n
( ~
A
1
, ..., ~
A
n
) ist
die Fuzzy-Extension der Statistik s
n
(.) f¨
ur n
IN,
n
: (
F(U))
n
F(ID); (~A
1
, ..., ~
A
n
)
n
( ~
A
1
, ..., ~
A
n
) ist die Fuzzy-Extension der Entscheidungsfunktion
n
(.) f¨
ur n
IN.
Dann k¨
onnen die vereinfachten Stoppzeiten bzw. Abbruchregeln auf Basis der Folge
der unscharfen Statistiken ( s
n
( ~
A
1
, ..., ~
A
n
))
n
IN
definiert werden:
(i) Die Stoppzeit
s
(.) ist definiert durch
s
:
(
F(S))
IN
{0, 1, ..., }
s
n
( ~
A
1
, ~
A
2
, ...)
s
( s
n
( ~
A
1
, ~
A
2
, ...)) =
T s
= min
{n {0, 1, ..., }|supp( s
n
( ~
A
1
, ..., ~
A
n
))
({T
s
= n
}
n
{T
s
= n
|T
s
n}
n
) =
}
= min
{n {0, 1, ..., }|
n
supp( s
n
( ~
A
1
, ..., ~
A
n
)) :
n
({T
s
= n
}
n
{T
s
= n
|T
s
n}
n
)
}.
(8.45)
s
(.) heißt Stoppzeit nach der vereinfachten Tr¨
agertangentialmethode.
Die zugeh¨
orige Abbruchregel ]
s
[(.) = (
0
,
s1
(.),
s2
(.), ...) lautet:
0
= ø
0
= P (
{T
s
= 0
}) {0, 1}
sn
( s ( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...)) = ø
sn
=
1 f¨
ur n = min j
IN|
j
supp( s (~A
1
, ... ~
A
j
)) :
sj
(
j
) = 1
0 sonst
(8.46)
ur n
IN.
]
s
[(.) heißt Abbruchregel nach der vereinfachten Tr¨
agertangentialmethode.
(ii) Die Stoppzeit
s
(.) ist definiert durch
s
:
(
F(S))
IN
{0, 1, ..., }
s
n
( ~
A
1
, ~
A
2
, ...)
s
( s
n
( ~
A
1
, ~
A
2
, ...)) =
T s
= min
{n {0, 1, ..., }|supp( s
n
( ~
A
1
, ..., ~
A
n
))
({T
s
= n
}
n
{T
s
= n
|T
s
n}
n
)
}
= min
{n {0, 1, ..., }|
n
supp( s
n
( ~
A
1
, ..., ~
A
n
)) :
n
/
({T
s
= n
}
n
{T
s
= n
|T
s
n}
n
)
}.
(8.47)
s
(.) heißt Stoppzeit nach der vereinfachten Tr¨
agerinklusionsmethode.
Die zugeh¨
orige Abbruchregel ]
s
[(.) = (
0
,
s1
(.),
s2
(.), ...) lautet:
0
= ø
0
= P (
{T
s
= 0
}) {0, 1}
sn
( s ( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...)) = ø
sn
=
1 f¨
ur n = min j
IN|
j
supp( s (~A
1
, ... ~
A
j
)) :
sj
(
j
) = 1
0 sonst
(8.48)
ur n
IN.
]
s
[(.) heißt Abbruchregel nach der vereinfachten Tr¨
agerinklusionsmethode.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
271
(iii) Die Stoppzeit
s
(.) ist definiert durch
s
:
(
F(S))
IN
{0, 1, ..., }
s
n
( ~
A
1
, ~
A
2
, ...)
s
( s
n
( ~
A
1
, ~
A
2
, ...)) =
s
= min
{n {0, 1, ..., }| ker( s
n
( ~
A
1
, ..., ~
A
n
))
({T
s
= n
}
n
{T
s
= n
|T
s
n}
n
) =
}
= min
{n {0, 1, ..., }|
n
ker( s
n
( ~
A
1
, ..., ~
A
n
)) :
n
({T
s
= n
}
n
{T
s
= n
|T
s
n}
n
)
}.
(8.49)
s
(.) heißt Stoppzeit nach der vereinfachten Kerntangentialmethode.
Die zugeh¨
orige Abbruchregel ]
s
[(.) = (
0
,
s
1
(.),
s
2
(.), ...) lautet:
0
= ø
0
= P (
{T
s
= 0
}) {0, 1}
s
n
( s ( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...)) = ø
s
n
=
1 f¨
ur n = min j
IN|
j
ker( s (~A
1
, ... ~
A
j
)) :
sj
(
j
) = 1
0 sonst
(8.50)
ur n
IN.
]
s
[(.) heißt Abbruchregel nach der vereinfachten Kerntangentialmethode.
(iv) Die Stoppzeit
s
(.) ist definiert durch
s
:
(
F(S))
IN
{0, 1, ..., }
s
n
( ~
A
1
, ~
A
2
, ...)
s
( s
n
( ~
A
1
, ~
A
2
, ...)) =
T s
= min
{n {0, 1, ..., }| ker( s
n
( ~
A
1
, ..., ~
A
n
))
({T
s
= n
}
n
{T
s
= n
|T
s
n}
n
)
}
= min
{n {0, 1, ..., }|
n
ker( s
n
( ~
A
1
, ..., ~
A
n
)) :
n
/
({T
s
= n
}
n
{T
s
= n
|T
s
n}
n
)
}.
(8.51)
s
(.) heißt Stoppzeit nach der vereinfachten Kerninklusionsmethode.
Die zugeh¨
orige Abbruchregel ]
s
[(.) = (
0
,
s1
(.),
s2
(.), ...) lautet:
0
= ø
0
= P (
{T
s
= 0
}) {0, 1}
sn
( s ( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...)) = ø
sn
=
1 f¨
ur n = min j
IN|
j
ker( s (~A
1
, ... ~
A
j
)) :
sj
(
j
) = 1
0 sonst
(8.52)
ur n
IN.
]
s
[(.) heißt Abbruchregel nach der vereinfachten Kerninklusionsmethode.
(v) Die Stoppzeit
s
(.) ist definiert durch
s
:
(
F(S))
IN
{0, 1, ..., }
s
n
( ~
A
1
, ~
A
2
, ...)
s
( s
n
( ~
A
1
, ~
A
2
, ...)) =
T s
= min
{n {0, 1, ..., }|( s
n
(A
1
, ..., A
n
))
({T
s
= n
}
n
{T
s
= n
|T
s
n}
n
) =
}
= min
{n {0, 1, ..., }|
n
( s
n
(A
1
, ..., A
n
))
:
n
({T
s
= n
}
n
{T
s
= n
|T
s
n}
n
)
}.
(8.53)

272
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
s
(.) heißt Stoppzeit nach der vereinfachten -Niveautangentialmethode.
Die zugeh¨
orige Abbruchregel ]
s
[(.) = (
0
,
s1
(.),
s2
(.), ...) lautet:
0
= ø
0
= P (
{T
s
= 0
}) {0, 1}
sn
( s ( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...)) =
ø
sn
=
1 f¨
ur n = min j
IN|
j
( s
n
(A
1
, ..., A
n
))
:
sj
(
j
) = 1
0 sonst
(8.54)
ur n
IN.
]
s
[(.) heißt Abbruchregel nach der vereinfachten -Niveautangentialmethode.
(vi) Die Stoppzeit
s
(.) ist definiert durch
s
:
(
F(S))
IN
{0, 1, ..., }
s
n
( ~
A
1
, ~
A
2
, ...)
s
( s
n
( ~
A
1
, ~
A
2
, ...)) =
T s
= min
{n {0, 1, ..., }|( s
n
(A
1
, ..., A
n
))
({T
s
= n
}
n
{T
s
= n
|T
s
n}
n
)
}
= min
{n {0, 1, ..., }|
n
( s
n
(A
1
, ..., A
n
))
:
n
/
({T
s
= n
}
n
{T
s
= n
|T
s
n}
n
)
}.
(8.55)
s
(.) heißt Stoppzeit nach der vereinfachten -Niveauinklusionsmethode.
Die zugeh¨
orige Abbruchregel ]
s
[(.) = (
0
,
s1
, (.)
s2
(.), ...) lautet:
0
= P (
{T
s
= 0
}) {0, 1}
sn
( s ( ~
A
1
, ~
A
2
, ..., ~
A
n
, ...)) =
ø
sn
=
1 f¨
ur n = min j
IN|
j
( s
n
(A
1
, ..., A
n
))
:
sj
(
j
) = 1
0 sonst
(8.56)
ur n
IN.
]
s
[(.) heißt Abbruchregel nach der vereinfachten -Niveauinklusionsmethode.
(vii) Die Stoppzeit
s(card)
(.) ist definiert durch
s(card)
: (
F(S))
IN
{0, 1, ..., }
s
n
( ~
A
1
, ~
A
2
, ...)
s(card)
( s
n
( ~
A
1
, ~
A
2
, ...) =
T s(card)
= min
{n {0, 1, ..., }|
card( s
n
( ~
A
1
, ..., ~
A
n
)
({T
s
= n
}
n
{T
s
= n
|T
s
n}
n
))
card( s
n
( ~
A
1
, ..., ~
A
n
)
({T
s
> n
}
n
{T
s
> n
|T
s
n}
n
))
}.
(8.57)
s(card)
(.) heißt Stoppzeit nach der vereinfachten Kardinalit¨
atsmethode.
Die zugeh¨
orige Abbruchregel ]
s
[
(card)
(.) = (
0
,
s(card)1
(.),
s(card)2
(.), ...) lautet:
0
= ø
0
= P (
{T
s
= 0
}) {0, 1}
s(card)n
( s
n
( ~
A
1
, ~
A
2
, ...) = ø
s(card)n
=
1 f¨
ur n = min j
IN card ((
j
,
s
j
( ~
A
l
,... ~
A
j
)
(
j
))
j
supp( s
j
( ~
A
1
, ..., ~
A
j
)),
sj
(
j
) = 1
card ((
j
,
s
j
( ~
A
l
,... ~
A
j
)
(
j
))
j
supp( s
j
( ~
A
1
, ..., ~
A
j
)),
sj
(
j
) = 0
0 sonst
(8.58)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
273
ur n
IN.
]
s
[
(card)
(.) heißt Abbruchregel nach der vereinfachten Kardinalit¨
atsmethode.
Abbildung 8.10: Stoppzeit nach der vereinfachten Kardinalit¨
atsmethode
Beispiel (Fortsetzung): Wiederum ist X
P
ein parametrisches stochastisches Mo-
dell, die Realisationen von X seien in U =
{-1, 0, 1}, wieder ist
T
= min
{n : |
n
i=1
x
i
|
2
} und
T
(x
1
, ..., x
T
) =
x
1
+...+x
-
T
. F¨
ur Realisationen der Folge von unabh¨
angigen und
identisch verteilten Fuzzy-Perzeptionen von X ~
X
1
, ~
X
2
, ... in
F({-1, 0, 1}) sollen mittels
des sequentiellen Fuzzy-Entscheidungsverfahrens nach der vereinfachten Kardinalit¨
ats-
methode Stoppzeit und Fuzzy-Entscheidung gefunden werden.
Zun¨
achst werden zwei Zufallsvariablen beobachtet. Man erh¨
alt die Fuzzy-Realisationen
~
A
1
=
1
0
0
-1
0
1
, ~
A
2
=
0.8
1
0.6
-1
0
1
.
Es ist ~
A
1
~A
2
=
0.8
1
0.6
-2
-1
0
.
Wegen
~
A
1
~
A
2
(
-2) = 0.8 <
~
A
1
~
A
2
(
-1) +
~
A
1
~
A
2
(0) = 1 + 0.6 = 1.6 muss eine weitere
Zufallsvariable beobachtet werden. Man erh¨
alt
~
A
3
=
1
0.3
0
-1
0
1
Es ist ~
A
1
~A
2
~A
3
=
0.8
1
0.6
0.3
-3
-2
-1
0
.
Das sequentielle Fuzzy-Entscheidungsverfahren nach der vereinfachten Kardinalit¨
ats-
methode wird abgebrochen, denn es ist
( ~
A
1
~
A
2
~
A
3
)
(
-3) +
( ~
A
1
~
A
2
~
A
3
)
(
-2) = 0.8 + 1 = 1.8
>
( ~
A
1
~
A
2
~
A
3
)
(
-1) +
( ~
A
1
~
A
2
~
A
3
)
(0) = 0.3 + 0.6 = 0.9
.
Somit ist
T s(card)
= 3 und ~
D
T
s(card)
=
3
( ~
A
1
, ~
A
2
, ~
A
3
) =
0.8
1
0.6
0.3
-1
-0.67
-0.33
0
.
Der folgende Satz soll einen Zusammenhang zwischen urspr¨
unglichen und verein-
fachten scharfen Stoppzeiten f¨
ur unscharfe Daten herstellen und die M¨
oglichkeiten der
Vereinfachung mit Hilfe der vereinfachten Stoppzeiten aufzeigen.
Satz: Es gelten die Voraussetzungen der obigen Definition. An die Fuzzy-Extensionen
s
n
der Statistiken s
n
werde f¨
ur n
IN zus¨atzlich die Bedingung gestellt, dass die

274
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Zugeh¨
origkeitsfunktion des unscharfen Bildes jeweils Suprema auch annimmt, was ins-
besondere im Fall einer stetigen Funktion s der Fall ist. Dann gilt:
(i) F¨
ur die Stoppzeiten nach Tr¨
agertangential- und Tr¨
agerinklusionsmethode
T
=
T s
,
T
=
T s
(8.59)
(ii) F¨
ur die Stoppzeiten nach Kerntangential- und Kernrinklusionsmethode
T
=
T s
,
T
=
T s
(8.60)
(iii) F¨
ur die Stoppzeiten nach -Niveautangential- und -Niveauinklusionsmethode
T
=
T s
,
T
=
T s
(8.61)
(iv) F¨
ur die Stoppzeit nach der vereinfachten Kardinalit¨
atsmethode
T
=
T s
T s(card)
T s
=
T
(8.62)
Beweis: (i)-(iii): Nach dem zweiten Teil des Repr¨
asentationssatzes (3.34) aus Abschnitt
3.2.2 gilt allgemein f¨
ur Fuzzy-Extensionen von beliebigen Statistiken: ( s
n
(A
1
, ..., A
n
))
s
n
(A
1
, ..., A
n
). Da an die Fuzzy-Extension s
n
(.) der Statistik s
n
(.) die Bedingung ge-
stellt wurde, dass die Zugeh¨
origkeitsfunktion ihres Bildes ihre Suprema annimmt, d.h.
sup
(x1,...,xn)Un:
sn(x1,...,xn)=n
min
{
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
} =
max
(x1,...,xn)Un:
sn(x1,...,xn)=n
min
{
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
}, gilt an-
stelle des Inklusionszeichen das Gleichheitszeichen. Daraus folgt die Aussage (8.61). Als
Spezialf¨
alle von (8.61) gelten auch (8.59) und (8.60). Aufgrund des ersten Teils des Re-
pr¨
asentationssatzes (3.33) gilt (8.59) sogar unter den schw¨
acheren Voraussetzungen
ohne die Zusatzvoraussetzung an die die Fuzzy-Statistik s
n
(.).
(iv): Die Aussage (8.62) ergibt sich als Folgerung aus (8.44) aus Abschnitt 8.1.3 in
Verbindung mit (8.59).
Unter recht allgemeinen Voraussetzungen k¨
onnen also die Stoppzeiten nach
Tr¨
ager-, Kern- und -Niveautangential- und -inklusionsmethode durch die vereinfach-
ten Varianten ersetzt werden. F¨
ur die Stoppzeit nach der Kardinalit¨
atsmethode kann
eine solche Aussage leider nicht gemacht werden, zwischen den Stoppzeiten nach der
urspr¨
unglichen und nach der vereinfachten Kardinalit¨
atsmethode besteht kein direk-
ter Zusammenhang. Allerdings gelten f¨
ur beide Stoppzeiten die gleichen oberen und
unteren Schranken.
8.2
Sequentielle Bayes'sche Entscheidungen f¨
ur un-
scharfe Daten
Wesentliche Aufgabe der sequentiellen statistischen Bayes-Entscheidungstheorie ist die
Minimierung des zu erwartenden Verlustes. W¨
ahrend bei nicht sequentiellen statisti-
schen Entscheidungsverfahren (vgl. Kapitel 7) nur die Verluste aufgrund m¨
oglicher

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
275
Fehlentscheidungen betrachtet werden, werden bei sequentiellen Entscheidungsverfah-
ren auch die Kosten, die aus der Beobachtung entstehen ber¨
ucksichtigt. F¨
ur die Formu-
lierung sequentieller Entscheidungsverfahren erweist sich die Bayes-Statistik als beson-
ders g¨
unstig, da hier auf jeder Beobachtungsstufe mit Hilfe des Bayes'schen Theorems
sehr leicht eine Verkn¨
upfung von vorhandener (A-priori-) Information und neuer Stich-
probeninformation m¨
oglich ist.
27
Es wird angenommen, (,
A) und (U, C) sind messbare R¨aume, X : U ist
eine Zufallsvariable, d.h. eine
A-C-messbare Abbildung, und es ist X P
, d.h. X
besitzt auf U die parametrische Verteilung P
, der Verteilungsparameter
selbst
ist unbekannt. (X
n
)
n
IN
ist eine Folge von unabh¨
angigen und identisch wie X verteilten
Zufallsvariablen, X
i
:
U, X
i
P
i {1, ..., n}. Es ist C
n
eine -Algebra, sodass
X
1
, ..., X
n
, n
IN, messbar sind. Es ist : U
IN
{0, 1, ..., n} eine Stoppzeit und {T =
n
} = {(x
1
, ..., x
n
, ...)
U
IN
|(x
1
, ..., x
n
, ...) = n
}, und {T = n} C (nach Abschnitt
8.1). ID ist die Menge m¨
oglicher statistischer Entscheidungen, (
n
(.))
n
IN
0
ist eine Fol-
ge von Entscheidungsfunktionen
n
:
{T = n} ID, (x
1
, ..., x
n
, ...)
n
(x
1
, ..., x
n
)
bzw.
n
:
{T = n}|
U
n
ID, (x
1
, ..., x
n
)
n
(x
1
, ..., x
n
) f¨
ur n
IN und
0
ID
0
.
ID ist
eine -Algebra auf ID, sodass die Entscheidungsfunktionen
n
(.)
C
n
-
ID-messbar sind f¨ur
alle n
IN. Außerdem ist IL IR
+
0
eine Menge m¨
oglicher Verluste, l(., .)) ist eine Ver-
lustfunktion, die den Verlust aus der statistischen Entscheidung
n
(x
1
, ..., x
n
)
ID bei
Vorliegen des "wahren" Parameters
angibt: l : × ID IL, (,
n
(x
1
, ..., x
n
))
l(,
n
(x
1
, ..., x
n
)).
IL ist eine -Algebra auf IL, sodass l(., .) messbar ist. Die Folge
(c
n
)
n
IN
, c
IR
+
0
n IN, beschreibt die Kosten der Stichprobenerhebung, d.h. die n-
te Beobachtung verursacht gerade die Kosten c
n
ur die Beobachtung von X
n
, n
IN.
28
Der gesamte Verlust aus einer Entscheidung nach der n-ten Beobachtung aufgrund
der Daten (x
1
, ..., x
n
) bei Vorliegen des wahren Parameters setzt sich nun zusammen
aus dem Entscheidungsverlust l(,
n
(x
1
, ..., x
n
)) und den Beobachtungskosten
n
i=1
c
i
.
Man definiert daher die Gesamtverlustfunktion
29
L
l :
× ID × IN
IR
+
0
(,
n
(x
1
, ..., x
n
), n)
L
l(,
n
(x
1
, ..., x
n
), n) := l(,
n
(x
1
, ..., x
n
)) +
n
i=1
c
i
.
Der aus dem Verfahren (.) = ( (.), ][(.)) bei Vorliegen des Parameters zu er-
wartende Verlust ist gegeben als der Erwartungswert der Gesamtverlustfunktion, und
es ist
30
E
(
L
l(,
T
(X
1
, ..., X
T
),
T ))
27
Vgl. Wetherill (1975), S. 100 f.
28
Vgl. Wald (1947b), S. 279 f., Wald (1950), S. 103, Wald / Wolfowitz (1950), S. 82 f., Berger (1985),
S. 433, Ferguson (1967), S. 309 f., Irle (1990), S. 43.
29
Vgl. Wald (1947b), S. 280, Wald / Wolfowitz (1950), S. 83, Arrow / Blackwell / Girshck (1949),
S. 214, Berger (1985), S. 434, Hoeffding (196), S. 362 f., Ferguson (1967), S. 312.
30
Vgl. Wald (1947b), S. 280, Wald / Wolfowitz (1950), S. 83, Arrow / Blackwell / Girshick (1949),
S. Berger (1985), S. 445 f., Ferguson (1967), S. 312.

276
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
=
P (
{T = 0}) ·
L
l(,
0
, 0) +
(x
1
,x
2
,...)
{T<}
L
l(,
T
(x
1
, x
2
, ...),
T
)
· p(x
1
, x
2
, ...
|)
ur diskretes X
P (
{T = 0}) ·
L
l(,
0
, 0) +
{T<}
L
l(,
T
(x
1
, x
2
, ...),
T
)
· f(x
1
, x
2
, ...
|)dx
1
dx
2
...
ur stetiges X
=
P (
{T = 0}) ·
L
l(,
0
, 0)
+
n=1 (x
1
,...,x
n
)
{T=n}|
Un
L
l(,
n
(x
1
, ..., x
n
), n)
· p(x
1
, ..., x
n
|)
P (
{T = 0}) ·
L
l(,
0
, 0)
+
n=1
{T=n}|
Un
L
l(,
n
(x
1
, ..., x
n
), n)
· f(x
1
, ..., x
n
,
|)dx
1
...dx
n
=
P (
{T = 0}) · l(,
0
)
+
n=1 (x
1
,...,x
n
)
{T=n}|
Un
l(,
n
(x
1
, ..., x
n
)) +
n
i=1
c
i
· p(x
1
, ..., x
n
|)
P (
{T = 0}) · l(,
0
)
+
n=1
{T=n}|
Un
l(,
n
(x
1
, ..., x
n
)) +
n
i=1
c
i
· f(x
1
, ..., x
n
|)dx
1
...dx
n
=
P (
{T = 0}) · l(,
0
) +
n=1 (x
1
,...,x
n
)
{T=n}|
Un
l(,
n
(x
1
, ..., x
n
))
· p(x
1
, ..., x
n
|)
+
n=1
P
(
{T = n}) ·
n
i=1
c
i
ur diskretes X
P (
{T = 0}) · l(,
0
) +
n=1
{T=n}|
Un
l(,
n
(x
1
, ..., x
n
))
· f(x
1
, ..., x
n
|)dx
1
...dx
n
+
n=1
P
(
{T = n}) ·
n
i=1
c
i
ur stetiges X,
wobei
P
(
{T = n}) =
(x
1
,...,x
n
)
{T=n}|
Un
p(x
1
, ..., x
n
|)
{T=n}|
Un
f (x
1
, ..., x
n
|)dx
1
...dx
n
.
ur festes (.) und festes ][(.) h¨
angt der Erwartungswert E
(
L
l(,
T
(X
1
, ..., X
T
),
T ))
nur noch von ab, er ist also eine Funktion von und wird als Risikofunktion des se-
quentiellen Entscheidungsverfahrens (.) = ( (.), ][(.)) bezeichnet.
31
In der Bayes-Statistik ist der Parameter selbst eine Zufallsvariable
auf dem
messbaren Parameterraum (,
), die vor Beginn der Stichprobenerhebung die A-
priori-Verteilung (.) auf hat. Wird nun vorausgesetzt, dass (wie in Abschnitt 7.2) die
Verlustfunktion l(., .) (und damit die Gesamtverlustfunktion
L
l(., .)) auch in der ersten
Komponente messbar ist, so ist auch die Risikofunktion E
(
L
l(
,
T
(X
1
, ..., X
T
),
T ))
eine Zufallsvariable, und man kann ihren Erwartungswert berechnen, dieser wird als das
Bayes-Risiko des sequentiellen Entscheidungsverfahrens (.) = ( (.), ][(.)) bezeichnet:
32
r
(.)
((.)) = r
(.)
( (.), ][(.)) := E
(.)
(E
(
L
l(
,
T
(X
1
, ..., X
T
),
T )))
(8.63)
mit
31
Vgl. Wald (147b), S. 280, Wald / Wolfowitz (1950), S. 83, Ferguson (1967), S. 312, Irle (1990), S.
14.
32
Vgl. Wald / Wolfowitz (1950), S. 83, Berger (1985), S. 446 f., Hoefding (1960), S. 363, Ferguson
(1967), S. 313, Wetherill (1975), S. 143, Irle (1990), S. 70.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
277
E
(.)
(E
(
L
l(
,
T
(X
1
, ..., X
T
),
T )))
=
P (
{T = 0}) ·
L
l(,
0
, 0)()d
+
n=1
{T=n}|
Un
L
l(,
n
(x
1
, ..., x
n
), n)
· f(x
1
, ..., x
n
|)()dx
1
...dx
n
d
= P (
{T = 0}) ·
L
l(,
0
, 0)()d
+
n=1
{T=n}|
Un
L
l(,
n
(x
1
, ..., x
n
), n)(
|x
1
, ..., x
n
)
·
f (x
1
, ..., x
n
|)()d dx
1
...dx
n
d
= P (
{T = 0}) ·
L
l(,
0
, 0)()d
+
n=1
{T=n}|
Un
L
l(,
n
(x
1
, ..., x
n
), n)(
|x
1
, ..., x
n
)
· f
X
(x
1
, ..., x
n
)dx
1
...dx
n
d.
Hier wird nur der Fall stetiger Zufallsvariablen X und
ber¨ucksichtigt, analoge Aus-
sagen erh¨
alt man f¨
ur diskrete Zufallsvariablen X oder/und
. Wie in Abschnitt 7.2
kann hier der Satz von Fubini angewandt und die Integrationsreihenfolge vertauscht
werden. Man erh¨
alt also
33
r
(.)
((.)) = P (
{T = 0}) ·
L
l(,
0
, 0)()d
+
n=1
{T=n}|
Un
L
l(,
n
(x
1
, ..., x
n
), n)(
|x
1
, ..., x
n
)
· f
X
(x
1
, ..., x
n
)dx
1
...dx
n
d
= P (
{T = 0}) ·
L
l(,
0
, 0)()d
+
n=1
{T=n}|
Un
L
l(,
n
(x
1
, ..., x
n
), n)(
|x
1
, ..., x
n
)d
·f
X
(x
1
, ..., x
n
)dx
1
...dx
n
.
Es wird nun das Bayes-Risiko einer Entscheidung
n
(x
1
, ..., x
n
) auf der Stufe n
IN
nach den n Beobachtungen (x
1
, ..., x
n
) ohne weitere Beobachtungen bezeichnet mit
r
0
(.
|x
1
,...,x
n
)
(][(.), n), d.h. f¨
ur n
1
34
r
0
(.
|x
1
,...,x
n
)
(][(.), n) := E
(
|x
1
,...,x
n
)
(
L
l(
,
n
(x
1
, ..., x
n
), n))
=
L
l(,
T
(x
1
, ..., x
n
),
T
)(
|x
1
, ..., x
n
)d
(8.64)
und f¨
ur n = 0
r
0
(.)
(][(.), 0) =
L
l(,
0
, 0)()d.
(8.65)
Nun kann das Bayes-Risiko eines sequentiellen Entscheidungsverfahrens auch wie folgt
angeschrieben werden:
35
r
(.)
((.)) = P (
{T = 0}) · r
0
(.)
(][(.), 0)
+
n=1{T=n}|
Un
r
0
(.
|x
1
,...,x
n
)
(][(.), n) f
X
(x
1
, ..., x
n
)dx
1
...dx
n
(8.66)
33
Vgl. Berger (1985), S. 446, Irle (1990), S. 74.
34
Vgl. Ferguson (1967), S. 313.
35
Vgl. Arrow / Blackwell / Girshick (1949), S. 214, Berger (1985), S. 446, Irle (1990), S. 74.

278
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Ein Bayes'sches sequentielles Entscheidungsverfahren ist ein sequentielles Entschei-
dungsverfahren
(.), f¨
ur das das Bayes-Risiko r
(.)
((.)) = r
(.)
( (.), ][(.)) minimal
ist, also
36
r
(.)
(
(.)) = min
(.)
r
(.)
((.))
(8.67)
bzw.
r
(.)
(
(.), ]
[(.)) = min
(.),][(.)
( (.), ][(.)) .
(8.68)
Aus der Darstellung (8.66) ist ersichtlich, dass das Bayes-Risiko r
(.)
((.)) des ge-
samten sequentiellen Entscheidungsverfahrens minimiert wird, wenn die Bayes-Risiken
r
0
(.
|x
1
,...,x
n
)
(][(.), n) der einzelnen Entscheidungsfunktionen
n
(.) auf jeder Stufe n
IN
0
minimiert werden. Das heißt es m¨
ussen f¨
ur alle n
IN
0
die Bayes'schen Entschei-
dungsfunktionen
n
(.) gefunden werden, f¨
ur die gilt:
37
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) =
min
n
(.)
n
r
0
(.
|x
1
,...,x
n
)
(][(.), n)
(8.69)
bzw.
E
(.
|x
1
,...,x
n
)
(
L
l(
,
n
(x
1
, ..., x
n
), n)) = min
n
(.)
n
E
(.
|x
1
,...,x
n
)
(
L
l(
,
n
(x
1
, ..., x
n
), n)), (8.70)
wobei
n
die Menge der Entscheidungsfunktionen auf der Stufe n bezeichnet. Es ist
jedoch
r
0
(.
|x
1
,...,x
n
)
(][(.), n) =
L
l(,
n
(x
1
, ..., x
n
), n)(
|x
1
, ..., x
n
)d
=
l(,
n
(x
1
, ...x
n
))d + P (
{T = n} ·
n
i=1
c
i
= E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))) + P (
{T = n}·
n
i=1
c
i
.
(8.71)
Der erste Term im letzten Ausdruck in (8.71) ist der A-posteriori-Verlusterwartungswert,
dessen Minimierung nach (7.8) zu Bayes'schen Entscheidungen f¨
uhrt (vgl. Abschnitt
7.2). Der zweite Term ist f¨
ur festes n
IN eine Konstante, also unabh¨angig von
n
(.).
Es gen¨
ugt also zur Bestimmung einer Bayes'schen Entscheidungsfunktion
n
(.) auf der
Stufe n
IN den A-posteriori-Verlusterwartungswert E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
)))
gem¨
aß (7.8) zu minimieren. F¨
ur n = 0 entf¨
allt der zweite Term, da ohne Beobachtun-
gen auch keine Beobachtungskosten entstehen.
Hiermit ist das erste Teilproblem der Fragestellung bei einem sequentiellen Ent-
scheidungsproblem gel¨
ost: Mit ]
[(.) = (
n
(.))
n
IN
ist die gesuchte optimale Entschei-
dungsfunktionenfolge gefunden.
38
36
Vgl. Wald (1947b), S. 281, Wald (1950), S. 104, Wald / Wofowitz (1950), S. 86 f., Berger (1985),
S. 446, Ferguson (9167), S. 312.
37
Vgl. Berger (1985), S. 446, Ferguson, (1967), S. 314 f.
38
Vgl. Arrow / Blackwell / Girshick (1949), S. 214 f., Berger (1985), S. 447, Ferguson (1967), S.
314, Wetherill (1975), S. 143, Irle (1990), S. 75.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
279
Das zweite Teilproblem, n¨
amlich die Bestimmung einer optimalen Stoppzeit
(.),
wird Gegenstand der folgenden Abschnitte sein.
39
Bisher wurde nur der Fall scharfer Daten behandelt. Es soll eine Darstellung der
Konstrukton einer optimalen sequentiellen Fuzzy-Entscheidungsfunktion, die auf un-
scharfe Daten anwendbar ist, anschließen.
Vorausgesetzt wird ein parametrisches stochastisches Modell X
P
, X :
U, der Verteilungsparameter ist eine Zufallsvariable
auf dem messbaren Parame-
terraum (,
) mit der A-priori-Verteilung (.). ~
X ist eine verteilungstreue Fuzzy-
Perzeption von X. Eine Folge von unabh¨
angigen und identisch wie ~
X verteilten Fuzzy-
Zufallsvariablen ( ~
X
n
)
n
IN
liefert die Folge von Fuzzy-Daten ( ~
A
n
)
n
IN
(F(U))
IN
. ID
ist die Menge m¨
oglicher statistischer Entscheidungen. : U
IN
{0, 1, ..., } ist eine
Stoppzeit. Mit
n
wird die Menge aller Entscheidungsfunktionen
n
:
{T = n} ID
bzw.
n
: U
n
ID f¨ur n IN bezeichnet, und
o
ID, f¨ur jedes n IN f¨ur jedes
n
(.)
n
ist
n
(.) die Fuzzy-Extension von
n
(.):
n
:
F(U
n
)
F(ID)
( ~
A
1
, ..., ~
A
n
)
n
( ~
A
1
, ..., ~
A
n
)
gem¨
aß (8.4). IL
IR
+
0
ist eine Menge m¨
oglicher Verluste aufgrund statistischer Ent-
scheidungen in ID bei Vorliegen des Parameters
, gem¨aß (7.1) ist l : ×F(ID)
F(IL) die Fuzzy-Extension der Verlustfunktion l in der zweiten Komponente. Beschreibt
die Folge (c
n
)
n
IN
, c
n
IR
+
0
ur n
IN, wie im Fall scharfer Daten die Kosten der
Stichprobenerhebung, d.h. die Beobachtungskosten f¨
ur die n-te Beobachtung betra-
gen gerade c
n
, so kann analog zum scharfen Fall eine Fuzzy-Gesamtverlustfunktion
bestimmt werden, die den unscharfen Verlust aus einer Fuzzy-Entscheidung nach der
n-ten Beobachtung beschreibt:
L
l :
× F(ID) × IN F(IR
+
0
)
, ~
D, n
L
l
, ~
D, n
=
L
l
,
( ~
A
1
, ..., ~
A
n
) , n
:= l
,
( ~
A
1
, ..., ~
A
n
)
n
i=1
c
i
.
(8.72)
Es soll nun ein sequentielles Fuzzy-Entscheidungsverfahren gefunden werden, das
den insgesamt entstehenden Fuzzy-Verlust unscharf minimiert. In (8.63)-(8.66) wur-
de gezeigt, dass f¨
ur die Bestimmung eines optimalen sequentiellen Entscheidungsver-
fahrens (f¨
ur exakte Daten) ein wesentliches Teilproblem das Finden einer Folge von
(im Bayes'schen Sinne) optimalen Entscheidungsfunktionen ist, und dass diese Ent-
scheidungsfunktionen von der Stoppzeit unabh¨
angig sind. In (8.71) wurde schließlich
39
Bei Wald (1950), S. 106 ff. und Wald / Wolfowitz (1950), S. 87 ff., wird ein anderer Weg beschritten:
Zuerst wird eine Regel zur Bestimmung der optimalen Anzahl von Beobachtungen aufgestellt. Dann
wird die Optimalit¨
at der Entscheidungsfunktionen, die den hier vorgestellten entsprechen, mittels ei-
nes indirekten Beweises gezeigt (vgl. Wald / Wolfowitz (1950), S. S. 90 ff.). Weitere Eigenschaften der
Bayes'schen Entscheidungsfunktionen(folgen), welche f¨
ur die Konstruktion des SPRT als Bayes'sches
Verfahren herangezogen werden k¨
onnen (vgl. auch Abschnitt 8.6.2), werden bei Wald (1950), S. 110
ff., und Wald / Wolfowitz (1950), S. 93 ff., bewiesen. Wald (1947b), S. 283 ff., w¨
ahlt einen spieltheo-
retischen Zugang und operiert mit randomisierten Entscheidungsfunktionen.

280
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
gezeigt, dass die Bestimmung der optimalen Entscheidungsfunktionen auf jeder Stufe
sich auf die Minimierung von A-posteriori-Verlusterwartungswerten zur¨
uckf¨
uhren l¨
asst.
Fasst man f¨
ur n
IN die konkreten unscharfen Stichproben der L¨ange n als Fuzzy-
Mengen von konkreten scharfen Stichproben (x
1
, ..., x
n
)
U
n
auf, so k¨
onnen die Er-
gebnisse aus der Analyse des Falles scharfer Daten angewandt werden:
In Abschnitt 7.2 wurde gezeigt, dass man f¨
ur feste Stichprobenumf¨
ange n
IN
optimale Fuzzy-Entscheidungsfunktionen im Bayes'schen Sinn durch unscharfe
Minimierung der konvexen H¨
ulle des Fuzzy-A-posteriori-Verlusterwartungswertes
co
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
,
n
( ~
A
1
, ..., ~
A
n
)
(7.9)-(7.10) erh¨
alt. Ferner wurde im Satz
¨
uber Fuzzy-Extensionen von Bayes'schen Entscheidungsfunktionen (ebenfalls in Ab-
schnitt 7.2) nachgewiesen, dass die Fuzzy-Extension
n
(.) einer Bayes'schen Entschei-
dungsfunktion
n
(.) (n
IN) den konvexen Fuzzy-A-posteriori-Verlusterwartungswert
gem¨
aß (7.11) unscharf minimiert.
Es wird nun f¨
ur n
IN das unscharfe Risiko einer sofortigen Fuzzy-Entscheidung
nach den unscharfen Beobachtungen ( ~
A
1
, ..., ~
A
n
) ohne weitere Beobachtungen mit
~
r
~
~
(.
| ~
A
1
,..., ~
A
n
)
] [(.), n bezeichnet, d.h.
~
r
~
~
(.
| ~
A
1
,..., ~
A
n
)
] [(.), n := E
~
~
(.
| ~
A
1
,..., ~
A
n
)
L
l
~
,
n
( ~
A
1
, ..., ~
A
n
), n
=
l,
E
~
~
(.| ~
A1,..., ~
An)
(
L
l ( ~
,
n
( ~
A
1
,..., ~
A
n
),n))
(l) l IR
+
0
=
l,
E
~
~
(.| ~
A1,..., ~
An)
( l ( ~
,
n
( ~
A
1
,..., ~
A
n
)))
(l) l IR
+
0
n
i=1
c
i
=
r,
~
r
~
~
(.| ~
A1,..., ~
An)
(] [(.),n)
(r) r IR
+
0
(8.73)
mit
~
r
~
~
(.| ~
A1,..., ~
An)
(] [(.),n)
(r) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
r(.|x1,...,xn)(]
[(.),n)=
r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(8.74)
bzw.
E
~
~
(.| ~
A1,..., ~
An)
(
L
l ( ~
,
n
( ~
A
1
,..., ~
A
n
),n))
(l) =
E
~
~
(.| ~
A1,..., ~
An)
( l ( ~
,
n
( ~
A
1
,..., ~
A
n
)))
(l-
n
i=1
c
i
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
E(.|x1,...,xn)(Ll(,(x1,...,xn),n))=l
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
E(.|x1,...,xn)(l(,(x1,...,xn)))+
n
i=1
ci=l
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(8.75)
ur l IR
+
0
.
Gilt nun f¨
ur eine Folge von klassischen Bayes'schen Entscheidungsfunktionen
]
[(.) = (
n
(.))
n
IN
n IN die Bedingung
E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))) =
min
n
(.)
n
E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
)
(x
1
, ..., x
n
)
U
n
gem¨
aß (8.70), so gilt f¨
ur die Folge der Fuzzy-Extensionen
]
[(.) =
n
(.)
n
IN
:
co ~
r
~
~
(.
| ~
A
1
,..., ~
A
n
)
]
[(.), n
=
min
n
(.)
n
co ~
r
~
~
(.
| ~
A
1
,..., ~
A
n
)
] [(.), n
(8.76)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
281
n IN.
Das erste Teilproblem der sequentiellen Bayes'schen Entscheidungstheorie f¨
ur un-
scharfe Daten l¨
asst sich also reduzieren auf die Bestimmung von Bayes'schen Fuzzy-
Entscheidungsfunktionen, die in Kapitel 7 besprochen wurden
40
(bzw. auf die Bestim-
mung gew¨
ohnlicher Bayes'scher Entscheidungsfunktionen, deren Fuzzy-Extensionen die
gesuchten Bayes'schen Fuzzy-Entscheidungsfunktionen sind). Wurde f¨
ur alle n
IN die
Bayes'sche Entscheidungsfunktion bestimmt, so ist das erste Teilproblem gel¨
ost.
Das zweite Teilproblem, die Bestimmung einer optimalen, d.h. verlustminimieren-
den (scharfen) Stoppzeit beim Vorliegen unscharfer Daten, wird in den folgenden Ab-
schnitten behandelt.
Zur Vereinfachung wird in diesem Kapitel wiederum die durchgehende Annahme
getroffen, dass a priori vor Datenerhebung, wie am Ende von Abschnitt 6.1.4 angegeben,
keine Unsch¨
arfe angenommen wird. Der Fall n = 0 entspricht somit wiederum der
Darstellung f¨
ur scharfe Daten.
41
8.3
Verk¨
urzte sequentielle Bayes-Entscheidungs-
verfahren f¨
ur unscharfe Daten
8.3.1
Verk¨
urzte sequentielle Bayes-Verfahren
Ist eine Folge von Bayes'schen Entscheidungsfunktionen ]
[(.) = (
(.))
n
IN
gefun-
den, f¨
ur die auf jeder Stufe n
IN das Bayes-Risiko aus einer sofortigen Entschei-
dung r
0
(.
|x
1
,...,x
n
)
(][(.), n) gem¨
aß (8.69) bzw. der A-posteriori-Verlusterwartungswert
E
(.
|x
1
,...,x
n
)
(
L
l(
,
n
(x
1
, ..., x
n
))) gem¨
aß (8.70) minimal ist, so muss noch eine Stopp-
zeit
(.) gefunden werden, die das gesamte Bayes-Risiko r
(.)
((.)) = r
(.)
( (.), ]
[(.))
des Entscheidungsverfahrens (.) = ( (.), ]
[(.)) gem¨
aß (8.67)-(8.68) minimiert, d.h.
es muss gelten
42
r
(.)
(
)(.) = r
(.)
(
(.), ]
[(.)) =
min
{0,1,...,}
Un
r
(.)
( (.), ]
[(.))
Die L¨
osung dieses Problems ist wesentlich schwieriger als die Bestimmung einer
Folge von Bayes'schen Entscheidungsfunktionen. Die Hauptschwierigkeit besteht darin,
dass die Beobachtung von Daten im Allgemeinen unendlich oft fortgesetzt werden kann.
40
Bei Wald (1950), S. 8, werden Entscheidungsfunktionen bei vorgegebenem Stichprobenumfang
im Sinne von Kapitel 7 lediglich als wichtiger Spezialfall sequentieller Entscheidungsfunktionen
bezeichnet.
41
Eine Ausweitung der bisherigen und folgenden Ergebnisse auf Unsch¨
arfe im Fall n = 0 w¨
are
oglich, denn sind Entscheidungsfunktion und Stoppzeit bzw. Abbruchregel f¨
ur das jeweilige Ver-
fahren bekannt, so kann einerseits eine unscharfe Entscheidung getroffen werden, und andererseits
kann eine scharfe Stopzeit bzw. Abbruchregel auch f¨
ur unscharfe A-priori-Information unter Anwen-
dung der in Abschnitt 8.1.3 vorgestellten Verfahren bestimmt werden. An die Stelle der unscharfen
Dateninformation tritt dann die unscharfe A-priori-Information, die im Allgemeinen durch unscharfe
Hyperparameter bei der unscharfen A-priori-Verteilung gegeben ist (vgl. Abschnitt 6.1.4 und Viertl
(1996), S. 156 ff., bzw. die Variante zur Findung Bayes'scher Entscheidungsfunktionen bei Viertl
(1996), S. 174 f., die am Ende von Abschnitt 7.2 vorgestellt wurde).
42
Vgl. Berger (1985), S. 447, Ferguson (1967), S. 315.

282
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Eine erste N¨
aherung f¨
ur die L¨
osung erhalten wir, wie sp¨
ater gezeigt werden wird, wenn
Verfahren betrachtet werden, f¨
ur die der Stichprobenumfang durch eine Konstante
N > 0 nach oben beschr¨
ankt ist. Man spricht dann von verk¨
urzten Verfahren.
43
ur das weitere Vorgehen werden die folgenden Bezeichnungen eingef¨
uhrt:
44
Definition: Ausgegangen wird von einem parametrischen stochastisches Modell X
P
, X :
U, der Verteilungsparameter ist eine Zufallsvariable auf dem messbaren
Parameterraum (,
) mit der A-priori-Verteilung (.). F¨ur N IN ist X
1
, ..., X
N
eine
endliche Folge der L¨
ange N von unabh¨
angigen und identisch wie X verteilten Zufallsva-
riablen. ID ist eine Menge m¨
oglicher statistischer Entscheidungen,
i
= ID
U
ist die Men-
ge der statistischen Entscheidungsfunktionen auf der Stufe i
{1, ..., N}. c
1
, ..., c
N
IR
+
0
sind die Kosten der Erhebung der Zufallsvariablen X
1
, ..., X
N
. IL
IR
+
0
ist eine
Menge m¨
oglicher Verluste aus statistischen Entscheidungen in ID bei Vorliegen von Pa-
rametern in , die durch eine Verlustfunktion l :
×ID IL, beschrieben werden. Der
Gesamtverlust aus einer Entscheidung auf der Stufe i
{1, ..., N} (incl. Beobachtungs-
kosten) wird durch die Gesamtverlustfunktion
L
l :
× ID × IN IR
+
0
beschrieben. F¨
ur
i
{1, ..., N} ist
i
(.) die Bayes'sche Entscheidungsfunktion, die gegeben ist durch:
E
(.
|x
1
,...,x
n
)
(l(
,
i
(x
1
, ..., x
i
))) =
min
i
(.)
i
E
(.
|x
1
,...,x
n
)
(l(
,
i
(x
1
, ..., x
i
)))
(x
1
, ..., x
i
)
U
i
und ]
[(.) = (
0
,
1
(.), ...,
N
(.)). Nach n Beobachtungen (n
{0, ..., N}) liegen
die Daten (x
1
, ..., x
n
)
U
n
vor. Außerdem werden die folgenden Bezeichnunggen ein-
gef¨
uhrt:
Es ist f¨
ur
T
{n, ..., N}
E
X
1
,...,X
-
(E
(.
|X
1
,...,X
-
)
(
L
l(
,
T
(X
1
, ..., X
T
),
T
))
|X
1
= x
1
, ..., X
n
= x
n
)
=
E
(.
|x
1
,...,x
n
)
(
L
l(
,
n
(x
1
, ..., x
n
), n))
ur
T
= n
n+j
k=n+1(x
n+1
,...,x
k
)
{T=k}
n+1,...,k
E
(.
|x
1
,...,x
k
)
(
L
l(
,
k
(x
1
, ..., x
k
), k))
p
X
(x
n+1
, ..., x
k
|x
1
, ..., x
n
)
ur diskretes X
n+j
k=n+1
{T=k}
n+1,...,k
E
(.
|x
1
,...,x
k
)
(
L
l(
,
k
(x
1
, ..., x
k
), k))
f
X
(x
n+1
, ..., x
k
|x
1
, ..., x
n
)dx
n+1
...dx
k
ur stetiges X
ur
T
= (n + j)
{n + 1, ..., N}.
(8.77)
Dabei ist
f
X
(x
n+1
, ..., x
k
|x
1
, ..., x
n
) =
f (x
n+1
, ..., x
k
|)(|x
1
, ..., x
n
)d
=
f (x
n+1
, ..., x
k
|)
f (x
1
,...,x
n
|)()
f (x
1
,...,x
n
|)()d
d =
f (x
1
,...,x
n
,x
n+1
,...,x
k
|)()d
f (x
1
,...,x
n
|)()d
=
f
X
(x
1
,...,x
k
)
f
X
(x
1
,...,x
n
)
die gemeinsame Pr¨
adiktivdichte f¨
ur (x
n+1
, ..., x
k
) bedingt durch (x
1
, ..., x
n
) f¨
ur stetiges
X.
43
Vgl. Arrow / Blackwell / Girshick (1949), S. 215, Berger (1985), S. 448, Ferguson (1967), S. 315.
44
In Anlehnung an Wald (1950), S. 103 f., Wald / Wolfowitz (1950), S. 85 ff., Berger (1985), S. 448
f., Ferguson (1967), S. 316 f.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
283
Auf die gleiche Weise erh¨
alt man die gemeinsame Pr¨
adiktivwahrscheinlichkeitsvertei-
lung p
X
(x
n+1
, ..., x
k
|x
1
, ..., x
n
) f¨
ur (x
n+1
, ..., x
k
) bedingt durch (x
1
, ..., x
n
) f¨
ur diskretes
X.
Mit
{T = k}
n+1,...,k
werden die Komponenten n + 1, ..., k der Folgenmenge
{T = k}
bezeichnet.
(i) F¨
ur j
{0, ..., N - n} wird mit
r
j
(.
|x
1
,...,x
n
)
(]
[(.), n)
:=
min
T
{n,...,n+j}
E
X
1
,...,X
-
E
(.
|X
1
,...,X
-
)
(
L
l(
,
T
(X
1
, ..., X
T
),
T
))
X
1
= x
1
, ..., X
n
= x
n
=
min
T
{n,...,n+j}
T
k=n
E
X
n+1
,...,X
k
E
(.
|x
1
,...,x
n
,X
n+1
,...,X
k
)
(
L
l(
,
k
(x
1
, ..., x
n
, X
n+1
, ..., X
k
), k))
|
(x
1
, ..., x
n
, X
n+1
, ..., X
k
)
{T = k}|
U
k
=
min
T
{n,...,n+j}
T
k=n (x
n+1
,...,x
k
)
{T=k}
n+1,...,k
E
(.
|x
1
,...,x
n
,X
n+1
,...,X
k
)
(
L
l(
,
k
(x
1
, ..., x
n
, x
n+1
, ..., x
k
), k))
p
X
(x
n+1
, ..., x
k
|x
1
, ..., x
n
)
ur diskretes X
min
T
{n,...,n+j}
T
k=n
{T=k}
n+1,...,k
E
(.
|x
1
,...,x
n
,X
n+1
,...,X
k
)
(
L
l(
,
k
(x
1
, ..., x
n
, x
n+1
, ..., x
k
), k))
f
X
(x
n+1
, ..., x
k
|x
1
, ..., x
n
)dx
n+1
...dx
k
ur stetiges X
=
min
T
{n,...,n+j}
T
k=n (x
n+1
,...,x
k
)
{T=k}
n+1,...,k
L
l(,
k
(x
1
, ..., x
k
), k)
(
|x
1
, ..., x
k
)dp
X
(x
n+1
, ..., x
k
|x
1
, ..., x
n
)
ur diskretes X
min
T
{n,...,n+j}
T
k=n
{T=k}
n+1,...,k
L
l(,
k
(x
1
, ..., x
k
), k)
(
|x
1
, ..., x
k
)df
X
(x
n+1
, ..., x
k
|x
1
, ..., x
n
)dx
n+1
...dx
k
ur stetiges X
(8.78)
das Risiko bezeichnet, nach n Beobachtungen maximal j weitere Beobachtungen
zu erheben und danach zu entscheiden.
(ii) Speziell f¨
ur j = N
- n ist
r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
=
min
T
{n,...,N}
T
k=n
E
X
n+1
,...,X
k
E
(.
|x
1
,...,x
n
,X
n+1
,...,X
k
)
(
L
l(
,
k
(x
1
, ..., x
n
, X
n+1
, ..., X
k
), k))
|
(x
1
, ..., x
n
, X
n+1
, ..., X
k
)
{T = k}|
U
k
das Risiko, nach n Beobachtungen noch maximal die restlichen N
- n m¨oglichen
Beobachtungen zu machen.

284
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n) heißt Fortsetzungsrisiko des auf N verk¨
urzten sequentiellen
Verfahrens auf der Stufe n nach Beobachtung der Daten (x
1
, ..., x
n
).
(iii) Die Bezeichnung r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) f¨
ur das Risiko einer sofortigen Entschei-
dung auf der Stufe n ohne weitere Beobachtungen gem¨
aß (8.64) ist konsistent
mit der Bezeichnung der Risiken r
j
(.
|x
1
,...,x
n
)
(]
[(.), n) gem¨
aß (8.78)-(8.77) f¨
ur
j
{1, ..., N - n}. Man kann die Bezeichnung r
j
(.
|x
1
,...,x
n
)
(]
[(.), n) nach j = 0
fortsetzen durch:
r
j
(.
|x
1
,...,x
n
)
(]
[(.), n) =
E
(.
|x
1
,...,x
n
)
(
L
l(
,
n
(x
1
, ..., x
n
), n))
ur j = 0
min
T
{n,...,n+j}
T
k=n
E
X
n+1
,...,X
k
E
(.
|x
1
,...,x
n
,X
n+1
,...,X
k
)
(
L
l(
,
k
(x
1
, ..., x
n
, X
n+1
, ..., X
k
), k))
|
(x
1
, ..., x
n
, X
n+1
, ..., X
k
)
{T = k}|
U
k
ur j
{1, ..., N - n}
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) heißt Abbruchrisiko des sequentiellen Verfahrens auf der
Stufe n nach Beobachtung der Daten (x
1
, ..., x
n
).
Definition:
45
Unter den Voraussetzungen der Definition von Fortsetzungs- und Ab-
bruchrisiko f¨
ur das verk¨
urzte Verfahren wird die Stoppzeit
N
(x
1
, ..., x
N
) = min n
{0, ..., N}r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.79)
definiert. Das entsprechende verk¨
urzte Verfahren selbst wird mit
N
(.) = (
N
(.), ]
[(.))
(8.80)
bezeichnet. Die zugeh¨
orige Abbruchregel ]
N
[(.) = (
N n
)
n
{0,...,N}
ur das verk¨
urzte
Verfahren lautet:
N n
(x
1
, ..., x
n
) =
1 f¨
ur r
0
(.
|x
1
,...,x
n
)
(]
[(.), n)
r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
0 f¨
ur r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) > r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.81)
Satz:
46
Die in (8.79) definierte Stoppzeit
N
(.) ist eine Bayes'sche Stoppzeit f¨
ur das
verk¨
urzte Verfahren, d.h. eine Stoppzeit, f¨
ur die das Bayes-Risiko
r
(.
|x
1
,...,x
n
)
( (.), ]
[(.))
= P (
{T = 0})· r
0
(.)
(]
[(.), 0)+
N
n=1(x
1
,...,x
n
)
{T=n}|
Un
r
0
(
.
|x
1
,...,x
n
)
(]
[(.), n)
·p
X
(x
1
, ..., x
n
)
N
n=1
{T=n}|
Un
r
0
(
.
|x
1
,...,x
n
)
(]
[(.), n)
·f
X
(x
1
, ..., x
n
)dx
1
...dx
n
minimal ist. Das Verfahren
N
(.) = (
N
(.), ]
[(.)) nach (8.80) ist also ein Bayes'sches
verk¨
urztes Verfahren.
45
Vgl. Berger (1985), S. 449, Ferguson (1967), S. 317.
46
Vgl. Berger (1985), S. 449.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
285
Die Idee, die hinter (8.79) bzw. (8.81) steckt, ist die Folgende: Vor Beginn der
Stichprobenerhebung, d.h. auf der Stufe 0 vergleicht man das Risiko einer sofortigen
Entscheidung r
0
(.)
(]
[(.), 0), also das Abbruchrisiko auf der Stufe 0, mit dem Risiko
einer Entscheidung nach Erhebung der gesamten m¨
oglichen Stichprobe r
N
(.)
(]
[(.), 0),
also dem Fortsetzungsrisiko auf der Stufe 0. Sind die beiden gleich oder ist das Abbruch-
risiko kleiner, so wird keine Stichprobenerhebung durchgef¨
uhrt und sofort entschieden,
ist das Fortsetzungsrisiko kleiner, so wird X
1
beobachtet. Man erh¨
alt die Realisati-
on x
1
. Anschließend wird das Abbruchrisiko r
0
(.
|x
1
(]
[(.), n) auf der Stufe 1 mit dem
Fortsetzungsrisiko r
N
-1
(.
|x
1
)
(]
[(.), 1) auf der Stufe 1 verglichen, und danach entschie-
den oder X
2
beobachtet, etc. Dieser Vorgang wird fortgesetzt, bis f¨
ur ein n
{0, ..., N}
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n), oder bis der Stichprobenumfang die obere
Schranke N erreicht hat.
47
Eine Erleichterung f¨
ur die Berechnung der Fortsetzungsrisiken r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
bringt die im Folgenden hergeleitete Rekursionsformel.
Unter den Voraussetzungen der Definition der Risiken r
j
(.
|x
1
,...,x
n
)
(]
[(.), n) f¨
ur j
{0, ..., N}, n {0, ..., N - j} gilt f¨ur diese die Rekursionsformel:
48
r
j
(.
|x
1
,...,x
n
)
(]
[(.), n) = min r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) ,
E
X
n+1
r
j
-1
(.
|X
1
,...,X
n
,X
n+1
)
(]
[(.), n + 1) X
1
= x
1
, ..., X
n
= x
n
+ c
n+1
(8.82)
mit
E
X
n+1
r
j
-1
(.
|X
1
,...,X
n
,X
n+1
)
(]
[(.), n + 1) X
1
= x
1
, ..., X
n
= x
n
=
x
n+1
U
r
j
-1
(.
|x
1
,...,x
n
,x
n+1
)
(]
[(.), n + 1) p
X
(x
n+1
|x
1
, ..., x
n
)
(8.83)
ur diskretes X und
E
X
n+1
r
j
-1
(.
|X
1
,...,X
n
,X
n+1
)
(]
[(.), n + 1) X
1
= x
1
, ..., X
n
= x
n
=
U
r
j
-1
(.
|x
1
,...,x
n
,x
n+1
)
(]
[(.), n + 1) f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
(8.84)
ur stetiges X.
Ausf¨
uhrlich kann das Fortsetzungsrisiko r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n) auf der Stufe n dann an-
geschrieben werden als:
r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l(
,
(x
1
, ..., x
n
))),
x
n+1
U
min E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
(x
1
, ..., x
n
, x
n+1
))),
x
n+2
U
min E
(.
|x
1
,...,x
n
,x
n+1
,
n+2
)
(l(
,
(x
1
, ..., x
n
, x
n+1
, x
n+2
))),
...
x
N -1
U
min E
(.
|x
1
,...,x
n
,x
n+1
,...,x
N-1
)
(l(
,
(x
1
, ..., x
n
, x
n+1
, ..., x
N
-1
))),
47
Vgl. Wald (1950), S. 106 f., Wald / Wolfowitz (1950), S. 90 f., Beger (1985), S. 449.
48
Vgl. Wald (1950), S. 105, Wald / Wolfowitz (1950), S. 87 f., Hoeffding (160), S. 363, Berger (1985),
S. 449 f., Ferguson (1967), S. 316 f.

286
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
x
N
U
E
(.
|x
1
,...,x
n
,x
n+1
,...,x
N
)
(l(
,
(x
1
, ..., x
n
, x
n+1
, ..., x
N
)))
p
X
(x
N
|x
1
, ..., x
n
, x
n+1
, ..., x
N
-1
) + c
N
}
p
X
(x
N
-1
|x
1
, ..., x
n
, x
n+1
, ..., x
N
-2
) + c
N
-1
} ...
p
X
(x
n+2
|x
1
, ..., x
n
, x
n+1
) + c
n+2
} p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
} +
n
i=1
c
i
ur diskretes X und
r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l(
,
(x
1
, ..., x
n
))),
U
min E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
(x
1
, ..., x
n
, x
n+1
))),
U
min E
(.
|x
1
,...,x
n
,x
n+1
,
n+2
)
(l(
,
(x
1
, ..., x
n
, x
n+1
, x
n+2
))),
...
U
min E
(.
|x
1
,...,x
n
,x
n+1
,...,x
N-1
)
(l(
,
(x
1
, ..., x
n
, x
n+1
, ..., x
N
-1
))),
U
E
(.
|x
1
,...,x
n
,x
n+1
,...,x
N
)
(l(
,
(x
1
, ..., x
n
, x
n+1
, ..., x
N
)))
f
X
(x
N
|x
1
, ..., x
n
, x
n+1
, ..., x
N
-1
)dx
N
+ c
N
}
f
X
(x
N
-1
|x
1
, ..., x
n
, x
n+1
, ..., x
N
-2
)dx
N
-1
+ c
N
-1
} ...
f
X
(x
n+2
|x
1
, ..., x
n
, x
n+1
)dx
n+2
+ c
n+2
} f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
} +
n
i=1
c
i
ur stetiges X, wobei p
X
(x
k
|x
1
, ...x
k
-1
) bzw. f
X
(x
k
|x
1
, ...x
k
-1
) jeweils die Pr¨
adiktiv-
wahrscheinlichkeitsverteilung bzw. -dichte f¨
ur x
k
bedingt durch (x
1
, ..., x
k
-1
) ist, f¨
ur
k
{n + 1, ..., N}.
Die Rekursionsformel (8.82) kann durch R¨
uckw¨
artsinduktion nach j bewiesen werden
49
(hier nur f¨
ur stetiges X, f¨
ur diskretes X w¨
are der Beweis analog m¨
oglich).
Es seien bereits n = N
- 1 Beobachtungen (x
1
, ..., x
n
) gemacht worden, es ist
zun¨
achst j := 1. Es bestehen also die beiden M¨
oglichkeiten einer sofortigen Entschei-
dung oder einer Entscheidung nach Beobachtung von X
n+1
. Um die g¨
unstigere M¨
oglich-
keit w¨
ahlen zu k¨
onnen, werden die beiden Gr¨
oßen r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) (das Risiko ei-
ner sofortigen Entscheidung auf der Stufe n) und E
X
n+1
(r
0
(.
|X
1
,...,X
n
,X
n+1
)
(]
[(.), n +
1)
|X
1
= x
1
, ...X
n
= x
n
)
=
U
r
0
(.
|x
1
,...,x
n
,x
n+1
)
(]
[(.), n + 1)f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
=
U
E
(.
|x
1
,...,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n
, x
n+1
)))f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
+
n
i=1
c
i
(das zu erwartende Risiko einer Entscheidung nach der Beobachtung von X
n+1
unter
Einbeziehung der Beobachtungskosten) berechnet. Die Handlung mit dem kleineren Ri-
siko wird gew¨
ahlt. Wenn also die beiden M¨
oglichkeiten einer sofortigen Entscheidung
und einer Entscheidung nach einer weiteren Beobachtung zur Auswahl stehen, so lautet
das Gesamtrisiko auf dieser Stufe
r
1
(.
|x
1
,...,x
n
)
(]
[(.), n) = min r
0
(.
|x
1
,...,x
n
)
(]
[(.), n),
E
X
n+1
(r
0
(.
|X
1
,...,X
n
,X
n+1
)
(]
[(.), n + 1)
|X
1
= x
1
, ..., X
n
= x
n
)
49
Vgl. Berger (1985), S. 451 f., Ferguson (1967), S. 315 f.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
287
= min E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))),
U
E
(.
|x
1
,...,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n+1
)))f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
+
n
i=1
c
i
.
Es sei nun n < N
- 1 beliebig. Es sind also noch j := N - n Beobachtungen
oglich. W¨
are bereits die Zufallsvariable X
n+1
beobachtet worden, sodass noch j
-1 =
N
-(n+1) Beobachtungen m¨oglich w¨aren, so gelte laut Annahme die Rekursionsformel
r
j
-1
(.
|x
1
,...,x
n+1
)
(]
[(.), n + 1) = min r
0
(.
|x
1
,...,x
n+1
)
(]
[(.), n + 1),
E
X
n+2
(r
j
-2
(.
|X
1
,...,X
n+2
)
(]
[(.), n + 2)
|X
1
= x
1
, ..., X
n+1
= x
n+1
)
= min E
(.
|x
1
,...,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n+1
))),
U
min E
(.
|x
1
,...,x
n+2
)
(l(
,
n+2
(x
1
, ..., x
n+2
))), ...,
U
E
(.
|x
1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
N
)))f
X
(x
N
|x
1
, ..., x
N
-1
)dx
N
+ c
N
...
f
X
(x
n+2
|x
1
, ..., x
n+1
)dx
n+2
+ c
n+2
} +
n+1
i=1
c
i
.
Es m¨
ussen nun die beiden Risiken einer sofortigen Entscheidung nach n Beobach-
tungen und der Beobachtung einer weiteren Zufallsvariablen X
n+1
verglichen werden.
Beobachtung einer weiteren Zufallsvariablen hat zur Folge, dass man dann nur noch
die M¨
oglichkeit von j
- 1 weiteren Beobachtungen hat, das Risiko also dann gleich
r
j
-1
(.
|x
1
,...,x
n+1
)
(]
[(.), n + 1) ist.
Vor Beobachtung von X
n+1
ist das Gesamtrisiko der Aktion "X
n+1
beobachten" also
gleich
E
X
n+1
(r
j
-1
(.
|X
1
,...,X
n
,X
n+1
)
(]
[(.), n + 1)
|X
1
= x
1
, ..., X
n
= x
n
)
=
U
r
j
-1
(.
|x
1
,...,x
n+1
)
(]
[(.), n + 1)f
X
(x
n
+ 1
|x
1
, ...x
n
)dx
n+1
=
U
min E
(.
|x
1
,...,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n+1
))),
U
min E
(.
|x
1
,...,x
n+2
)
(l(
,
n+2
(x
1
, ..., x
n+2
))), ...,
U
E
(.
|x
1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
N
)))f
X
(x
N
|x
1
, ..., x
N
-1
)dx
N
+ c
N
...
f
X
(x
n+2
|x
1
, ..., x
n+1
)dx
n+2
+ c
n+2
} f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
+
n
i=1
c
i
.
Das Risiko einer sofortigen Entscheidung nach n Beobachtungen lautet definitions-
gem¨
aß r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))).
Das Gesamtrisiko nach n Beobachtungen, wenn j = N
- n weitere Beobachtungen
oglich sind, lautet somit
r
j
(.
|x
1
,...,x
n
)
(]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))),
U
min E
(.
|x
1
,...,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n+1
))), ...,
U
E
(.
|x
1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
N
)))f
X
(x
N
|x
1
, ..., x
N
-1
)dx
N
+ c
N
...
f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
} +
n
i=1
c
i
= min r
0
(.
|x
1
,...,x
n
)
(]
[(.), n), E
X
n+1
(r
j
-1
(.
|X
1
,...,X
n+1
)
(]
[(.), n + 1)
|X
1
= x
1
, ..., X
n
= x
n
)
q.e.d.
Bei den vorausgegangenen Ausf¨
uhrungen handelte es sich immer um das bei N

288
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
verk¨
urzte Verfahren
N
(.) = (
N
(.), ]
[(.)), dieses wurde jedoch nicht in Zusammen-
hang gebracht mit dem unendlich fortsetzbaren Verfahren
(.) = (
(.), ]
[(.)). Es
soll nun gezeigt werden, dass das Bayes-Risiko r
(.)
(
(.)) des Bayes'schen Verfahrens
(.) unter bestimmten Voraussetzungen mit Hilfe des Bayes-Risikos r
(.)
(
N
(.)) des
verk¨
urzten Bayes'schen Verfahrens
N
(.) f¨
ur große N approximiert werden kann.
50
Die Folge der Fortsetzungsrisiken r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
N
-n
(f¨
ur festes n
IN) ist
monoton fallend, d.h.
51
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n)
r
1
(.
|x
1
,...,x
n
)
(]
[(.), n)
r
2
(.
|x
1
,...,x
n
)
(]
[(.), n)
...
bzw.
r
k
(.
|x
1
,...,x
n
)
(]
[(.), n)
r
k+1
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.85)
ur k
IN. Es ist n¨amlich
r
1
(.
|x
1
,...,x
n+k
)
(]
[(.), n + k)
= min r
0
(.
|x
1
,...,x
n+k
)
(]
[(.), n + k),
E
X
k+1
(r
0
(.
|X
1
,...,X
n+k
,X
n+k+1
)
(]
[(.), n + k + 1)
|X
1
= x
1
, ..., X
n+k
= x
n+k
)
=
min E
(x
1
,...,x
n+k
)
(l(
,
n+k
(x
1
, ..., x
n+k
))),
x
n+k+1
U
E
(x
1
,...,x
n+k+1
)
(l(
,
n+k+1
(x
1
, ..., x
n+k+1
)))p
X
(x
n+k+1
|x
1
, ..., x
n+k
)
+c
n+k+1
} +
n+k
i=1
c
i
ur diskretes X
min E
(x
1
,...,x
n+k
)
(l(
,
n+k
(x
1
, ..., x
n+k
))),
U
E
(x
1
,...,x
n+k+1
)
(l(
,
n+k+1
(x
1
, ..., x
n+k+1
)))f
X
(x
n+k+1
|x
1
, ..., x
n+k
)dx
n+k+1
+c
n+k+1
} +
n+k
i=1
c
i
ur stetiges X
E
(x
1
,...,x
n+k
)
(l(
,
n+k
(x
1
, ..., x
n+k
))) +
n+k
i=1
c
i
= r
0
(.
|x
1
,...,x
n+k
)
(]
[(.), n + k)
(d.h. durch die M¨
oglichkeit, eine weitere Zufallsvariable zu beobachten, wird das Risiko
verringert oder bleibt gleich, es wird aber nicht erh¨
oht).
Daher ist
r
k+1
(.
|x
1
,...,x
n
)
(]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))),
x
n+1
U
min E
(.
|x
1
,...,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n+1
))), ...
x
n+k
U
min E
(.
|x
1
,...,x
n+k
)
(l(
,
n+k
(x
1
, ..., x
n+k
))),
x
n+k+1
U
E
(.
|x
1
,...,x
n+k+1
)
(l(
,
n+k+1
(x
1
, ..., x
n+k+1
)))p
X
(x
n+k+1
|x
1
, ..., x
n+k
)
+c
n+k+1
} p
X
(x
n+k
|x
1
, ..., x
n+k
-1
) + c
n+k
} ...p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
} +
n
i=1
c
i
min E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))),
x
n+1
U
min E
(.
|x
1
,...,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n+1
))),
...
x
n+k
U
E
(.
|x
1
,...,x
n+k
)
(l(
,
n+k
(x
1
, ..., x
n+k
)))p
X
(x
n+k
|x
1
, ..., x
n+k
-1
) + c
n+k
50
Vgl. Ferguson (1967), S. 317.
51
Vgl. Ferguson (1967), S. 318.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
289
...p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
} +
n
i=1
c
i
= r
k
(.
|x
1
,...,x
n
)
(]
[(.), n)
bzw.
r
k+1
(.
|x
1
,...,x
n
)
(]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))),
U
min E
(.
|x
1
,...,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n+1
))), ...
U
min E
(.
|x
1
,...,x
n+k
)
(l(
,
n+k
(x
1
, ..., x
n+k
))),
U
E
(.
|x
1
,...,x
n+k+1
)
(l(
,
n+k+1
(x
1
, ..., x
n+k+1
)))f
X
(x
n+k+1
|x
1
, ..., x
n+k
)dx
n+k+1
+c
n+k+1
} f
X
(x
n+k
|x
1
, ..., x
n+k
-1
)dx
n+k
+ c
n+k
} ...f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
}
+
n
i=1
c
i
min E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))),
U
min E
(.
|x
1
,...,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n+1
))),
...
U
E
(.
|x
1
,...,x
n+k
)
(l(
,
n+k
(x
1
, ..., x
n+k
)))f
X
(x
n+k
|x
1
, ..., x
n+k
-1
)dx
n+k
+ c
n+k
...f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
} +
n
i=1
c
i
= r
k
(.
|x
1
,...,x
n
)
(]
[(.), n).
Da die Risiken alle nichtnegativ sind, (r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
0 N n), folgt aus der
Monotonie der Folge r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
N
n
die Konvergenz (monoton fallend und
nach unten beschr¨
ankt), und es ist
min
N
n
r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
r
(.
|x
1
,...,x
n
)
(]
[(.), n) .
Durch die Anwendung verk¨
urzter Verfahren zur Approximation unendlich fortsetz-
barer Verfahren wird somit das Fortsetzungsrisiko an an jeder Stufe n
{0, ..., N}
¨
ubersch¨
atzt. Dies bedeutet insbesondere, dass das Fortsetzungsrisiko auch auf der Stufe
0 ¨
ubersch¨
atzt wird, d.h. r
N
(.)
(]
[(.), 0)
r
(.)
(]
[(.), 0) = r
(.)
(
(.)) = r
(.)
(
(.), ]
[(.)).
Dabei ist das Fortsetzungsrisiko auf der Stufe 0
r
N
(.)
(]
[(.), 0) =
min E
(.)
(l(
,
0
)),
x
1
U
min E
(.
|x
1
)
(l(
,
1
(x
1
))), ...
x
N
U
E
(.
|x
1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
N
)))p
X
(x
N
|x
1
, ..., x
N
-1
) + c
N
} ...p
X
(x
1
) + c
1
}
min E
(.)
(l(
,
0
)),
U
min E
(.
|x
1
)
(l(
,
1
(x
1
))), ...
U
E
(.
|x
1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
N
)))f
X
(x
N
|x
1
, ..., x
N
-1
)dx
N
+ c
N
} ...f
X
(x
1
)dx
1
+ c
1
}
gleich dem Gesamtrisiko des verk¨
urzten Verfahrens r
(.)
(
N
(.)) = r
(.)
(
N
(.), ]
[(.)),
d.h. es ist
r
N
(.)
(]
[(.), 0) = r
(.)
(
N
(.)).
(8.86)
Somit ist
52
r
(.)
(
N
(.))
r
(.)
(
(.))
N IN.
(8.87)
Eine hinreichende Bedingung daf¨
ur, dass die Folge der Bayes-Risiken der verk¨
urzten
Verfahren (r
(.)
(
N
(.)))
N
IN
gegen das Bayes-Risiko des unedlich fortsetzbaren Verfah-
rens r
(.)
(
(.)) konvergiert, liefert der folgende Satz:
Satz:
53
Ist der Verlust aus einer falschen Entscheidung durch eine Verlustfunktion l :
× ID IL, IL IR
+
0
, mit min
d
ID
l(, d) = 0 gegeben, bezeichnet ]
[(.) = (
n
(.))
n
IN
52
Vgl. Wald (1950), S. 106, Wald / Wolfowitz (1950), S. 88, Hoeffding (1960), S. 363, Berger (1985),
S. 451 u. S. 462, Ferguson (1985), S. 318.
53
Vgl. Berger (1985), S. 467, Ferguson (1967), S. 318.

290
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
die Folge der Bayes'schen Entscheidungen auf jeder Stufe n
IN, dann gilt, falls f¨ur
die Folge der Risiken
(r
(.),n
(X
1
, ..., X
n
))
n
IN
:= (E
(.)
(E
(l(
,
n
(X
1
, ..., X
n
)))))
n
IN
= (E
X
1
...X
n
(E
(.
|X
1
,...,X
n
)
(l(
,
n
(X
1
, .., X
n
)))))
n
IN
die Bedingung lim
n
r
(.),N
(X
1
, ..., X
n
) = 0 erf¨
ullt ist, oder falls die Verlustfunktion
l(, d) <
beschr¨ankt ist, auch:
lim
N
r
(.)
(
N
(.)) = r
(.)
(
(.))
(8.88)
ur den Beweis soll an dieser Stelle lediglich auf Berger und Ferguson
54
verwiesen
werden.
Auch unter schw¨
acheren Bedingungen als lim
n
r
(.),n
(X
1
, ..., X
n
) = 0 ist eine
Konvergenz von r
(.)
(
N
(.)) gegen r
(.)
(
(.)) gegeben.
55
Interessant ist an dieser Stelle eine Betrachtung der Stoppzeiten der verk¨
urzten und
der unendlich fortgesetzten Verfahren. Es gilt dabei
56
T
N
T
bzw. die Folge der Stoppzeiten (
T
N
)
n
IN
der verk¨
urzten Verfahren ist monoton wach-
send:
0 =
T
0
T
1
T
2
...
bzw.
T
N
T
N +1
(8.89)
ur N
IN
0
. Wegen
r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
r
N +1
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
n N
ist n¨
amlich
T
N
= min n
{0, ..., N}|r
0
(.
|x
1
,...,x
n
)
(]
[(.), n)
r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
min n {0, ..., N}|r
0
(.
|x
1
,...,x
n
)
(]
[(.), n)
r
N +1
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
=
T
N +1
.
Die ¨
Ubersch¨
atzung des Fortsetzungsrisikos f¨
uhrt also zum vorzeitigen Abbruch des
Verfahrens.
Es ist auch m¨
oglich, dass ein urspr¨
unglich als unendlich fortsetzbar angenommenes
Verfahren sinnvollerweise nur bis zu einer Schranke N
IN fortzusetzen ist, und zwar
wenn f¨
ur alle j
N und f¨ur alle (x
1
, ..., x
j
)
U
j
r
0
(.
|x
1
,...,x
j
)
(]
[(.), j)
E
X
j+1
(r
0
(.
|x
1
,...,x
j
,X
j+1
)
(]
[(.), j + 1))
(8.90)
gilt, wobei der Erwartungswert E
X
j+1
bez¨
uglich der Pr¨
adiktivdichte f
X
(.
|x
1
, ..., x
j
) zu
bilden ist. In diesem Fall ist die L¨
osung des bei N verk¨
urzten Verfahrens zugleich auch
die L¨
osung des urspr¨
unglichen unendlich fortsetzbaren Verfahrens.
57
54
Vgl. Berger (1985), S. 467 f., Ferguson (1967), S. 318. Weitere Beweise f¨
ur die Konvergenz finden
sich bei Wald (1950), S. 106, Wald / Wolfowitz (1950), S. 88, Hoeffding (1960), S. 364 ff.
55
Vgl. Berger (1985), 468 f.
56
Vgl. Berger (1985), S. 467, Ferguson (1967), S. 318.
57
Vgl. Berger (1985), S. 455, Ferguson (1967), S. 322.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
291
8.3.2
Verk¨
urzte sequentielle Bayes-Verfahren f¨
ur unscharfe
Daten
Die Ergebnisse aus der Analyse scharfer Daten sollen nun zur Bestimmung Bayes'scher
Stoppzeiten f¨
ur verk¨
urzte Verfahren beim Vorliegen unscharfer Daten angewandt wer-
den.
Vor Beginn der Beobachtung liegt noch keine Unsch¨
arfe vor. Zuerst wird das Risiko
einer Entscheidung ohne Beobachtung
r
0
(.)
(]
[(.), 0) = E
(.)
(l(
,
0
)) =
l(,
0
)()d
mit dem Risiko der Erhebung der gesamten Stichprobe vom Umfang N
r
N
(.)
(]
[(.), 0) = min
k
N
k=1
E
X
1
,...,X
k
|
{T=k}|
Uk
E
(.
|X
1
,...,X
k
)
(
L
l(
,
k
(X
1
, ..., X
k
), k))
=
min
k
N
k=1 (x
1
,...,x
k
)
{T=k}|
Uk
E
(.
|x
1
,...,x
k
)
(l (
,
k
(x
1
, ..., x
k
))) p
X
(x
1
, ..., x
k
) + c
k
min
k
N
k=1
{T=k}|
Uk
E
(.
|x
1
,...,x
k
)
(l (
,
k
(x
1
, ..., x
k
))) f
X
(x
1
, ..., x
k
)dx
1
...dx
k
+ c
k
verglichen. Ist letzteres kleiner, so wird X
1
beobachtet. Ist nun ~
X
1
eine verteilungstreue
Fuzzy-Perzeption von X
1
, die die Fuzzy-Realisation ~
A
1
F(U) liefert, dann wird f¨ur
jedes x
1
supp(~A
1
) das Abbruchrisiko
r
(.
|x
1
)
(]
[(.), 1) = E
(.
|x
1
)
(l(
,
1
(x
1
))) + c
1
(8.91)
und das Fortsetzungsrisiko
r
N
-1
(.
|x
1
)
(]
[(.),1) = min E
(.
|x
1
)
(l(
,
1
(x
1
))),
x
2
U
min E
(.
|x
1
,x
2
)
(l(
,
2
(x
1
, x
2
)))
...
x
N
U
E
(.
|x
1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
N
)))p
X
(x
N
|x
1
, ..., x
N
-1
) + c
N
... p
X
(x
2
|x
1
) + c
2
+ c
1
(8.92)
(diskretes X) bzw.
r
N
-1
(.
|x
1
)
(]
[(.),1) = min E
(.
|x
1
)
(l(
,
1
(x
1
))),
U
min E
(.
|x
1
,x
2
)
(l(
,
2
(x
1
, x
2
)))
...
U
E
(.
|x
1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
N
)))f
X
(x
N
|x
1
, ..., x
N
-1
)dx
N
+ c
N
... f
X
(x
2
|x
1
)dx
2
+ c
2
+ c
1
(8.93)
(stetiges X) berechnet. Insgesamt erh¨
alt man ein unscharfes Abbruchrisiko
~
r
0
~
~
(.
| ~
A
1
)
]
[(.), 1 =
r,
~
r
0
~
~
(.| ~
A1)
(]
[(.),1)
(r) r IR
+
0
,
~
r
0
~
~
(.| ~
A1)
(]
[(.),1)
(r) =
sup
x
1
supp( ~
A
1
):r
0
(.|x1)
(]
[(.),1)=r
~
A
1
(x
1
)
(8.94)

292
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
und ein unscharfes Fortsetzungsrisiko
~
r
N
-1
~
~
(.
| ~
A
1
)
]
[(.), 1 =
r,
~
r
N-1
~
~
(.| ~
A1)
(]
[(.),1)
(r) r IR
+
0
,
~
r
N-1
~
~
(.| ~
A1)
(]
[(.),1)
(r) =
sup
x
1
supp( ~
A
1
):r
N-1
(.|x1)
(]
[(.),1)=r
~
A
1
(x
1
)
.
(8.95)
Das unscharfe Fortsetzungsrisiko (8.92)-(8.93) und (8.95) ist somit eine Anwendung der
Fuzzy-Schar von Pr¨
adiktivdichten (6.38)-(6.43), die in Abschnitt 6.2 eingef¨
uhrt wurde.
Man kann die konvexe H¨
ulle des unscharfen Fortsetzungsrisikos auf der Stufe 1 daher
auch, wie folgt, anschreiben:
co ~
r
N
-1
~
~
(.
| ~
A
1
)
(]
[(.), 1)
= min co
E
~
~
(.
| ~
A
1
)
( l ( ~
1
( ~
A
1
))) ,
co
x
2
U
min E
(.
|x
1
,x
2
)
(l(
,
2
(x
1
, x
2
)), ...
x
N
U
E
(.
|x
1
,x
2
,...,x
N
)
(l(
,
N
(x
1
, x
2
, ..., x
N
)))
p
X
(x
N
|x
1
, x
2
, ..., x
N
-1
) + c
N
...
p
X
(x
2
|x
1
) + c
2
,
~
A
1
(x
1
)
x
1
supp(~A
1
)
c
1
(8.96)
ur diskretes X bzw.
co ~
r
N
-1
~
~
(.
| ~
A
1
)
(]
[(.), 1)
= min co
E
~
~
(.
| ~
A
1
)
( l ( ~
1
( ~
A
1
))) ,
co
U
min E
(.
|x
1
,x
2
)
(l(
,
2
(x
1
, x
2
)), ...
U
E
(.
|x
1
,x
2
,...,x
N
)
(l(
,
N
(x
1
, x
2
, ..., x
N
)))
f
X
(x
N
|x
1
, x
2
, ..., x
N
-1
)dx
N
+ c
N
...
f
X
(x
2
|x
1
)dx
2
+ c
2
,
~
A
1
(x
1
)
x
1
supp(~A
1
)
c
1
(8.97)
ur stetiges X.
In Abschnitt 8.1.3 in (8.15)-(8.42) wurden verschiedene M¨
oglichkeiten zur Bestim-
mung optimaler Stoppzeiten bei unscharfen Daten vorgestellt. Je nachdem, welche
Methode f¨
ur die Stoppzeit angewandt wird, ist nun eine unterschiedliche Auswertung
der Ergebnisse notwendig. Bevor jedoch die einzelnen F¨
alle, in denen abgebrochen
oder fortgesetzt wird, behandelt werden, sollen zun¨
achst die unscharfen Risiken (8.91)-
(8.96) von dem Spezialfall n = 1 auf allgemeines n erweitert werden. Es wird also
angenommen, aufgrund der gew¨
ahlten Methode f¨
ur die Stoppzeit sind nun bereits n
Beobachtungen durchgef¨
uhrt worden, die die unscharfen Daten ( ~
A
1
, ..., ~
A
n
) lieferten.
In dem verk¨
urzten Verfahren sind noch N
- n weitere Beobachtungen m¨oglich.
Es wird nun f¨
ur alle (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) das Abbruchrisiko
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))) +
n
i=1
c
i
(8.98)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
293
und das Fortsetzungsrisiko
r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))),
x
n+1
U
min E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n
, x
n+1
))), ...
x
N
U
E
(.
|x
1
,...,x
n
,x
n+1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
n
, x
n+1
, ..., x
N
)))
p
X
(x
N
|x
1
, ..., x
n
, x
n+1
, ..., x
N
-1
) + c
N
} ...
p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
} +
n
i=1
c
i
(8.99)
ur diskretes X und
r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))),
U
min E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n
, x
n+1
))), ...
U
E
(.
|x
1
,...,x
n
,x
n+1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
n
, x
n+1
, ..., x
N
)))
f
X
(x
N
|x
1
, ..., x
n
, x
n+1
, ..., x
N
-1
)dx
N
+ c
N
} ...
f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
} +
n
i=1
c
i
(8.100)
ur stetiges X berechnet. Man erh¨
alt nun wiederum ein unscharfes Abbruchrisiko
~
r
0
~
~
(.
| ~
A
1
,..., ~
A
n
)
]
[(.), n =
r,
~
r
0
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r) r IR
+
0
,
~
r
0
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
r0
(.|x1,...,xn)
(][(.),n)=r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(8.101)
und ein unscharfes Fortsetzungsrisiko
~
r
N
-n
~
~
(.
| ~
A
1
,..., ~
A
n
)
]
[(.), n =
r,
~
r
N -n
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r) r IR
+
0
,
~
r
N-n
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
rN-n
(.|x1,...,xn)
(][(.),n)=r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(8.102)
Das unscharfe Abbruchrisiko an der Stelle n ist gerade gleich dem mittels der Fuzzy-
Schar von A-posteriori-Verteilungen gebildeten konvexen Fuzzy-Verlusterwartungswert
zuz¨
uglich den Beobachtungskosten bis zur n-ten Beobachtung:
~
r
0
~
~
(.
| ~
A
1
,..., ~
A
n
)
]
[(.), n = E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
,
n
( ~
A
1
, ..., ~
A
n
)
n
i=1
c
i
(8.103)
Die konvexe H¨
ulle des unscharfen Fortsetzungsrisikos kann wiederum mit Hilfe der

294
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Fuzzy-Schar von Pr¨
adiktivwahrscheinlichkeitsfunktionen f¨
ur diskretes X:
co ~
r
N
-n
~
~
(.
| ~
A
1
,..., ~
A
n
)
(]
[(.), n) = min co
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( l (~
,
n
( ~
A
1
, ..., ~
A
n
))) ,
co
x
n+1
U
min E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n
, x
n+1
))) , ...
x
N
U
E
(.
|x
1
,...,x
n
,x
n+1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
n
, x
n+1
, ..., x
N
)))
p
X
(x
N
|x
1
, ..., x
n
, x
n+1
, ..., x
N
-1
) + c
N
...
p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
, min
~
A
1
(x
1
), ...,
~
A
1
(x
n
)
x
1
supp(~A
1
), ..., x
n
supp(~A
n
)
n
i=1
c
i
(8.104)
bzw. Pr¨
adiktivdichten f¨
ur stetiges X angeschrieben werden:
co ~
r
N
-n
~
~
(.
| ~
A
1
,..., ~
A
n
)
(]
[(.), n) = min co
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( l (~
,
n
( ~
A
1
, ..., ~
A
n
))) ,
co
U
min E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n
, x
n+1
))) , ...
U
E
(.
|x
1
,...,x
n
,x
n+1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
n
, x
n+1
, ..., x
N
)))
f
X
(x
N
|x
1
, ..., x
n
, x
n+1
, ..., x
N
-1
)dx
N
+ c
N
...
f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
, min
~
A
1
(x
1
), ...,
~
A
1
(x
n
)
x
1
supp(~A
1
), ..., x
n
supp(~A
n
)
n
i=1
c
i
(8.105)
Die Pr¨
adiktivwahrscheinlichkeitsfunktionen p
X
(.
|x
1
, ..., x
n
, x
n+1
, ..., x
N
-1
) bzw. Pr¨
adik-
tivdichten p
X
(.
|x
1
, ..., x
n
, x
n+1
, ..., x
N
-1
) in (8.104)-(8.105) sind unscharfe Elemente der
Fuzzy-Scharen ~
~
p
X
(.
|~A
1
, ..., ~
A
n
, x
n+1
, ..., x
N
-1
) bzw.
~~
f
X
(.
|~A
1
, ..., ~
A
n
, x
n+1
, ..., x
N
-1
). Die
Fuzzy-Scharen enthalten sowohl scharfe als auch unscharfe Daten, es geht dabei um
die Prognosewahrscheinlichkeits- bzw. -dichtefunktion f¨
ur x
N
beim Vorliegen der Daten
( ~
A
1
, ..., ~
A
n
, x
n+1
, ..., x
N
). Die scharfen Daten k¨
onnen hier aufgefasst werden als Sonder-
fall der unscharfen Daten. Die Mischform kommt hier dadurch zustande, dass die Daten
( ~
A
1
, ..., ~
A
n
) bereits erhoben wurden, in diesem Bereich also A-posteriori-Betrachtung
vorliegt, w¨
ahrend die Daten (x
n+1
, ..., x
N
-1
) a priori f¨
ur die Berechnung des zu erwar-
tenden Risikos herangezogen werden.
Nun soll f¨
ur die verschiedenen Methoden zur Bestimmung einer scharfen Stopp-
zeit beim Vorliegen unscharfer Daten die Abbruchregel bzw. die Stoppzeit angegeben
werden, die Auskunft dar¨
uber gibt, ob in dem bei N verk¨
urzten Verfahren nach der Er-
hebung von n unscharfen Beobachtungen ( ~
A
1
, ..., ~
A
n
) das Verfahren abgebrochen oder
fortgesetzt werden soll.
(i) Stoppzeit nach der Tr¨
agertangentialmethode:
Bei Anwendung der Stoppzeit nach der Tr¨
agertangentialmethode wird das Ver-
fahren nach der n-ten Beobachtung abgebrochen, wenn
N,n
( ~
A
1
, ..., ~
A
n
) = 1
:
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n).
(8.106)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
295
Es wird fortgesetzt, wenn
N,n
( ~
A
1
, ..., ~
A
n
) = 0
:
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) > r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n).
(8.107)
Die Stoppzeit nach der Tr¨
agertangentialmethode lautet somit
T
N
= min n
{0, ..., N} (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n) .
(8.108)
(ii) Stoppzeit nach der Tr¨
agerinklusionsmethode:
Bei Anwendung der Stoppzeit nach der Tr¨
agerinklusionsmethode wird das Ver-
fahren nach der n-ten Beobachtung abgebrochen, wenn
N,n
( ~
A
1
, ..., ~
A
n
) = 1
:
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n).
(8.109)
Es wird fortgesetzt, wenn
N,n
( ~
A
1
, ..., ~
A
n
) = 0
:
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) > r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n).
(8.110)
Die Stoppzeit nach der Tr¨
agerinklusionsmethode lautet somit
T
N
= min n
{0, ..., N} (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n) .
(8.111)
(iii) Stoppzeit nach der Kerntangentialmethode:
Bei Anwendung der Stoppzeit nach der Kerntangentialmethode wird das Verfah-
ren nach der n-ten Beobachtung abgebrochen, wenn
N,n
( ~
A
1
, ..., ~
A
n
) = 1
:
(x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n).
(8.112)
Es wird fortgesetzt, wenn
N,n
( ~
A
1
, ..., ~
A
n
) = 0
:
(x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) > r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n).
(8.113)
Die Stoppzeit nach der Kerntangentialmethode lautet somit
T
N
= min n
{0, ..., N} (x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n) .
(8.114)

296
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(iv) Stoppzeit nach der Kerninklusionsmethode:
Bei Anwendung der Stoppzeit nach der Kerninklusionsmethode wird das Verfah-
ren nach der n-ten Beobachtung abgebrochen, wenn
N,n
( ~
A
1
, ..., ~
A
n
) = 1
:
(x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n).
(8.115)
Es wird fortgesetzt, wenn
N,n
( ~
A
1
, ..., ~
A
n
) = 0
:
(x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) > r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n).
(8.116)
Die Stoppzeit nach der Kerninklusionsmethode lautet somit
T
N
= min n
{0, ..., N} (x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n) .
(8.117)
(v) Stoppzeit nach der -Niveautangentialmethode:
Bei Anwendung der Stoppzeit nach der -Niveautangentialmethode wird das Ver-
fahren nach der n-ten Beobachtung abgebrochen, wenn
N,n
( ~
A
1
, ..., ~
A
n
) = 1
:
(x
1
, ..., x
n
)
A
1
× ... × A
n
:
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n).
(8.118)
Es wird fortgesetzt, wenn
N,n
( ~
A
1
, ..., ~
A
n
) = 0
:
(x
1
, ..., x
n
)
A
1
× ... × A
n
:
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) > r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n).
(8.119)
Die Stoppzeit nach der -Niveautangentialmethode lautet somit
T
N
= min
{n {0, ..., N} |(x
1
, ..., x
n
)
A
1
× ... × A
n
:
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n) .
(8.120)
(vi) Stoppzeit nach der -Niveauinklusionsmethode:
Bei Anwendung der Stoppzeit nach der -Niveautangentialmethode wird das Ver-
fahren nach der n-ten Beobachtung abgebrochen, wenn
N,n
( ~
A
1
, ..., ~
A
n
) = 1
:
(x
1
, ..., x
n
)
A
1
× ... × A
n
:
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n).
(8.121)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
297
Es wird fortgesetzt, wenn
N,n
( ~
A
1
, ..., ~
A
n
) = 0
:
(x
1
, ..., x
n
)
A
1
× ... × A
n
:
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) > r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n).
(8.122)
Die Stoppzeit nach der -Niveauinklusionsmethode lautet somit
T
N
= min
{n {0, ..., N} |(x
1
, ..., x
n
)
A
1
× ... × A
n
:
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n) .
(8.123)
(vii) Stoppzeit nach der Kardinalit¨
atsmethode:
Bei Anwendung Stoppzeit nach der Kardinalit¨
atsmethode wird das Verfahren
nach der n-ten Beobachtung abgebrochen, wenn
(card)
N,n
( ~
A
1
, ..., ~
A
n
) = 1
:
card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
~A
1
... ~A
n
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
~A
1
... ~A
n
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) > r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
.
(8.124)
Es wird fortgesetzt, wenn
(card)
N,n
( ~
A
1
, ..., ~
A
n
) = 0
:
card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
~A
1
... ~A
n
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
< card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
~A
1
... ~A
n
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) > r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
.
(8.125)
Die Stoppzeit nach der Kardinalit¨
atsmethode lautet somit
T (card)
N
= min n
{0, ..., N}
card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
~A
1
... ~A
n
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
~A
1
... ~A
n
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) > r
N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
.
(8.126)
Ein Ansatz f¨
ur sequentielle Bayes'sche Tests mit unscharfen Daten, der zu schar-
fen Entscheidungen f¨
uhrt, und der auf den scharfen Wahrscheinlichkeiten (4.57) f¨
ur
unscharfe Ereignisse ~
A
U von Zadeh beruht, wird von Casals vorgeschlagen. Casals
und Salas
58
befassen sich mit dem Testen von scharfen einfachen Hypothesen, Casals
und Gil
59
erweitern den urspr¨
unglichen Ansatz auf das Testen von unscharfen Hypo-
thesen. Die sequentiellen Bayes-Tests von Casals setzen die Ans¨
atze zu Bayes-Tests f¨
ur
58
Vgl. Casals / Salas (1988), S. 314 ff.
59
Vgl. Casals / Gil (1994), S. 283 ff.

298
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
scharfe Hypothesen mit unscharfen Daten von Casals, Gil und Gil
60
bzw. Bayes-Tests
ur unscharfe Hypothesen mit unscharfen Daten von Casals
61
fort.
Im einfachsten Fall ist der Stichprobenraum eine unscharfe Partition
N
, auf der
die Orthogonalit¨
atsbedingung
~
A
N
~
A
(x) = 1
x U erf¨ullt ist.
62
ur die unschar-
fen Ereignisse ~
A
N
wird die von Zadeh vorgeschlagene exakte Wahrscheinlich-
keit (4.57) gebildet: Ist auf U eine parametrische Dichtefunktion f (.
|) (im stetigen
Fall) gegeben, so ist die Wahrscheinlichkeit P
( ~
A) des unscharfen Ereignisses ~
A gleich
P
( ~
A) =
U
~
A
(x)f (x
|)dx. Unter Zugrundelegung eines unscharfen Parameters ~ ist
P
~
( ~
A) =
U
p(x
|)
~
A
(x)
~
()
~
()d
d.
Im Fall des Testens von exakten Hypothesen wird von zwei m¨
oglichen exakten
Parametern
0
und
1
ausgegangen, f¨
ur welche A-priori-Wahrscheinlichkeiten (
0
)
und (
1
) = 1
- (
0
) gegeben sind.
63
Im Fall des Testens von unscharfen Hypothe-
sen liegen zwei unscharfe Parameter ~
0
bzw. ~
1
vor, f¨
ur welche die exakten A-priori-
Wahrscheinlichkeiten durch (~
) =
~
()()d, ~
{ ~
0
, ~
1
}, mit (~
0
) + (~
1
) = 1
gegegeben sind.
64
Im Folgenden wird nur auf den Fall unscharfer Hypothesen eingegan-
gen, da sich die entsprechenden Aussagen f¨
ur scharfe Hypothesen als Spezialfall daraus
ergeben.
Unabh¨
angigkeit der Ereignisse liegt vor, wenn P
~
( ~
A
1
, ..., ~
A
n
) = P
~
( ~
A
1
)
·...·P
~
( ~
A
n
) ist.
Die A-posteriori-Wahrscheinlichkeit des unscharfen Parameters ~
{~
0
, ~
1
} bei Vorlie-
gen von ( ~
A
1
, ..., ~
A
n
) ist gegeben durch (~
|~A
1
, ..., ~
A
n
) =
(~
)P
~
( ~
A
1
,..., ~
A
n
)
(~
0
)P
~
0
( ~
A
1
,..., ~
A
n
)+(~
1
)P
~
1
( ~
A
1
,..., ~
A
n
)
.
Zur Auswahl stehen die beiden Testentscheidungen d = 0 und d = 1.
65
Unter
Annahme einer Verlustfunktion l( ~
i
, d) =
0
falls d = i
s
d
falls d = i
, d, i
{0, 1}, und Beob-
achtungskosten von nc nach der Erhebung von n unscharfen Beobachtungen ist ein
Bayes'sches Testverfahren ]
C
(.)[= (]
C
[(.), ]
C
[(.)) = ((
C
n
(.))
n
IN
, (
C
n
(.))
n
IN
) mit
C n
:
N
n
{0, 1}, (~A
1
, ..., ~
A
n
)
C n
( ~
A
1
, ..., ~
A
n
) und
C n
:
N
n
{0, 1}, (~A
1
, ..., ~
A
n
)
C n
( ~
A
1
, ..., ~
A
n
)
ur n
IN gesucht, welches das Bayes'sche Risiko r
(.)
(]
C
[(.)) f¨
ur das sequentielle
Bayes'sche Testverfahren minimiert. Wie in Abschnitt 8.6.2 noch gezeigt werden wird,
ist das Bayes-Risiko eines sequentiellen Bayes-Tests f¨
ur zwei einfache Hypothesen (oh-
ne Unsch¨
arfe) gleich
r
(.)
(][) = (
0
)
·
n=0
(s
1
· P
0
(
{D
n
= 1
}) + nc) · P
0
(
{T = n})
+ (
1
)
·
n=0
(s
0
· P
1
(
{D
n
= 0
}) + nc) · P
1
(
{T = n}).
Das zu minimierende Bayes-Risiko f¨
ur die unscharfen Hypothesen
H
0
: ~
= ~
0
und
H
1
: ~
= ~
1
bei Vorliegen der unscharfen Daten ( ~
A
1
, ..., ~
A
n
) lautet somit
66
60
Vgl. Casals / Gil / Gil (1986), S. 371 ff.
61
Vgl. Casals (1986), S. 189 ff.
62
Bei Casals / Gil / Gil (1994), S. 287 ff., wird eine verallgemeinerte Version gezeigt, die sich nicht
auf unscharfe Partitionen beschr¨
ankt, sondern die sich mit einer abgeschw¨
achten Orthogonalit¨
atsbe-
dingung begn¨
ugt.
63
Vgl. Casals / Salas (1988), S. 314 f.
64
Vgl. Casals / Gil (1994), S. 285 f.
65
Bei Casals / Gil (1994), S. 297, wird diese Vorgehensweise damit begr¨
undet, dass in der Praxis
oft exakte Entscheidungen gefordert sind.
66
Vgl. Casals / Gil (1994), S. 286.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
299
r
(.)
(]
C
[(.)) =
n=0
s
1
· (~
0
)
· P
~
0
(
{D
n
= 1
}) · P
~
0
(
{T = n})
+ s
0
· ( ~
1
)
· P
~
1
(
{D
n
= 0
}) · P
~
1
(
{T = n})
+nc
· (~
0
)
· P
~
0
(
{T = n}) + (~
1
)
· P
~
1
(
{T = n}) .
Es ist P ( ~
A
1
, ..., ~
A
n
) = (~
0
)P
~
0
( ~
A
1
, ..., ~
A
n
) + (~
1
)P
~
1
( ~
A
1
, ..., ~
A
n
), und daher ist
( ~
0
)
· P
~
0
(
{D
n
= 1
}) · P
~
0
(
{T = n})
=
( ~
A
1
,..., ~
A
n
)
N
n
C n
( ~
A
1
, ..., ~
A
n
)
·
C n
( ~
A
1
, ..., ~
A
n
)
· (~
0
)P
~
0
( ~
A
1
, ..., ~
A
n
)
=
( ~
A
1
,..., ~
A
n
)
N
n
C n
( ~
A
1
, ..., ~
A
n
)
·
C n
( ~
A
1
, ..., ~
A
n
)
· (~
0
|~A
1
, ..., ~
A
n
)
· P (~A
1
, ..., ~
A
n
),
( ~
1
)
· P
~
1
(
{D
n
= 0
}) · P
~
1
(
{T = n})
=
( ~
A
1
,..., ~
A
n
)
N
n
C n
( ~
A
1
, ..., ~
A
n
)
· (1 -
C n
( ~
A
1
, ..., ~
A
n
))
· (~
1
)P
~
1
( ~
A
1
, ..., ~
A
n
)
=
( ~
A
1
,..., ~
A
n
)
N
n
C n
( ~
A
1
, ..., ~
A
n
)
· (1 -
C n
( ~
A
1
, ..., ~
A
n
))
· (~
1
|~A
1
, ..., ~
A
n
)
· P (~A
1
, ..., ~
A
n
),
(~
0
)
· P
~
0
(
{T = n}) + (~
1
)
· P
~
1
(
{T = n})
=
( ~
A
1
,..., ~
A
n
)
N
n
C n
( ~
A
1
, ..., ~
A
n
)
· (~
0
)P
~
0
( ~
A
1
, ..., ~
A
n
) + (~
1
)P
~
1
( ~
A
1
, ..., ~
A
n
)
=
( ~
A
1
,..., ~
A
n
)
N
n
C n
( ~
A
1
, ..., ~
A
n
)
· P (~A
1
, ..., ~
A
n
).
Daher kann das Bayes-Risiko des Verfahrens ]
C
[(.) auch wie folgt angeschrieben werden:
67
r
(.)
(]
C
[(.)) =
n=0
( ~
A
1
,..., ~
A
n
)
N
n
C n
( ~
A
1
, ..., ~
A
n
)
· s
1
·
C n
( ~
A
1
, ..., ~
A
n
)
· (~
0
|~A
1
, ..., ~
A
n
)
+s
0
· (1 -
C n
( ~
A
1
, ..., ~
A
n
))
· (~
1
|~A
1
, ..., ~
A
n
)
·P (~A
1
, ..., ~
A
n
)
+nc
·
( ~
A
1
,..., ~
A
n
)
N
n
C n
( ~
A
1
, ..., ~
A
n
)
· P (~A
1
, ..., ~
A
n
)
Damit k¨
onnen die beiden Entscheidungsprobleme des Findens einer Bayes'schen
Testentscheidung f¨
ur festes n
IN und des Findens einer geeigneten Abbruchregel wie-
der getrennt behandelt werden. Die Bayes'sche Testfunktion
C n
(.), die f¨
ur n
IN das
Risiko s
1
·
C n
( ~
A
1
, ..., ~
A
n
)
· (~
0
|~A
1
, ..., ~
A
n
) + s
0
· (1 -
C n
( ~
A
1
, ..., ~
A
n
))
· (~
1
|~A
1
, ..., ~
A
n
)
minimiert, ist somit gegeben durch
68
C n
( ~
A
1
, ..., ~
A
n
) =
0 falls
(~
1
| ~
A
1
,..., ~
A
n
)
(~
0
| ~
A
1
,..., ~
A
n
)
s
1
s
0
1 falls
(~
1
| ~
A
1
,..., ~
A
n
)
(~
0
| ~
A
1
,..., ~
A
n
)
>
s
1
s
0
.
Das Abbruchrisiko ist auf jeder Stufe n
IN gleich dem Verlusterwartungswert zuz¨uglich
den Beobachtungskosten bis zur Stufe n
r
0
(.
| ~
A
1
,..., ~
A
n
)
(]
C
[(.), n) =
s
0
· (~
1
|~A
1
, ..., ~
A
n
) + nc falls
(~
1
| ~
A
1
,..., ~
A
n
)
(~
0
| ~
A
1
,..., ~
A
n
)
s
1
s
0
s
1
· (~
0
|~A
1
, ..., ~
A
n
) + nc falls
(~
1
| ~
A
1
,..., ~
A
n
)
(~
0
| ~
A
1
,..., ~
A
n
)
>
s
1
s
0
.
67
Vgl. Casals / Gil (1994), S. 290.
68
Vgl. Casals (1993), S. 195 f., Casals / Gil (1994), S. 289 f., bzw. f¨
ur exakte Hypothesen (hier muss
wieder ~
durch ersetzt werden) Casals / Gil / Gil (1986), S. 376 f., Casals / Salas (1988), S. 318 f.

300
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Um eine geeignete Abbruchregel zu finden, wird das sequentielle Testproblem durch
ein auf N
IN Schritte verk¨urztes sequentielles Testproblem ersetzt. Das Fortsetzungs-
risiko r
N
-n
(.
| ~
A
1
,..., ~
A
n
)
(]
C
[(.), n) f¨
ur das verk¨
urzte Verfahren auf der Stufe n = 0, 1, ..., N
-1
ur die verbleibenden N
- n Schritte wird mit Hilfe der Rekursionsformel
69
r
N
-n
(.
| ~
A
1
,..., ~
A
n
)
(]
C
[(.), n) = min r
0
(.
| ~
A
1
,..., ~
A
n
)
(]
C
[(.), n),
~
A
n+1
N
r
N
-(n+1)
(.
| ~
A
1
,..., ~
A
n
, ~
A
n+1
)
(]
C
[(.), n + 1)
· P (~A
n+1
|~A
1
, ..., ~
A
n
) + c
berechnet, wobei P ( ~
A
n+1
|~A
1
, ..., ~
A
n
) =
P ( ~
A
1
,..., ~
A
n
, ~
A
n+1
)
P ( ~
A
1
,..., ~
A
n
)
ist. Eine Bayes'sche Abbruchre-
gel
C N,n
(.) f¨
ur das verk¨
urzte Verfahren ist dann gegeben durch
70
C N,n
( ~
A
1
, ..., ~
A
n
) =
1 falls r
0
(.
| ~
A
1
,..., ~
A
n
)
(]
C
[(.), n)
r
N
-n
(.
| ~
A
1
,..., ~
A
n
)
(]
C
[(.), n)
0 falls r
0
(.
| ~
A
1
,..., ~
A
n
)
(]
C
[(.), n) > r
N
-n
(.
| ~
A
1
,..., ~
A
n
)
(]
C
[(.), n).
Es gilt r
N
(.)
(]
C
N
[(.))
r
N +1
(.)
(]
C
N +1
[(.)) f¨
ur N
IN und lim
N
r
N
(.)
(]
C
N
[(.)) =
r
(.)
(]
C
[(.)).
71
8.3.3
Verk¨
urztes sequentielles Punktsch¨
atzverfahren f¨
ur
unscharfe Daten
Die Vorgangsweise bei verk¨
urzten Bayes'schen Entscheidungsverfahren mit unscharfen
Daten soll anhand einer unscharfen Punktsch¨
atzung demonstriert werden. Die Berech-
nungen erfolgen auf Basis des begleitenden Beispiels, d.h. f¨
ur eine unscharf Poisson-
verteilte Fuzzy-Zufallsvariable.
Begleitendes Beispiel: Gegeben ist X
Po
, d.h. X ist Poisson-verteilt mit dem
Parameter , X :
IN
0
.
ist eine Zufallsvariable auf dem messbaren Parame-
terraum (IR
+
0
,
B(IR
+
0
)). A priori geht man von einer zur Poisson-Verteilung konjugier-
ten invertierten Gammaverteilung mit Parametern a ,
1
b
aus, also
a ,
1
b
, d.h.
() = f
(
|a ,
1
b
) =
b
a
·
a -1
·e
-b
(a
-1)!
. X
1
, X
2
, ... ist eine Folge von unabh¨
angigen und
identisch wie X verteilten Zufallsvariablen. Es soll aufgrund der Folge X
1
, X
2
, ... eine
sequentielle Sch¨
atzung f¨
ur den Parameter gefunden werden. Der Verlust aus einer
Fehlsch¨
atzung ist gegeben durch eine quadratische Verlustfunktion l(, d) = s
·( -d)
2
,
die Kosten der i-ten Beobachtung sind gleich c
i
ur i
{1, ..., N}, somit lautet die Ge-
samtverlustfunktion
L
l(, d, n) = s
·(-d)
2
+
n
i=1
c
i
. Die A-posteriori-Verteilung ist auf
jeder Stufe n
{1, ..., N} eine zur Poisson-Verteilung konjugierte invertierte Gamma-
Verteilung, welche mit Hilfe der suffizienten Statistik
n
= X
1
+...+X
n
(vgl. Abschnitte
6.1.2-6.1.3) berechnet werden kann, d.h. nach erhalt der Daten (x
1
, ..., x
n
)
IN
n
auf der
Stufe n ist die A-posteriori-Verteilung von
gleich (|x
1
, ..., x
n
) = f
(
|a +
n
,
1
b +n
) =
(b +n)
a +n
·
a +n-1
·e
-b
(a +
n
-1)!
mit
n
=
n
i=1
x
i
.
69
Vgl. Casals / Gil / Gil (1994), S. 291, bzw. f¨
ur exakte Hypothesen Casals / Salas (1988), S. 318.
Es ist anzumerken, dass die Notation an die allgemein in der vorliegenen Arbeit verwendete Notation
angepasst wurde und sich daher von der Notation in den Origninalarbeiten unterscheidet.
70
Vgl. Casals / Gil / Gil (1994), S. 291, bzw. f¨
ur exakte Hypothesen Casals / Salas (1988), S. 319.
71
Vgl. Casals / Gil / Gil (1994), S. 291 f.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
301
Gem¨
aß Abschnitt 8.2 ist auf jeder Stufe eine Bayes'sche Entscheidung gegeben durch
Minimierung des A-posteriori-Verlusterwartungswertes. Nach Abschnitt 7.3.1 erh¨
alt
man bei Vorliegen einer quadratischen Verlustfunktion eine optimale Punktsch¨
atzung
ur den Parameter durch den A-posteriori-Erwartungswert-Sch¨
atzer E
(.
|x
1
,...,x
n
)
(
) =
^
=
· (|x
1
, ..., x
n
)d. Dieser wurde f¨
ur die invertierte Gammaverteilung bereits in
Abschnitt 6.3.1 berechnet. Es ist E
f
(.
|a +
n
,
1
b +n
)
(
) =
a +
n
b +n
.
In (7.14) in Abschnitt 7.3.1 wurde außerdem gezeigt, dass auf jeder Stufe n der
A-posteriori-Verlusterwartungswert bei quadratischer Verlustfunktion, der durch den
Erwartungswert bez¨
uglich der A-posteriori-Verteilung minimiert wird, gerade gleich
der s-fachen Varianz von
ist. Diese ergibt sich f¨ur die invertierte Gammaverteilung,
wie folgt. Allgemein gilt:
V ar
(.
|x
1
,...,x
n
)
(
) = E
(.
|x
1
,...,x
n
)
(
- E
(.
|x
1
,...,x
n
)
(
))
2
= E
(.
|x
1
,...,x
n
)
(
2
)
- (E
(.
|x
1
,...,x
n
)
(
))
2
Es ist
E
f
(.
|a ,
1
b
)
(
2
) =
0
2
·
b
a
·
a -1
·e
-b
(a
-1)!
d =
b
a
(a
-1)!
·
0
a +1
· e
-b
d
=
b
a
(a
-1)!
·
(a+1)!
b
a +2
· e
-b
=0
=
a (a +1)
b
2
=
a
2
+a
b
2
.
Insgesamt erh¨
alt man
V ar
f
(.
|a ,
1
b
)
(
) = E
f
(.
|a ,
1
b
)
(
2
)
- (E
f
(.
|a ,
1
b
)
(
))
2
=
a
2
+a
b
2
-
a
2
b
2
=
a
b
2
.
Der A-posteriori-Verlusterwartungswert auf der Stufe n betr¨
agt somit
s
· E
f
(.
|a +
n
,
1
b +n
)
(
-
a +
n
b +n
)
2
= s
·
a +
n
(b +n)
2
.
Daher betr¨
agt das Entscheidungsrisiko ohne weitere Beobachtung, d.h. das Abbruch-
risiko, auf jeder Stufe n:
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = s
· E
f
(.
|a +
n
,
1
b +n
)
(
-
a +
n
b +n
)
2
+
n
i=1
c
i
= s
·
a +
n
(b + n)
2
+
n
i=1
c
i
Um das Fortsetzungsrisiko f¨
ur eine weitere Beobachtung von der Stufe n auf die Stufe
n + 1 berechnen zu k¨
onnen, muss die Gr¨
oße
E
X
n+1
(E
(.
|X
1
,...,X
n
,X
n+1
)
(l(
,
n+1
(X
1
, ..., X
n
, X
n+1
)))
|X
1
= x
1
, ..., X
n
= x
n
)
bestimmt werden. Der Erwartungswert bez¨
uglich X
n+1
wird mit Hilfe der Pr¨
adiktiv-
wahrscheinlichkeitsfunktion f
X
(x
n+1
|x
1
, ..., x
n
) f¨
ur x
n+1
bedingt durch (x
1
, ..., x
n
) be-
rechnet. Die Pr¨
adiktivwahrscheinlichkeitsverteilung f¨
ur Poisson-verteilte Zufallsvaria-
blen X
Po
mit a-posteriori-invertiert-Gamma-verteiltem Parameter
a ,
1
b
(invertierte Gammaverteilung als konjugierte Verteilung) wurde bereits in Abschnitt

302
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
6.2 bestimmt, es ist die Wahrscheinlichkeitsfunktion der Negativbinomialverteilung mit
den Parametern
1
b +n+1
und a +
n
ur x
n+1
IN
0
:
p
nBi
(x
n+1
|
1
b +n+1
, a +
n
) =
(x
-n+1+a +
n
-1)!
(a +
n
-1)!x
n+1
!
·
1
b +n+1
x
n+1
·
b +n
b +n+1
a +
n
Es ist
E
X
n+1
(E
(.
|X
1
,...,X
n
,X
n+1
)
(l(
,
n+1
(X
1
, ..., X
n
, X
n+1
)))
|X
1
= x
1
, ..., X
n
= x
n
)
= E
p
nBi
(.
|
1
b +1
,a )
s
· E
f
(.
|a +X,
1
b +1
)
(
2
)
- (E
f
(.
|a +X,
1
b +1
)
(
))
2
= E
p
nBi
(.
|
1
b +1
,a )
s
· V ar
f
(.
|a +X,
1
b +1
)
(
)
= s
·
x=0
a +x
(b +1)
2
·
(a +x
-1)!
(a
-1)!x!
·
b
b +1
a
·
1
b +1
x
= s
·
x=0
a
·(a +x)!
a !x!
·
1
b
·(b +1)
·
b
b +1
a +1
·
1
b +1
x
= s
·
x=0
a
b (b +1)
·
((a +1)+x
-1)!
((a +1)
-1)!x!
·
b
b +1
a +1
·
1
b +1
x
= s
·
a
b (b +1)
·
x=0
p
nBi
(x
|
1
b +1
, a + 1)
=1
=
s
·
a
b (b + 1)
.
Es ist weiter f¨
ur k
N - 2, a = a +
k
i=1
x
i
, b = b + k:
E
X
k+2
(E
X
k+1
(E
(.
|x
1
,...,x
k
,X
k+1
,X
k+2
)
(l(
,
k+2
(x
1
, ..., x
k
, X
k+1
, X
k+2
)))))
= E
p
nBi
(.
|
1
b +2
,a )
E
p
nBi
(.
|
1
b +1
,a +X
k+1
)
s
· V ar
f
(.
|a +X
k+1
+X
k+2
,
1
b +2
)
(
)
= s
·
x
k+1
=0
x
k+1
a +x
k+1
+x
k+2
(b +2)
2
·
(a +x
k+1
+x
k+2
-1)!
(a +x
k+1
-1)!x
k+2
!
·
b +1
b +2
a +x
k+1
·
1
b +2
x
k+2
·
(a +x
k+1
-1)!
(a
-1)!x
k+1
!
·
b
b +1
a
·
1
b +1
x
k+1
= s
·
x
k+1
=0
a +x
k+1
(b +1)(b +2)
·
(a +x
k+1
-1)!
(a
-1)!x
k+1
!
·
b
b +1
a
·
1
b +1
x
k+1
= s
·
x
k+1
=0
a
·(a +x
k+1
)!
a !x
k+1
!
·b (b +2)
·
b
b +1
a +1
·
1
b +1
x
k+1
=
s
·
a
b (b + 2)
Behauptung: Es gilt f¨
ur das Fortsetzungsrisiko eines bei N verk¨
urzten sequentiellen
Verfahrens, N
IN, auf der Stufe 0:
r
N
f
(.
|a ,
1
b
)
(]
[(.), 0) = min
s
·a
b
2
,
s
·a
b (b +1)
+ c
1
,
s
·a
b (b +2)
+ c
1
+ c
2
, ...,
s
·a
b (b +N )
+
N
i=1
c
i
bzw. allgemein auf der Stufe n
{0, ..., N}:
r
N
-n
f
(.
|a +
n
i=1
x
i
,
1
b +n
)
(]
[(.), n) = min s
·
a +
n
i=1
x
i
(b +n)
2
+
n
i=1
c
i
, s
·
a +
n
i=1
x
i
(b +n)(b +n+1)
+
n+1
i=1
c
i
,
s
·
a +
n
i=1
x
i
(b +n)(b +n+2)
+
n+2
i=1
c
i
, ..., s
·
a +
n
i=1
x
i
(b +n)(b +N )
+
N
i=1
c
i
Beweis: Es ist wegen p
X
(x
n+1
|x
1
, ..., x
n
)
0 f¨ur x
1
, ..., x
n
, x
n+1
IN
0
und wegen
min
{a, min{b, c}} = min{a, b, c}:

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
303
min E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))),
x
n+1
U
min E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n
, x
n+1
))),
...
x
N -1
U
min E
(.
|x
1
,...,x
n
,x
n+1
,...,x
N-1
)
(l(
,
N
-1
(x
1
, ..., x
n
, x
n+1
, ..., x
N
-1
))),
x
N
U
E
(.
|x
1
,...,x
n
,...,x
N
)
(l(
,
N
(x
1
, ..., x
n
, ..., x
N
)))p
X
(x
N
|x
1
, ..., x
n
, ..., x
N
-1
) + c
N
p
X
(x
N
-1
|x
1
, ..., x
n
, x
n+2
..., x
N
-2
) + c
N
-1
} ...p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
} +
n
i=1
c
i
= min E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))) +
n
i=1
c
i
,
x
n+1
U
E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n
, x
n+1
)))p
X
(x
n+1
|x
1
, ..., x
n
) +
n+1
i=1
c
i
,
x
n+1
U x
n+2
U
E
(.
|x
1
,...,x
n+1
,x
n+2
)
(l(
,
n+2
(x
1
, ..., x
n+1
, x
n+2
)))p
X
(x
n+2
|x
1
, ..., x
n+1
)
p
X
(x
n+1
|x
1
, ..., x
n
) +
n+2
i=1
c
i
, ...,
x
n+1
U x
n+2
U
...
x
N -1
U
E
(.
|x
1
,...,x
N -1
)
(l(
,
N
-1
(x
1
, ..., x
N
-1
)))p
X
(x
N
-1
|x
1
, ..., x
N
-2
)
... p
X
(x
n+2
|x
1
, ..., x
n+1
) p
X
(x
n+1
|x
1
, ..., x
n
) +
N
-1
i=1
c
i
,
x
n+1
U
...
x
N
U
E
(.
|x
1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
N
)))p
X
(x
N
|x
1
, ..., x
N
-1
) ...
p
X
(x
n+1
|x
1
, ..., x
n
) +
N
i=1
c
i
Es bleibt noch f¨
ur j
IN durch vollst¨andige Induktion zu zeigen:
x
n+1
=0
x
n+2
=0
...
x
n+j-1
=0
x
n+j
=0
a +
n+j
i=1
x
i
(b +n+j)
2
(a +
n+j
i=1
x
i
-1)!
(a +
n+j-1
i=1
x
i
-1)!x
n+j
!
b +n+j
-1
b +n+j
a +
n+j-1
i=1
x
i
1
b +n+j
x
n+j
(a +
n+j-1
i=1
x
i
-1)!
(a +
n+j-2
i=1
x
i
-1)!x
n+j-1
!
b +n+j
-2
b +n+j
-1
a +
n+j-2
i=1
x
i
1
b +n+j
-1
x
n+j-1
...
(a +
n+2
i=1
x
i
-1)!
(a +
n+1
i=1
x
i
-1)!x
n+2
!
b +n+1
b +n+2
a +
n+1
i=1
x
i
1
b +n+2
x
n+2
(a +
n+1
i=1
x
i
-1)!
(a +
n
i=1
x
i
-1)!x
n+1
!
b +n
b +n+1
a +
n
i=1
x
i
1
b +n+1
x
n+1
!
=
a +
n
i=1
x
i
(b + n)(b + n + j)
Die Spezialf¨
alle f¨
ur j = 1 und j = 2 wurden oben bereits berechnet. Unter der Vor-
aussetzung der G¨
ultigkeit der Annahme f¨
ur die "inneren" Klammerausdr¨
ucke kann der
obige Ausdruck auch angeschrieben werden als:
x
n+1
=0
(a +
n+1
i=1
x
i
)
(b +n+1)(b +n+j)
·
(a +
n
i=1
x
i
+x
n+1
-1)!
(a +
n
i=1
x
i
-1)!x
n+1
!
·
b +n
b +n+1
a +
n
i=1
x
i
·
1
b +n+1
x
n+1

304
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
woraus sich weiter ergibt:
x
n+1
=0
(a +
n
i=1
x
i
)
(b +n)(b +n+j)
(a +
n
i=1
x
i
+x
n+1
)!
(a +
n
i=1
x
i
)!x
n+1
!
·
b +n
b +n+1
a +
n
i=1
x
i
+1
·
1
b +n+1
x
n+1
=
(a +
n
i=1
x
i
)
(b +n)(b +n+j)
·
x
n+1
=0
(a +
n
i=1
x
i
+x
n+1
)!
(a +
n
i=1
x
i
)!(x
n+1
!
·
b +n
b +n+1
a +
n
i=1
x
i
+1
·
1
b +n+1
x
n+1
=1
=
(a +
n
i=1
x
i
)
(b + n)(b + n + j)
q.e.d.
ur den Fall scharfer Daten erh¨
alt man f¨
ur das bei N verk¨
urzte sequentielle Ver-
fahren
{T
N
= n
} = (x
1
, ...x
n
, ..., x
N
)
s
·(a +
n
i=1
x
i
)
(b +n)
2
=
min
j
{0,...,N-n}
s
·(a +
n
i=1
x
i
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
bzw.
N
(x
1
, ..., x
N
)
= min n
{0, ..., N}
s
·(a +
n
i=1
x
i
)
(b +n)
2
=
min
j
{0,...,N-n}
s
·(a +
n
i=1
x
i
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
und
n
(x
1
, ..., x
N
)
=
1 falls n = min k
{0, ..., N}
s
·(a +
k
i=1
x
i
)
(b +k)
2
=
min
j
{0,...,N-k}
s
·(a +
k
i=1
x
i
)
(b +k)(b +k+j)
+
j
i=1
c
k+i
.
0 sonst
Diese Ergebnisse f¨
ur scharfe Daten sollen nun auf den Fall unscharfer Daten ange-
wandt werden. Liefert eine Folge von verteilungstreuen Fuzzy-Perzeptionen ~
X
1
, ~
X
2
, ...
einer Poisson-verteilten Zufallsvariablen X
Po
unscharfe Daten ( ~
A
1
, ~
A
2
, ...), so
onnen die in (8.15)-(8.42) vorgstellten Methoden zur Konstruktion eines sequentiellen
Fuzzy-Entscheidungsverfahrens herangezogen werden. Als im Bayes'schen Sinn optima-
le Folge von Entscheidungsfunktionen f¨
ur unscharfe Daten wurde bereits in Abschnitt
8.2 in (8.78) die Folge der Fuzzy-Extensionen ]
[(.) =
n
(.)
n
IN
der Bayes'schen
Entscheidungsfunktionen (
n
(.))
n
IN
bestimmt.
Unter der Annahme, nach n Beobachtungen liegen die n unscharfen Daten ( ~
A
1
, ..., ~
A
n
)
vor, die durch die unscharfe suffiziente Statistik s ( ~
A
1
, ..., ~
A
n
) = ~
A
1
... ~A
n
repr¨
asen-
tiert sind, erh¨
alt man bei Annahme einer quadratischen Verlustfunktion auf der Stufe
n die Bayes'sche Entscheidung (vgl. auch Abschnitt 7.3.1)
n
( ~
A
1
, ..., ~
A
n
) =
a
s (~A
1
, ..., ~
A
n
)
b + n
=
a
~A
1
... ~A
n
b + n
.
(B.8.1)
ur Abbruchregeln bzw. Stoppzeiten aufgrund unscharfer Daten, die durch Vergleich
von unscharfem Abbruchrisiko (8.101) bzw. (8.103) und unscharfem Fortsetzungsrisiko

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
305
(8.102) bzw. (8.104)-(8.105) zustande kommen, sind die in (8.106)-(8.126) vorgestellten
Verfahren anzuwenden.
Auf Basis der n unscharfen Beobachtungen ( ~
A
1
, ..., ~
A
n
) bzw. der unscharfen suffizi-
enten Statistik s ( ~
A
1
, ..., ~
A
n
) = ~
A
1
... ~A
n
erh¨
alt man auf der Stufe n das unscharfe
Abbruchrisiko mit der Zugeh¨
origkeitsfunktion
~
r
0
~
~
f (.|a ~
A1... ~
An,
1
b +n
)
((]
[(.),n)
(r) =
sup
ssupp( s ( ~
A1,..., ~
An)):
a +s
(b +n)2
+
n
i=1
ci=r
s ( ~
A
1
,..., ~
A
n
)
(s)
=
sup
(x1,...,xn)supp(fuzA1)×...×supp( ~
An):
a +n
i=1
xi
(b +n)2
+
n
i=1
ci=r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(B.8.2)
bzw.
~
r
0
~~
f
(.
|a ~
A
1
... ~
A
n
,
1
b +n
)
]
[(.), n
= s
·
a
s (~A
1
, ..., ~
A
n
)
(b + n)
2
n
i=1
c
i
= s
·
a
~A
1
... ~A
n
(b + n)
2
n
i=1
c
i
(B.8.3)
und das unscharfe Fortsetzungsrisiko f¨
ur das bei N verk¨
urzte sequentielle Verfahren
mit der Zugeh¨
origkeitsfunktion
~
r
N-n
~
~
f (.|a ~
A1... ~
An,
1
b +n
)
((]
[(.),n)
(r)
=
sup
(x1,...,xn)supp(fuzA1)×...×supp( ~
An):
min
a +n
i=1
xi
(b +n)2
+
n
i=1
ci,
a +n
i=1
xi
(b +n)(b +n+1)
+
n+1
i=1
ci,
...,
a +n
i=1
xi
(b +n)(b +N)
+
N
i=1
ci =r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(B.8.4)
und der konvexen H¨
ulle
co ~
r
N
-n
~~
f
(.
|a ~
A
1
... ~
A
n
,
1
b +n
)
]
[(.), n
= min co s
·
a
~A
1
... ~A
n
(b + n)
2
n
i=1
c
i
,
co s
·
a
~A
1
... ~A
n
(b + n)(b + n + 1)
n+1
i=1
c
i
, ..., co s
·
a
~A
1
... ~A
n
(b + n)(b + N )
N
i=1
c
i
.
(B.8.5)
Man erh¨
alt daraus die folgenden vereinfachten Stoppzeiten bzw. Abbruchregeln:
(i) Stoppzeit nach der vereinfachten Tr¨
agertangentialmethode:
T s
N
= min n
{0, ..., N}
n
supp(~A
1
... ~A
n
) :
s
·(a +
n
)
(b +n)
2
=
min
j
{0,...,N-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
(B.8.6)
Abbruchregel nach der vereinfachten Tr¨
agertangentialmethode:
s
N,n
( ~
A
1
, ... ~
A
n
)
=
1 falls n = min k
{0, ..., N}|
k
supp(~A
1
... ~A
k
) :
s
·(a +
k
)
(b +k)
2
=
min
j
{0,...,N-k}
s
·(a +
k
)
(b +k)(b +k+j)
+
j
i=1
c
k+i
0 sonst
(B.8.7)

306
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(ii) Stoppzeit nach der vereinfachten Tr¨
agerinklusionsmethode:
T s
N
= min n
{0, ..., N}
n
supp(~A
1
... ~A
n
) :
s
·(a +
n
)
(b +n)
2
=
min
j
{0,...,N-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
(B.8.8)
Abbruchregel nach der vereinfachten Tr¨
agerinklusionsmethode:
s
N,n
( ~
A
1
, ... ~
A
n
)
=
1 falls n = min k
{0, ..., N}|
k
supp(~A
1
... ~A
k
) :
s
·(a +
k
)
(b +k)
2
=
min
j
{0,...,N-k}
s
·(a +
k
)
(b +k)(b +k+j)
+
j
i=1
c
k+i
0 sonst
(B.8.9)
(iii) Stoppzeit nach der vereinfachten Kerntangentialmethode:
T s
N
= min n
{0, ..., N}
n
ker(~A
1
... ~A
n
) :
s
·(a +
n
)
(b +n)
2
=
min
j
{0,...,N-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
(B.8.10)
Abbruchregel nach der vereinfachten Kerntangentialmethode:
s
N,n
( ~
A
1
, ... ~
A
n
)
=
1 falls n = min k
{0, ..., N}|
k
ker(~A
1
... ~A
k
) :
s
·(a +
k
)
(b +k)
2
=
min
j
{0,...,N-k}
s
·(a +
k
)
(b +k)(b +k+j)
+
j
i=1
c
k+i
0 sonst
(B.8.11)
(iv) Stoppzeit nach der vereinfachten Kerninklusionsmethode:
T s
N
= min n
{0, ..., N}
n
ker(~A
1
... ~A
n
) :
s
·(a +
n
)
(b +n)
2
=
min
j
{0,...,N-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
(B.8.12)
Abbruchregel nach der vereinfachten Kerninklusionsmethode:
s
N,n
( ~
A
1
, ... ~
A
n
)
=
1 falls n = min k
{0, ..., N}|
k
ker(~A
1
... ~A
k
) :
s
·(a +
k
)
(b +k)
2
=
min
j
{0,...,N-k}
s
·(a +
k
)
(b +k)(b +k+j)
+
j
i=1
c
k+i
0 sonst
(B.8.13)
(v) Stoppzeit nach der vereinfachten -Niveautangentialmethode:
T s
N
= min
{n {0, ..., N} |
n
(A
1
... A
n
)
:
s
·(a +
n
)
(b +n)
2
=
min
j
{0,...,N-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
(B.8.14)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
307
Abbruchregel nach der vereinfachten -Niveautangentialmethode:
s
N,n
( ~
A
1
, ... ~
A
n
)
=
1 falls n = min
{k {0, ..., N}|
k
(A
1
...A
k
)
:
s
·(a +
k
)
(b +k)
2
=
min
j
{0,...,N-k}
s
·(a +
k
)
(b +k)(b +k+j)
+
j
i=1
c
k+i
0 sonst
(B.8.15)
(vi) Stoppzeit nach der vereinfachten -Niveauinklusionsmethode:
T s
N
= min
{n {0, ..., N} |
n
(A
1
... A
n
)
:
s
·(a +
n
)
(b +n)
2
=
min
j
{0,...,N-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
(B.8.16)
Abbruchregel nach der vereinfachten -Niveauinklusionsmethode:
s
N,n
( ~
A
1
, ... ~
A
n
)
=
1 falls n = min
{k {0, ..., N}|
k
(A
1
...A
k
)
:
s
·(a +
k
)
(b +k)
2
=
min
j
{0,...,N-k}
s
·(a +
k
)
(b +k)(b +k+j)
+
j
i=1
c
k+i
0 sonst
(B.8.17)
(vii) Stoppzeit nach der vereinfachten Kardinalit¨
atsmethode:
T s(card)
N
= min n
{0, ..., N}
card
n
,
~
A
1
... ~
A
n
(
n
)
~A
1
... ~A
n
s
·(a +
n
)
(b +n)
2
=
min
j
{0,...,N-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
card
n
,
~
A
1
... ~
A
n
(
n
)
~A
1
... ~A
n
s
·(a +
n
)
(b +n)
2
>
min
j
{0,...,N-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
(B.8.18)
Abbruchregel nach der vereinfachten Kardinalit¨
atsmethode:
s(card)
N,n
( ~
A
1
, ..., ~
A
n
)
=
1 falls n = min k
{0, ..., N}
card
k
,
~
A
1
... ~
A
k
(
k
)
~A
1
... ~A
k
s
·(a +
k
)
(b +k)
2
=
min
j
{0,...,N-k}
s
·(a +
k
)
(b +k)(b +k+j)
+
j
i=1
c
k+i
card
k
,
~
A
1
... ~
A
k
(
k
)
~A
1
... ~A
n
s
·(a +
k
)
(b +k)
2
>
min
j
{0,...,N-k}
s
·(a +
k
)
(b +k)(b +k+j)
+
j
i=1
c
k+i
0 sonst
(B.8.19)

308
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ur die Stoppzeiten bzw. Abbruchregeln (B.8.6)-(B.8.17) stimmen aufgrund der Ste-
tigkeit der Statistik
n
= s(x
1
, ..., x
n
) =
n
i=1
x
i
nach (8.59)-(8.61) die vereinfach-
ten Stoppzeiten bzw. Abbruchregeln mit der urspr¨
unglichen ¨
uberein. Die Stoppzeiten
(B.8.6) und (B.8.8) stellen nach (8.61) untere bzw. obere Schranken f¨
ur die vereinfachte
Stoppzeit (B.8.18) dar.
Begleitendes numerisches Beispiel: Die Poisson-verteilte Zufallsvariable X
Po
beschreibt die Anzahl der Flutwellen kritischer H¨
ohe. Der Parameter ist dabei ei-
ne invertiert-Gamma-verteilte Zufallsvariable
a,
1
b
, wobei die der Parameter
b die Anzahl der Beobachtungsperioden und a die Gesamtanzahl der beobachteten
kritischen Flutwellen w¨
ahrend aller Beobachtungsperioden beschreibt. A priori geht
man von einer durchschnittlichen Anzahl von 9 Flutwellen, kritischer H¨
ohe aus, die-
ser Information wird das Gewicht von 2 Beobachtungsperioden beigemessen. Man
erh¨
alt somit eine A-priori-Gammaverteilung mit Parametern a = 2
· 9 = 18, b =
1
2
() = f
(
|18,
1
2
) =
2
18
·
17
·e
-5
17!
. Es soll eine verlustminimierende Sch¨
atzung f¨
ur den
Parameter angegeben werden. Aufgrund einer vertraglichen Nutzungsverpflichtung,
soll maximal 4 Jahre lang die Anzahl kritischen Flutwellen festgestellt werden. Der
Verlust aus einer Fehlsch¨
atzung ist gegeben durch die quadratische Verlustfunktion
l(, d) = 7
· ( - d)
2
, die Kosten der Beobachtung sind in der ersten Periode gleich
c
1
= 6, in der zweiten c
2
= 5.2, in der dritten gleich c
3
= 3.5 und in der vierten Peri-
ode, aufgrund einer Konventionalstrafe f¨
ur versp¨
atete Nutzung, gleich c
4
= 12.6. Somit
lautet die Gesamtverlustfunktion
L
l(, d, n) = 7
· ( - d)
2
+
n
i=1
c
i
.
A priori besteht also keine Unsch¨
arfe. Abbruchrisiko und Fortsetzungsrisiko auf der
Stufe 0 sind somit scharfe Gr¨
oßen. Es ist
r
0
f
(.
|18,
1
2
)
(]
[(.), 0) =
7
·18
4
= 31.5
r
4
f
(.
|18,
1
2
)
(]
[(.), 0) = min
7 18
4
,
7
·18
6
+ 6,
7
·18
8
+ 11.2,
7
·18
10
+ 14.7,
7
·18
12
+ 27.3
= min
{31.5, 27, 26.95, 27.3, 37.8} = 26.95.
Wegen r
0
f
(.
|18,
1
2
)
(]
[(.), 0) = 31.5 > r
4
f
(.
|18,
1
2
)
(]
[(.), 0) = 26.95 ist ø
4,0
= 0. Es wird
X
1
bzw. die Fuzzy-Perzeption ~
X
1
beobachtet. Man erh¨
alt die unscharfe Beobachtung
~
A
1
=
0.2
0.8
1
0.5
8
9
10
11
. Nun werden unscharfes Abbruchrisiko und unscharfes Fortset-
zungsrisiko auf der Stufe 1 berechnet. Es ist
a
~A
1
= 18
0.2
0.8
1
0.5
8
9
10
11
=
0.2
0.8
1
0.5
26
27
28
29
, und daher:
~
r
0
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1) =
7
·
0.2
0.8
1
0.5
26
27
28
29
9
6
=
0.2
0.8
1
0.5
26.2222
27.0000
27.7778
28.5556
mit
co
~
r
0
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1)
=
[26.2222, 28.5556] f¨
ur 0 <
0.2
[27.0000, 28.5556] f¨
ur 0.2 <
0.5
[27.0000, 27.7778] f¨
ur 0.5 <
0.8
27.7778
ur 0.8 <
1.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
309
~
r
3
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1) erh¨
alt man durch Berechnung von
min
7
·26
9
+ 6,
7
·26
12
+ 11.2,
7
·26
15
+ 14.7,
7
·26
18
+ 27.3
= min
{26.2222, 26.3667, 26.8333, 37.4111} = 26.2222,
a
~
A
1
(26) = 0.2
min
7
·27
9
+ 6,
7
·27
12
+ 11.2,
7
·27
15
+ 14.7,
7
·27
18
+ 27.3
= min
{27.0000, 26.9500, 27.3000, 37.8000} = 26.9500,
a
~
A
1
(27) = 0.8
min
7
·28
9
+ 6,
7
·28
12
+ 11.2,
7
·28
15
+ 14.7,
7
·28
18
+ 27.3
= min
{27.7778, 27.5333, 27.7667, 38.1889} = 27.5333,
a
~
A
1
(28) = 1
min
7
·29
9
+ 6,
7
·29
12
+ 11.2,
7
·29
15
+ 14.7,
7
·29
18
+ 27.3
= min
{28.5556, 28.1167, 28.2333, 38.5788} = 28.1167,
a
~
A
1
(29) = 0.5.
Es ist also
~
r
3
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1) =
0.2
0.8
1
0.5
26.2222
26.9500
27.5333
28.1167
bzw.
co
~
r
3
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1)
= min
co
7
0.2
0.8
1
0.5
26
27
28
29
9
6
, co
7
0.2
0.8
1
0.5
26
27
28
29
12
11.2
,
co
7
0.2
0.8
1
0.5
26
27
28
29
15
14.7
, co
7
0.2
0.8
1
0.5
26
27
28
29
18
27.3
= min co
0.2
0.8
1
0.5
26.2222
27.0000
27.7778
28.5556
, co
0.2
0.8
1
0.5
26.3667
26.9500
27.5333
28.1167
,
co
0.2
0.8
1
0.5
26.8333
27.3000
27.7667
28.2333
, co
0.2
0.8
1
0.5
37.4111
37.8000
38.1889
38.5778
= co
0.2
0.8
1
0.5
26.2222
26.9500
27.5333
28.1167
mit
co
~
r
3
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1)
=
[26.2222, 28.1167] f¨
ur 0 <
0.2
[26.9500, 28.1167] f¨
ur 0.2 <
0.5
[26.9500, 27.5333] f¨
ur 0.5 <
0.8
27.5333
ur 0.8 <
1.
Außerdem ist
card
0.2
26
= 0.2 < card
0.8
1
0.5
27
28
29
= 0.8 + 1 + 0.5 = 2.3.
Damit ist
ø
s
4,1
=
(0,0.2]
ø
s
4,1
= 1.
(N.8.1)
Sofern die Stoppzeit nach der (vereinfachten) Tr¨
agertangentialmethode oder nach der
(vereinfachten) -Niveautangentialmethode mit
0.2 angewendet wird, wird das

310
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Verfahren abgebrochen, die Bayes'sche Sch¨
atzung auf der Stufe 1 lautet dann
1
( ~
A
1
) =
0.2
0.8
1
0.5
26
27
28
29
3 =
0.2
0.8
1
0.5
8.6667
9.0000
9.3333
9.6667
.
(N.8.2)
Bei Anwendung aller anderen Stoppzeiten wird X
2
bzw. die Fuzzy-Perzeption ~
X
2
be-
obachtet. Man erh¨
alt die unscharfe Beobachtung ~
A
2
=
0.7
1
0.6
11
12
13
. Nun sind auf der
Stufe 2 wiederum unscharfes Abbruchrisiko und unscharfes Fortsetzungsrisiko zu be-
stimmen. Es ist
a
~A
1
~A
2
= 18
0.2
0.8
1
0.5
8
9
10
11
0.7
1
0.6
11
12
13
=
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
und daher:
~
r
0
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2) =
7
·
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
16
11.2
=
0.2
0.7
0.8
1
0.6
0.5
27.3875
27.8250
28.2625
28.7000
29.1375
29.5750
mit
co
~
r
0
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2)
=
[27.3875, 29.5750] f¨
ur 0 <
0.2
[27.8250, 29.5750] f¨
ur 0.2 <
0.5
[27.8250, 29.1375] f¨
ur 0.5 <
0.6
[28.2625, 29.1375] f¨
ur 0.6 <
0.7
[28.2625, 28.7000] f¨
ur 0.7 <
0.8
28.7000
ur 0.8 <
1.
~
r
2
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2) erh¨
alt man durch Berechnung von
min
7
·37
16
+ 11.2,
7
·37
20
+ 14.7,
7
·37
24
+ 27.3 = min
{27.3875, 27.6500, 38.0917} = 27.3875,
a
~
A
1
~
A
2
(37) = 0.2
min
7
·38
16
+ 11.2,
7
·38
20
+ 14.7,
7
·38
24
+ 27.3 = min
{27.8250, 28.0000, 38.3833} = 27.8250,
a
~
A
1
~
A
2
(38) = 0.7
min
7
·39
16
+ 11.2,
7
·39
20
+ 14.7,
7
·39
24
+ 27.3 = min
{28.2625, 28.3500, 38.0917} = 28.2625,
a
~
A
1
~
A
2
(39) = 0.8
min
7
·40
16
+ 11.2,
7
·40
20
+ 14.7,
7
·40
24
+ 27.3 = min
{28.7000, 28.7000, 38.9667} = 28.7000,
a
~
A
1
~
A
2
(40) = 0.1
min
7
·41
16
+ 11.2,
7
·41
20
+ 14.7,
7
·41
24
+ 27.3 = min
{29.1375, 29.0500, 39.2583} = 29.0500,
a
~
A
1
~
A
2
(21) = 0.6
min
7
·42
16
+ 11.2,
7
·42
20
+ 14.7,
7
·42
24
+ 27.3 = min
{29.5750, 29.4000, 39.5500} = 29.4000,
a
~
A
1
~
A
2
(42) = 0.5.
Es ist also
~
r
2
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2) =
0.2
0.7
0.8
1
0.6
0.5
27.3875
27.8250
28.2625
28.7000
29.0500
29.4000
bzw.
co
~
r
2
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
311
= min
co
7
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
16
11.2
,
co
7
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
20
14.7
,
co
7
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
24
27.3
= min co
0.2
0.7
0.8
1
0.6
0.5
27.3875
27.8250
28.2625
28.7000
29.1375
29.5750
,
co
0.2
0.7
0.8
1
0.6
0.5
27.6500
28.0000
28.3500
28.7000
29.0500
29.4000
,
co
0.2
0.7
0.8
1
0.6
0.5
38.0917
38.3833
38.67506
38.9667
39.2583
39.5500
= co
0.2
0.7
0.8
1
0.6
0.5
27.3875
27.8250
28.2625
28.7000
29.0500
29.4000
mit
co
~
r
2
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2)
=
[27.3875, 29.4000] f¨
ur 0 <
0.2
[27.8250, 29.4000] f¨
ur 0.2 <
0.5
[27.8250, 29.0500] f¨
ur 0.5 <
0.6
[28.2625, 29.0500] f¨
ur 0.6 <
0.7
[28.2625, 28.7000] f¨
ur 0.7 <
0.8
28.7000
ur 0.8 <
1.
Außerdem ist
card
0.2
0.7
0.8
1
37
38
39
40
= 0.2+0.7+0.8+1 = 2.7 > card
0.6
0.5
41
42
= 0.6+0.5 = 1.1.
Nach der zweiten zweiten Beobachtung ist somit
(0.2,1]
ø
s
4,2
= ø
s
4,2
= ø
s
4,2
=
(0.6,1]
ø
s
4,2
= ø
s(card)
4,2
= 1.
(N.8.3)
Sofern eine Stoppzeit nach der -Niveautangentialmethode f¨
ur ein
(0.2, 1], nach
der Kerntangential- oder Kerninklusionsmethode, welche hier zusammenfallen, da der
Kern nur 1 Element enth¨
alt, nach der (vereinfachten) -Niveauinklusionsmethode mit
(0.6, 1] oder nach der vereinfachten Kardinalit¨atsmethode zur Anwendung kom-
men, wird das Verfahren abgebrochen, und der unscharfe Parameter der unscharfen
Poisson-Verteilung wird auf der Stufe 2 gesch¨
atzt:
2
( ~
A
1
, ~
A
2
) =
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
4
=
0.2
0.7
0.8
1
0.6
0.5
9.25
9.50
9.75
10.00
10.25
10.50
(N.8.4)
Kommt eine Stoppzeit nach der (vereinfachten) -Niveauinklusionsmethode mit
(0, 0.6] oder die Stoppzeit nach der (vereinfachten) Tr¨
agerinklusionsmethode zur An-
wendung, so wird X
3
bzw. die Fuzzy-Perzeption ~
X
3
beobachtet, es ist ~
A
3
=
0.5
1
0.8
6
7
8
.

312
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Zur Berechnung des unscharfen Abbruchrisikos und des unscharfen Fortsetzungsrisikos
berechnet man a
~A
1
~A
2
~A
3
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
, und man erh¨
alt:
~
r
0
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)
=
7
·
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
25
14.7
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
26.7400
27.0200
27.3000
27.5800
27.8600
28.1400
28.4200
28.7000
mit
co
~
r
0
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)
=
[26.7400, 28.7000] f¨
ur 0 <
0.2
[27.0200, 28.7000] f¨
ur 0.2 <
0.5
[27.3000, 28.4200] f¨
ur 0.5 <
0.6
[27.3000, 28.1400] f¨
ur 0.6 <
0.7
[27.5800, 28.1400] f¨
ur 0.7 <
0.8
28.8600
ur 0.8 <
1.
~
r
1
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3) erh¨
alt man durch Berechnung von
min
7
·43
20
+14.7,
7
·43
24
+27.3 = min
{26.7400, 37.3333}=26.7400,
a
~
A
1
~
A
2
~
A
3
(43) = 0.2
min
7
·44
20
+14.7,
7
·44
24
+27.3 = min
{27.0200, 37.5667}=27.0200,
a
~
A
1
~
A
2
~
A
3
(44) = 0.5
min
7
·45
20
+14.7,
7
·45
24
+27.3 = min
{27.3000, 37.8000}=27.3000,
a
~
A
1
~
A
2
~
A
3
(45) = 0.7
min
7
·46
20
+14.7,
7
·46
24
+27.3 = min
{27.5800, 38.0333}=27.5800,
a
~
A
1
~
A
2
~
A
3
(46) = 0.8
min
7
·47
20
+14.7,
7
·47
24
+27.3 = min
{27.8600, 38.2667}=27.8600,
a
~
A
1
~
A
2
~
A
3
(47) = 1
min
7
·48
20
+14.7,
7
·48
24
+27.3 = min
{28.1400, 38.5000}=28.1400,
a
~
A
1
~
A
2
~
A
3
(48) = 0.8
min
7
·49
20
+14.7,
7
·49
24
+27.3 = min
{28.4200, 38.7333}=28.4200,
a
~
A
1
~
A
2
~
A
3
(49) = 0.6
min
7
·50
20
+14.7,
7
·50
24
+27.3 = min
{28.7000, 38.9667}=28.7000,
a
~
A
1
~
A
2
~
A
3
(50) = 0.5.
Es ist also
~
r
1
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
26.7400
27.0200
27.3000
27.5800
27.8600
28.1400
28.4200
28.7000
bzw.
co
~
r
1
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)
= min
co
7
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
25
14.7
,

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
313
co
7
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
30
27.3
= min co
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
26.7400
27.0200
27.3000
27.5800
27.8600
28.1400
28.4200
28.7000
,
co
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
37.3333
37.5667
37.8000
38.0333
38.2667
38.5000
38.7333
38.9667
= co
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
26.7400
27.0200
27.3000
27.5800
27.8600
28.1400
28.4200
28.7000
mit
co
~
r
1
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)
=
[26.7400, 28.7000] f¨
ur 0 <
0.2
[27.0200, 28.7000] f¨
ur 0.2 <
0.5
[27.3000, 28.4200] f¨
ur 0.5 <
0.6
[27.3000, 28.1400] f¨
ur 0.6 <
0.7
[27.5800, 28.1400] f¨
ur 0.7 <
0.8
28.8600
ur 0.8 <
1.
Abbildung 8.11: Fuzzy-Risikovergleich beim verk¨
urzten sequentiellen Verfahren
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
26.22
27
27.78
28.56
r
(
r)
~
r
0
~
~
f (.| ~
A1)
(]
[(.),1)
26.95
27.53
28.12
~
r
3
~
~
f (.| ~
A1)
(]
[(.),1)
Stufe 1
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
26.74 27.02 27.3 27.58 27.86 28.14 28.58 28.7
r
(
r)
=~
r
0
~
~
f (.| ~
A1), ~
A2, ~
A3
(]
[(.),3)
~
r
1
~
~
f (.| ~
A1, ~
A2, ~
A3)
(]
[(.),3)
Stufe 3
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
27.39
27.82
28.26
28.7
29.14
29.57
r
(
r)
~
r
0
~
~
f (.| ~
A1), ~
A2
(]
[(.),2)
29.05
29.4
~
r
2
~
~
f (.| ~
A1, ~
A2)
(]
[(.),2)
Stufe 2
Erkl¨
arung:
·
Abbruchrisiko
Fortsetzungsrisiko
·
Zusammenfall von Abbruch- und
Fortsetzungsrisiko

314
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Es ist also auf der Stufe 3 das unscharfe Fortsetzungsrisiko gleich dem unscharfen
Abbruchrisiko, d.h. ~
r
1
~~
f
(.
|a ~
A
1
~
A
2
~
A
3
)
(]
[(.), 3) = ~
r
0
~~
f
(.
|a ~
A
1
~
A
2
~
A
3
)
(]
[(.), 3). Somit
ist auch
ø
s
4,3
=
(0,0.6]
ø
s
4,3
= 1.
(N.8.5)
Nach der dritten Beobachtung wird das sequentielle Fuzzy-Entscheidungsverfahren
jedenfalls abgebrochen, eine vierte Beobachtungsperiode kommt nicht in Betracht. Die
unscharfe Bayes'sche Entscheidung nach 3 Beobachtungsperioden lautet daher:
3
( ~
A
1
, ~
A
2
, ~
A
3
) =
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
5
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
8.6
8.8
9.0
9.2
9.4
9.6
9.8
10.0
(N.8.6)
Die (vereinfachten) Bayes'schen Stoppzeiten f¨
ur das verk¨
urzte sequentielle Fuzzy-
Bayes-Entscheidungsverfahren k¨
onnen, wie folgt, angegeben werden:
T s
4
=
(0,0.2]T s
4
= 1
(0.2,1]T s
4
=
T s
4
=
T s
4
=
(0.6,1]
T s
4
=
T s(card)
4
= 2
T s
4
=
(0,0.6]
T s
4
= 3
(N.8.7)
8.4
Modifizierte verk¨
urzte sequentielle Bayes-
Entscheidungsverfahren f¨
ur unscharfe Daten
8.4.1
Modifizierte verk¨
urzte sequentielle Bayes-Verfahren
Mit Hilfe der in Abschnitt 8.3 beschriebenen verk¨
urzten sequentiellen Bayes'schen Ent-
scheidungsverfahren wurde auf jeder Beobachtungsstufe eine ¨
Ubersch¨
atzung f¨
ur das
Fortsetzungsrisiko angegeben. Es wurde so eine Folge von oberen Schranken f¨
ur das
Gesamtrisiko des unendlich fortsetzbaren Verfahrens bestimmt, durch die das Risiko
des Verfahrens approximiert wurde, und mit deren Hilfe eine (m¨
oglicherweise zu niedri-
ge) Sch¨
atzung f¨
ur die optimale risikominimierende Stoppzeit angegeben werden konnte.
Um eine Aussage ¨
uber die G¨
ute der Approximation machen zu k¨
onnen, werden die so
genannten modifizierten verk¨
urzten Verfahren herangezogen.
72
Definition:
73
Ausgegangen wird von einem parametrischen stochastischen Modell X
P
, X :
U, der Verteilungsparameter ist eine Zufallsvariable auf dem messba-
ren Parameterraum (,
) mit der A-priori-Verteilung (.). X
1
, X
2
, ... ist eine Folge
von unabh¨
angigen und identisch wie X verteilten Zufallsvariablen. ID ist eine Menge
oglicher statistischer Entscheidungen. c
1
, c
2
, ...
IR
+
0
IN
ist die Folge der Kosten der
Beobachtung der Zufallsvariablen X
1
, X
2
, ... IL
IR
+
0
ist eine Menge m¨
oglicher Verlu-
ste aus statistischen Entscheidungen in ID bei Vorliegen von Parametern in , die durch
72
Vgl. Berger (1985), S. 459 f., Ferguson (1967), S. 324.
73
In Anlehnung an Berger (1985), S. 460, Ferguson (1967), S. 324.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
315
eine Verlustfunktion l :
× ID IL, (, d) l(, d) beschrieben werden. Der Gesamt-
verlust einer Entscheidung auf der Stufe n
IN (incl. Beobachtungskosten) wird durch
die Gesamtverlustfunktion
L
l :
×ID×IN IR
+
0
, (, d, n)
L
l(, d, n) = l(, d)+
n
i=1
c
i
angegeben. Gegeben ist weiters eine nat¨
urliche Zahl N
IN.
(i) Die modifizierte Gesamtverlustfunktion
L
l
(N )
(.) ist dann gegeben durch:
L
l
(N )
:
× ID × IN IR
+
0
(, d, n)
L
l(, d, n)
=
L
l(, d, n) = l(, d) +
n
i=1
c
i
ur n < N
N
i=1
c
i
ur n
N.
(8.127)
Dies bedeutet, dass die Komponente der Verlustfunktion, welche den Verlust aus
einer Fehlentscheidung beschreibt, f¨
ur n
N verschwindet, also
L
l
(N )
(, d, n) =
l
(N )
(, d) +
n
i=1
c
i
mit
l
(N )
(, d) =
l(, d) f¨
ur n < N
0
ur n
N.
(8.128)
N ist somit eine nat¨
urliche obere Schranke f¨
ur den Stichprobenumfang, da hier
nur noch die Beobachtungskosten steigen w¨
urden, hinsichtlich der Entscheidung
jedoch keine Verbesserung mehr erzielt werden k¨
onnte.
Man spricht hier von modifizierten verk¨
urzten sequentiellen Verfahren.
74
(ii) Ist f¨
ur i
{1, ..., N} die Bayes'sche Entscheidungsfunktion
i
(.) gegeben durch
E
(.
|x
1
,...,x
i
)
(l(
,
i
(x
1
, ..., x
i
))) = min
i
(.)
i
E
(.
|x
1
,...,x
i
)
(l(
,
i
(x
1
, ..., x
i
))), wobei
i
= ID
U
i
die Menge der statistischen Entscheidungsfunktionen auf der Stufe
i
{1, ..., N} ist, ist ]
[(.) = (
0
,
1
(.), ...,
N
(.)) und liegen nach n Beobach-
tungen, n
{0, ..., N}, die Daten (x
1
, ..., x
n
)
U
n
vor, so bezeichnet man f¨
ur
j
{0, ..., N - n} mit
r
(N )j
(.
|x
1
,...,x
n
)
(]
[(.), n)
:=
n+j
k=n+1
E
X
n+1
,...,X
k
|
{T=k}|n+1,...,k
E
(.
|X
1
,...,X
k
)
L
l
(N )
(
,
k
(X
1
, ..., X
k
), k)
|X
1
= x
1
, ..., X
k
= x
k
)
(8.129)
das Risiko, in dem modifizierten verk¨
urzten Verfahren nach n Beobachtungen j
weitere Beobachtungen durchzuf¨
uhren und danach zu entscheiden.
Man beachte, dass dann f¨
ur n + j < N gilt:
75
r
(N )j
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
j
(.
|x
1
,...,x
n
)
(]
[(.), n)
74
Die Bezeichnung folgt Ferguson (1967), S. 324. Berger (1985), S. 459 ff., bezeichnet Verfahren,
die auf der modifizierten Gesamtverlustfunktion
Ll
(N )
(.) nach (8.127) beruhen, als "innere verk¨
urzte"
Verfahren.
75
Vgl. Berger (1985), S. 360.

316
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Man kann nun bei der Bestimmung einer optimalen Stoppzeit analog wie beim
verk¨
urzten Verfahren mit der urspr¨
unglichen Verlustfunktion vorgehen.
Definition:
76
Unter den Voraussetzungen der Definitionen der Risiken bei modifizierter
Verlustfunktion wird die Stoppzeit
(N )
(x
1
, ..., x
N
) = min n
{0, ..., N}r
(N )0
(.
|x
1
,...,x
n
)
(]
[(.), n)= r
(N )N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.130)
definiert. Das entsprechende modifizierte verk¨
urzte Verfahren erh¨
alt die Bezeichnung
(N )
(.) :=
(N )
(.), ]
[(.) .
(8.131)
Satz:
77
Die in (8.130) definierte Stoppzeit
(N )
(.) ist eine Bayes'sche Stoppzeit f¨
ur das
modifizierte verk¨
urzte Verfahren. Das Verfahren
(N )
(.) := (
(N )
(.), ]
[(.)) nach (8.131)
ist ein Bayes'sches modifiziertes verk¨
urztes Verfahren.
Wie bei den verk¨
urzten Verfahren mit der urspr¨
unglichen Verlustfunktion gilt die
Rekursionsformel
r
(N )j
(.
|x
1
,...,x
n
)
(]
[(.), n) = min r
(N )0
(.
|x
1
,...,x
n
)
(]
[(.), n) ,
E
X
n+1
r
(N )j
-1
(.
|X
1
,...,X
n
)
(]
[(.), n + 1) X
1
= x
1
, ..., X
n
= x
n
.
(8.132)
Soll das Fortsetzungsrisiko r
(N )N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n) auf der Stufe n angeschrieben wer-
den, so ist zu beachten, dass l
(N )
(,
N
(x
1
, ..., x
n
)) = 0. Es ist also f¨
ur diskretes X
r
(N )N
-n
(.
|x
1
,...,x
n
)
]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l
(N )
(
,
n
(x
1
, ..., x
n
))),
x
n+1
U
min E
(.
|x
1
,...,x
n+1
)
(l
(N )
(
,
n+1
(x
1
, ..., x
n+1
))), ...
x
N-1
U
min E
(.
|x
1
,...,x
N -1
)
(l
(N )
(
,
N
-1
(x
1
, ..., x
N
-1
))),
x
N
U
E
(.
|x
1
,...,x
N
)
(l
(N )
(
,
N
(x
1
, ..., x
N
)))p
X
(x
N
|x
1
, ..., x
N
-1
) + c
N
p
X
(x
N
-1
|x
1
, ..., x
N
-2
) + c
N
-1
} ...p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
} +
n
i=1
c
i
= min E
(.
|x
1
,...,x
n
)
(l
(N )
(
,
n
(x
1
, ..., x
n
))),
x
n+1
U
min E
(.
|x
1
,...,x
n+1
)
(l
(N )
(
,
n+1
(x
1
, ..., x
n+1
))), ...
x
N-1
U
min E
(.
|x
1
,...,x
N -1
)
(l
(N )
(
,
N
-1
(x
1
, ..., x
N
-1
))), c
N
p
X
(x
N
-1
|x
1
, ..., x
N
-2
) + c
N
-1
} ...p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
} +
n
i=1
c
i
,
und f¨
ur stetiges X
r
(N )N
-n
(.
|x
1
,...,x
n
)
]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l
(N )
(
,
n
(x
1
, ..., x
n
))),
U
min E
(.
|x
1
,...,x
n+1
)
(l
(N )
(
,
n+1
(x
1
, ..., x
n+1
))), ...
U
min E
(.
|x
1
,...,x
N -1
)
(l
(N )
(
,
N
-1
(x
1
, ..., x
N
-1
))),
76
Vgl. Berger (1985), S. 360 f.
77
Vgl. Berger (1985), S. 360 f.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
317
U
E
(.
|x
1
,...,x
N
)
(l
(N )
(
,
N
(x
1
, ..., x
N
)))f
X
(x
N
|x
1
, ..., x
N
-1
)dx
N
+ c
N
f
X
(x
N
-1
|x
1
, ..., x
N
-2
)dx
N
-1
+ c
N
-1
} ...f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
}+
n
i=1
c
i
= min E
(.
|x
1
,...,x
n
)
(l
(N )
(
,
n
(x
1
, ..., x
n
))),
U
min E
(.
|x
1
,...,x
n+1
)
(l
(N )
(
,
n+1
(x
1
, ..., x
n+1
))), ...
U
min E
(.
|x
1
,...,x
N -1
)
(l
(N )
(
,
N
-1
(x
1
, ..., x
N
-1
))), c
N
f
X
(x
N
-1
|x
1
, ..., x
N
-2
)dx
N
-1
+ c
N
-1
} ...f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
}+
n
i=1
c
i
.
Da das modifizierte verk¨
urzte Verfahren auf der Stufe N aufgrund der gegebenen Vor-
aussetzung abbricht, ist das Risiko, das Verfahren von der Stufe 0 bis zur Stufe N
fortzusetzen f¨
ur diskretes X
r
(N )N
(.)
(]
[(.), 0) = min E
(.)
(l(
,
0
)),
x
1
U
min E
(.
|x
1
)
(l(
,
1
(x
1
))), ...
x
N -1
U
min E
(.
|x
1
,...,x
N-1
)
(l(
,
N
-1
(x
1
, ..., x
N
-1
))), c
N
p
X
(x
N
-1
|x
1
, ..., x
N
-2
)
+ c
N
-1
...p
X
(x
1
) + c
1
,
bzw. f¨
ur stetiges X
r
(N )N
(.)
(]
[(.), 0) = min E
(.)
(l(
,
0
)),
U
min E
(.
|x
1
)
(l(
,
1
(x
1
))), ...
U
min E
(.
|x
1
,...,x
N-1
)
(l(
,
N
-1
(x
1
, ..., x
N
-1
))), c
N
f
X
(x
N
-1
|x
1
, ..., x
N
-2
)dx
N
-1
+ c
N
-1
...f
X
(x
1
)dx
1
+ c
1
gleich dem Gesamtrisiko des modifizierten verk¨
urzten Verfahrens r
(.)
(
(N )
(.)) =
r
(.)
(
(N )
(.), ]
[(.)), d.h.
r
(N )N
(.)
(]
[(.), 0) = r
(.)
(N )
(.) .
(8.133)
Wegen
L
l
(N )
(, d, n)
L
l(, d, n)
n IN
0
ist
r
(.)
(N )
(.)
r
(.)
(N )
(.) ,
(8.134)
wobei r
(.)
(N )
(.) das Risiko des urspr¨
unglichen unendlich fortsetzbaren Verfahrens
darstellt.
Durch das Risiko des modifizierten verk¨
urzten Verfahrens erh¨
alt man somit eine
Untersch¨
atzung des Risikos des unendlich fortsetzbaren Verfahrens.
Bildet man eine Folge von modifizierten Verlustfunktionen (
L
l
(N )
().)
N
IN
, so gilt f¨
ur
diese
78
L
l
(N )
(, d, n)
L
l
(N +1)
(, d, n)
n IN
0
,
N IN,
denn
L
l
(N +1)
(, d, n) =
L
l(, d, n) (f¨
ur n < N + 1) =
L
l
(N )
(, d, n)
(n < N )
L
l
(N )
(, d, n) + l(, d) + c
N +1
(n = N )
N
-1
i=1
c
i
(f¨
ur n
N + 1) =
L
l
(N )
(, d, n) + c
N +1
.
78
Vgl. Berger (1985), S. 461.

318
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Aus dieser monoton wachsenden Folge von modifizierten Verlustfunktionen kann die
ebenfalls monoton wachsende Folge von Risiken (r
(.)
(
(N )
(.)))
n
IN
gebildet werden:
79
r
(.)
(N )
(.)
r
(.)
(N +1)
(.)
(8.135)
Es ist n¨
amlich
r
(.)
(N )
(.) = r
(N )N
(.)
(]
[(.), 0)
= min E
(.)
(l(
,
0
)),
x
1
U
min E
(.
|x
1
)
(l(
,
1
(x
1
))), ...
x
N -1
U
min E
(.
|x
1
,...,x
N1
)
(l(
,
N
-1
(x
1
, ..., x
N
-1
))), c
N
p
X
(x
N
-1
|x
1
, ..., x
N
-2
)
+ c
N
-1
...p
X
(x
1
) + c
1
min E
(.)
(l(
,
0
)),
x
1
U
min E
(.
|x
1
)
(l(
,
1
(x
1
))), ...
x
N -1
U
min E
(.
|x
1
,...,x
N1
)
(l(
,
N
-1
(x
1
, ..., x
N
-1
))),
x
N
U
min E
(.
|x
1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
N
))), c
N +1
p
X
(x
N
|x
1
, ..., x
N
-1
) + c
N
p
X
(x
N
-1
|x
1
, ..., x
N
-2
) + c
N
-1
...p
X
(x
1
) + c
1
= r
(N +1)N +1
(.)
(]
[(.), 0) = r
(.)
(N +1)
(.)
bzw.
r
(.)
(N )
(.) = r
(N )N
(.)
(]
[(.), 0)
= min E
(.)
(l(
,
0
)),
U
min E
(.
|x
1
)
(l(
,
1
(x
1
))), ...
U
min E
(.
|x
1
,...,x
N1
)
(l(
,
N
-1
(x
1
, ..., x
N
-1
))), c
N
f
X
(x
N
-1
|x
1
, ..., x
N
-2
)dx
N
-1
+ c
N
-1
...f
X
(x
1
)dx
1
+ c
1
min E
(.)
(l(
,
0
)),
U
min E
(.
|x
1
)
(l(
,
1
(x
1
))), ...
U
min E
(.
|x
1
,...,x
N1
)
(l(
,
N
-1
(x
1
, ..., x
N
-1
))),
U
min E
(.
|x
1
,...,x
N
)
(l(
,
N
(x
1
, ..., x
N
))), c
N +1
f
X
(x
N
|x
1
, ..., x
N
-1
)dx
N
+ c
N
f
X
(x
N
-1
|x
1
, ..., x
N
-2
)dx
N
-1
+ c
N
-1
...f
X
(x
1
)dx
1
+ c
1
= r
(N +1)N +1
(.)
(]
[(.), 0) = r
(.)
(N +1)
(.) .
Da nach (8.134) diese monoton wachsende Folge nach oben durch r
(.)
(
(.)) be-
schr¨
ankt ist, konvergiert die Folge. Eine hinreichende Bedingung daf¨
ur, dass die Folge
der Bayes-Risiken der modifizierten verk¨
urzten Verfahren (r
(.)
(
(N )
(.)))
N
IN
gegen das
Bayes-Risiko des unendlichfortsetzbaren Verfahrens r
(.)
(
(.)) konvergiert, liefert der
folgende Satz:
Satz:
80
Ist der Verlust aus einer falschen Entscheidung durch eine Verlustfunktion
l :
× ID IL, IL IR
+
0
, mit min
d
ID
l(, d) = 0 gegeben, so gilt, falls die Folge der
Risiken (r
(.),n
(X
1
, ..., X
n
))
n
IN
= (E
X
1
,...,X
n
(E
(.
|X
1
,...,X
n
)
(l(
,
n
(X
1
, ..., X
n
)))))
n
IN
=
79
Vgl. Berger (1985), S. 461.
80
Vgl. Berger (1985), S. 469 f., Ferguson (1967), S. 324 f.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
319
(E
(.)
(E
(l(
,
n
(X
1
, ..., X
n
)))))
n
IN
die Bedingung lim
n
r
(.),n
(X
1
, ..., X
n
) = 0 er-
ullt, oder falls die Verlustfunktion l(., .) beschr¨
ankt ist, auch:
lim
N
r
(.)
(N )
(.) = r
(.)
(
(.))
(8.136)
ur den Beweis soll an dieser Stelle, wie beim analogen Satz f¨
ur verk¨
urzte Verfahren
ohne Modifikation der Verlustfunktion auf Ferguson und Berger verwiesen werden.
81
Es ist nun f¨
ur das Bayes-Risiko des unendlich fortsetzbaren Verfahrens eine Folge
von ¨
Ubersch¨
atzungen und eine Folge von Untersch¨
atzungen gefunden, die unter be-
stimmten Voraussetzungen gegen das Bayes-Risiko r
(.)
(
(.)) konvergieren. Da immer
gilt
82
r
(.)
(N )(.)
r
(.)
(
(.))
r
(.)
(
N
(.)) ,
(8.137)
ist die Approximation von r
(.)
(
(.)) mittels r
(.)
(
N
(.)) bzw. r
(.)
(
(N )
(.)) umso besser,
je kleiner die Differenz r
(.)
(
N
(.))
- r
(.)
(
(N )
(.)) ist.
8.4.2
Modifizierte verk¨
urzte sequentielle Bayes-Verfahren f¨
ur
unscharfe Daten
ur die Anwendung des Verfahrens auf unscharfe Daten kann man analog zum verk¨
urz-
ten Verfahren mit der urspr¨
unglichen Verlustfunktion vorgehen, nur dass anstatt von
der Fuzzy-Extension der gew¨
ohnlichen Verlustfunktion (8.72) von der Fuzzy-Extension
der modifizierten Verlustfunktion ausgegangen werden muss:
L
l
(N )
:
× F(ID) × IN F(IR
+
0
)
, ~
D, n
L
l
(N )
, ~
D, n = l
(N )
(, ~
D)
n
i=1
c
i
=
L
l
, ( ~
A
1
, ..., ~
A
n
), n
= l
, ( ~
A
1
, ..., ~
A
n
)
n
i=1
c
i
ur n < N
n
i=1
c
i
ur n
N
(8.138)
Wurden nun n unscharfe Beobachtungen, n
N, durchgef¨uhrt, bei denen man die
unscharfen Daten ( ~
A
1
, ..., ~
A
n
) erhielt, so sind f¨
ur jedes (x
1
, ..., x
n
)
supp(~A
1
)
× ... ×
supp( ~
A
n
) das Abbruchrisiko
r
(N )0
(.
|x
1
,...,x
n
)
(]
[(.), n) = E
(.
|x
1
,...,x
n
)
l
(N )
(
,
n
(x
1
, ..., x
n
)) +
n
i=1
c
i
,
(8.139)
81
Vgl. Berger (1985), S. 469 ff., Ferguson (1967), S. 324 f. Eine weitere Folge von unteren Schranken
ur = r
(.)
(
(.)) schl¨
agt Hoeffding (1960), S. 364 ff.,vor.
82
Vgl. Berger (1985), S. 462.

320
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
welches f¨
ur n < N mit dem Abbruchrisiko r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) f¨
ur verk¨
urzte Verfahren
mit gew¨
ohnlicher Verlustfunktion ¨
ubereinstimmt, und das Fortsetzungsrisiko
r
(N )N
-n
(.
|x
1
,...,x
n
)
]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l
(N )
(
,
n
(x
1
, ..., x
n
))),
x
n+1
U
min E
(.
|x
1
,...,x
n+1
)
(l
(N )
(
,
n+1
(x
1
, ..., x
n+1
))), ...
x
N -1
U
min E
(.
|x
1
,...,x
N -1
)
(l
(N )
(
,
N
-1
(x
1
, ..., x
N
-1
))),
x
N
U
E
(.
|x
1
,...,x
N
)
(l
(N )
(
,
N
(x
1
, ..., x
N
)))p
X
(x
N
|x
1
, ..., x
N
-1
)
=0
+c
N
}
p
X
(x
N
-1
|x
1
, ..., x
N
-2
) + c
N
-1
} ...p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
} +
n
i=1
c
i
(8.140)
ur diskretes X bzw.
r
(N )N
-n
(.
|x
1
,...,x
n
)
]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l
(N )
(
,
n
(x
1
, ..., x
n
))),
U
min E
(.
|x
1
,...,x
n+1
)
(l
(N )
(
,
n+1
(x
1
, ..., x
n+1
))), ...
U
min E
(.
|x
1
,...,x
N-1
)
(l
(N )
(
,
N
-1
(x
1
, ..., x
N
-1
))),
U
E
(.
|x
1
,...,x
N
)
(l
(N )
(
,
N
(x
1
, ..., x
N
)))f
X
(x
N
|x
1
, ..., x
N
-1
)dx
N
=0
+c
N
}
f
X
(x
N
-1
|x
1
, ..., x
N
-2
)dx
N
-1
+ c
N
-1
}
... f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
} +
n
i=1
c
i
(8.141)
ur stetiges X zu berechnen. Man erh¨
alt ein unscharfes Abbruchrisiko
~
r
(N )0
~
~
(.
| ~
A
1
,..., ~
A
n
)
]
[(.), n =
r,
~
r
(N)0
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r)
r IR
+
0
,
~
r
(N)0
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
r
(N )0
(.|x1,...,xn)
(][(.),n)=r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(8.142)
und ein unscharfes Fortsetzungsrisiko
~
r
(N )N
-n
~
~
(.
| ~
A
1
,..., ~
A
n
)
]
[(.), n =
r,
~
r
(N)N-n
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r)
r IR
+
0
,
~
r
(N)N -n
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
r
(N)N -n
(.|x1,...,xn)
(][(.),n)=r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
.
(8.143)
Dabei gilt f¨
ur das unscharfe Abbruchrisiko
~
r
(N )0
~
~
(.
| ~
A
1
,..., ~
A
n
)
]
[(.), n
= E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
(N )
~
,
n
( ~
A
1
, ..., ~
A
n
)
n
i=1
c
i
=
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
,
n
( ~
A
1
, ..., ~
A
n
)
n
i=1
c
i
ur n < N
N
i=1
c
i
ur n
N.
(8.144)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
321
Das unscharfe Fortsetzungsrisiko kann wiederum mit Hilfe der unscharfen Elemente
der Fuzzy-Scharen von Pr¨
adiktivwahrscheinlichkeitsfunktionen f¨
ur diskretes X:
co ~
r
(N )N
-n
~
~
(.
| ~
A
1
,..., ~
A
n
)
(]
[(.), n) = min co E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( l ( ~
,
n
( ~
A
1
, ..., ~
A
n
))) ,
co
x
n+1
U
min E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n
, x
n+1
))), ...
x
N-1
U
min E
(.
|x
1
,...,x
n
,x
n+1
,...,x
N -1
)
(l(
,
N
-1
(x
1
, ..., x
n
, x
n+1
, ..., x
N
-1
))),
c
N
} , p
X
(x
N
-1
|x
1
, ..., x
n
, x
n+1
, ..., x
N
-2
) + c
N
-1
} ...
p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
, min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
x
1
supp(~A
1
), ..., x
n
supp(~A
n
)
n
i=1
c
i
(8.145)
bzw. Pr¨
adiktivdichten f¨
ur stetiges X angeschrieben werden:
co ~
r
(N )N
-n
~
~
(.
| ~
A
1
,..., ~
A
n
)
(]
[(.), n) = min co E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( l ( ~
,
n
( ~
A
1
, ..., ~
A
n
))) ,
co
U
min E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n
, x
n+1
))), ...
U
min E
(.
|x
1
,...,x
n
,x
n+1
,...,x
N-1
)
(l(
,
N
-1
(x
1
, ..., x
n
, x
n+1
, ..., x
N
-1
))),
c
N
} , f
X
(x
N
-1
|x
1
, ..., x
n
, x
n+1
, ..., x
N
-2
)dx
N
-1
+ c
N
-1
} ...
f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
, min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
x
1
supp(~A
1
), ..., x
n
supp(~A
n
)
n
i=1
c
i
(8.146)
Analog zu (8.106)-(8.126) k¨
onnen nun f¨
ur die verschiedenen Methoden zur Bestimmung
einer optimalen Stoppzeit wiederum die Abbruchregeln bzw. Stoppzeiten angegeben
werden, wann das modifizierte verk¨
urzte sequentielle Bayes'sche Entscheidungsverfah-
ren bei unscharfen Daten fortzusetzen bzw. abzubrechen ist. Es soll hier mit der Angabe
der Stoppzeiten vorlieb genommen werden.
(i) Stoppzeit nach der Tr¨
agertangentialmethode:
T
(N )
= min n
{0, ..., N} (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
r
(N )0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(N )N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.147)
(ii) Stoppzeit nach der Tr¨
agerinklusionsmethode:
T
(N )
= min n
{0, ..., N} (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
r
(N )0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(N )N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.148)
(iii) Stoppzeit nach der Kerntangentialmethode:
T
(N )
= min n
{0, ..., N} (x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
r
(N )0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(N )N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.149)

322
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(iv) Stoppzeit nach der Kerninklusionsmethode:
T
(N )
= min n
{0, ..., N} (x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
r
(N )0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(N )N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.150)
(v) Stoppzeit nach der -Niveautangentialmethode:
T
(N )
= min
{n {0, ..., N} |(x
1
, ..., x
n
)
A
1
× ... × A
n
:
r
(N )0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(N )N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.151)
(vi) Stoppzeit nach der -Niveauinklusionsmethode:
T
(N )
= min
{n {0, ..., N} |(x
1
, ..., x
n
)
A
1
× ... × A
n
:
r
(N )0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(N )N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.152)
(vii) Stoppzeit nach der Kardinalit¨
atsmethode:
T (card)
(N )
= min n
{0, ..., N}
card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
~A
1
... ~A
n
r
(N )0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(N )N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
~A
1
... ~A
n
r
(N )0
(.
|x
1
,...,x
n
)
(]
[(.), n) > r
(N )N
-n
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.153)
Auch f¨
ur das am Ende von Abschnitt 8.3.2 vorgestellte sequentielle Bayes'sche Test-
verfahren nach der Methode von Casals f¨
ur klassische oder unscharfe einfache Hypo-
thesen mit unscharfen Daten, welche auf Basis der exakten Wahrscheinlichkeiten (4.57)
ur unscharfe Ereignisse nach Zadeh jedenfalls zu scharfen Entscheidungen und schar-
fen Abbruchregeln f¨
uhrt, wurde von Casals als Erg¨
anzung zum verk¨
urzten Verfahren
ein modifiziertes verk¨
urztes sequentielles Testverfahren vorgeschlagen.
83
Anstelle des urspr¨
unglichen Problems wird aber angenommen, dass f¨
ur ein gegebe-
nes N
IN
r
(N )0
(.
| ~
A
1
,..., ~
A
N
)
(]
C
[(.), N ) = N c
gilt, und daher
r
(N )j
(.
| ~
A
1
,..., ~
A
N
)
(]
C
[(.), N ) = r
(N )0
(.
| ~
A
1
,..., ~
A
N
)
(]
C
[(.), N ) = N c
ur j
IN ist, woraus sich eine nat¨urliche Schranke f¨ur das sequentielle Bayes'sche
Testverfahren ergibt.
84
ur n
{0, 1, ..., N - 1} wird das Fortsetzungsrisko wie beim
urspr¨
unglichen Verfahren nach der Rekursionsformel
r
(N )N
-n
(.
| ~
A
1
,..., ~
A
n
)
(]
C
[(.), n) = min r
(N )0
(.
| ~
A
1
,..., ~
A
n
)
(]
C
[(.), n),
~
A
n+1
N
r
(N )N
-(n+1)
(.
| ~
A
1
,..., ~
A
n
, ~
A
n+1
)
(]
C
[(.), n + 1)
· P (~A
n+1
|~A
1
, ..., ~
A
n
) + c
berechnet. Das Gesamtrisiko des modifizierten Verfahrens kann dann angeschrieben
83
Vgl. Casals / Gil (1994), S. 292 f., bzw. f¨
ur scharfe Hypothesen Casals / Salas (1988), S. 320 f.
84
Vgl. Casals / Gil (1994), S. 292 f.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
323
werden als
r
(N )
(.)
(]
C
[(.)) =
N
-1
n=0
~
A
1
,..., ~
A
n
N
n
C (N ),n
( ~
A
1
, ... ~
A
n
)
· r
(N )0
(.
| ~
A
1
,..., ~
A
n
)
(]
C
[(.), n)
· P (~A
1
, ..., ~
A
n
)
+ N c
·
~
A
1
,..., ~
A
n
N
n
C (N ),n
( ~
A
1
, ... ~
A
n
)
· P (~A
1
, ..., ~
A
n
)
Es gilt r
(N )
(.)
(]
C
(N )
[(.))
r
(N +1)
(.)
(]
C
(N +1)
[(.)) f¨
ur N
IN und lim
N
r
(N )
(.)
(]
C
(N )
[(.)) =
r
(.)
(]
C
[(.)).
85
8.4.3
Modifiziertes verk¨
urztes sequentielles Punktsch¨
atz-
verfahren f¨
ur unscharfe Daten
Zur Demonstration der Vorgangsweise bei modifizierten verk¨
urzten Bayes'schen Ent-
scheidungsverfahren mit unscharfen Daten soll wiederum eine unscharfe Punktsch¨
atzung
berechnet werden. Wiederum erfolgen die Darstellungen exemplarisch anhand des be-
gleitenden Beispiels, d.h. f¨
ur eine unscharf Poisson-verteilte Fuzzy-Zufallsvariable.
Begleitendes Beispiel: Es wird angenommen, dass im parametrischen stochastischen
Modell X
Po
, X :
IN
0
, der Parameter
eine Zufallsvariable auf dem messba-
ren Parameterraum (IR
+
0
,
B(IR
+
0
)) ist und dass die a priori invertiert-Gamma-verteilt
mit Parametern a ,
1
b
ist, also
a ,
1
b
, d.h. () = f
(
|a ,
1
b
) =
b
a
·
a -1
·e
-b
(a
-1)!
. Auf-
grund der Folge X
1
, X
2
, ... von unabh¨
angigen und identisch wie X verteilten Zufalls-
variablen soll eine sequentielle Sch¨
atzung f¨
ur den Parameter gefunden werden. Der
Verlust aus einer Fehlsch¨
atzung ist gegeben durch eine quadratische Verlustfunktion
l(, d) = s
· ( - d)
2
, die Kosten der i-ten Beobachtung sind gleich c
i
ur i
{1, ..., N}.
Zur Ermittlung der sequentiellen Sch¨
atzung soll ein bei N modifiziertes verk¨
urztes
sequentielles Bayes-Verfahren mit der folgenden modifizierten Gesamtverlustfunktion
L
l(, d, n) =
s
· ( - d)
2
+
n
i=1
c
i
ur n < N
N
i=1
c
i
ur n
N
zugrunde gelegt werden.
Zur Berechnung von Abbruch- und Fortsetzungsrisiko k¨
onnen die im Beispiel am
Ende von Abschnitt 8.3 entwickelten Formeln zur Anwendung kommen. Es ist
r
(N )0
(.
|x
1
,...,x
n
)
(]
[(.), n) =
s
·
a +
n
i=1
x
i
(b +n)
2
+
n
i=1
c
i
ur n < N
N
i=1
c
i
ur n
N
und
r
(N )N
-n
f
(.
|a +
n
i=1
x
i
,
1
b +n
)
(]
[(.), n) =
min s
·
a +
n
i=1
x
i
(b +n)
2
+
n
i=1
c
i
,
s
·
a +
n
i=1
x
i
(b +n)(b +n+1)
+
n+1
i=1
c
i
, ...,
s
·
a +
n
i=1
x
i
(b +n)(b +N
-1)
+
N
-1
i=1
c
i
,
N
i=1
c
i
ur n < N
N
i=1
c
i
ur n < N.
85
Vgl. Casals / Gil / Gil (1994), S. 293.

324
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Bei Vorliegen unscharfer Daten erh¨
alt man f¨
ur n < N das unscharfe Abbruchrisiko mit
der Zugeh¨
origkeitsfunktion
~
r
(N)0
~
~
f (.|a ~
A1... ~
An,
1
b +n
)
((]
[(.),n)
(r)
=
sup
(x1,...,xn)supp(fuzA1)×...×supp( ~
An):
a +n
i=1
xi
(b +n)2
+
n
i=1
ci=r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(B.8.20)
bzw.
~
r
(N )0
~~
f
(.
|a ~
A
1
... ~
A
n
,
1
b +n
)
]
[(.), n = s
·
a
~A
1
... ~A
n
(b + n)
2
n
i=1
c
i
(B.8.21)
und das unscharfe Fortsetzungsrisiko mit der Zugeh¨
origkeitsfunktion
~
r
(N )N -n
~
~
f (.|a ~
A1... ~
An,
1
b +n
)
((]
[(.),n)
(r)
=
sup
(x1,...,xn)supp(fuzA1)×...×supp( ~
An):
min
a +n
i=1
xi
(b +n)2
+
n
i=1
ci,
a +n
i=1
xi
(b +n)(b +n+1)
+
n+1
i=1
ci,
...,
a +n
i=1
xi
(b +n)(b +N -1)
+
N-1
i=1
ci,
N
i=1
ci =r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(B.8.22)
und der konvexen H¨
ulle
co
~
r
(N )N
-n
~~
f
(.
|a ~
A
1
... ~
A
n
,
1
b +n
)
]
[(.), n
= min co
s
·
a
~A
1
... ~A
n
(b + n)
2
n
i=1
c
i
,
co
s
·
a
~A
1
... ~A
n
(b + n)(b + n + 1)
n+1
i=1
c
i
, ...,
co
s
·
a
~A
1
... ~A
n
(b + n)(b + N
- 1)
N
-1
i=1
c
i
,
N
i=1
c
i
.
(B.8.23)
ur n
N sind Abbruch- und Fortsetzungsrisiko gleich
N
i=1
c
i
, f¨
ur scharfe und unscharfe
Daten, sofern die Beobachtungskosten als scharfe Zahl bzw. Funktion von n definiert
ist, Unsch¨
arfe der Beobachtungsdaten hat hierauf keinen Einfluss.
Es ergeben sich daraus die folgenden Stoppzeitvarianten:
(i) Stoppzeit nach der vereinfachten Tr¨
agertangentialmethode:
T s
(N )
= min min n
{0, ..., N - 1}
n
supp(~A
1
... ~A
n
) :
s
·(a +
n
)
(b +n)
2
= min
min
j
{0,...,N-1-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
,
N
i=1
c
i
, N
(B.8.24)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
325
(ii) Stoppzeit nach der vereinfachten Tr¨
agerinklusionsmethode:
T s
(N )
= min min n
{0, ..., N - 1}
n
supp(~A
1
... ~A
n
) :
s
·(a +
n
)
(b +n)
2
= min
min
j
{0,...,N-1-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
,
N
i=1
c
i
, N
(B.8.25)
(iii) Stoppzeit nach der vereinfachten Kerntangentialmethode:
T s
(N )
= min min n
{0, ..., N - 1}
n
ker(~A
1
... ~A
n
) :
s
·(a +
n
)
(b +n)
2
= min
min
j
{0,...,N-1-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
,
N
i=1
c
i
, N
(B.8.26)
(iv) Stoppzeit nach der vereinfachten Kerninklusionsmethode:
T s
(N )
= min min n
{0, ..., N - 1}
n
ker(~A
1
... ~A
n
) :
s
·(a +
n
)
(b +n)
2
= min
min
j
{0,...,N-1-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
,
N
i=1
c
i
, N
(B.8.27)
(v) Stoppzeit nach der vereinfachten -Niveautangentialmethode:
T s
(N )
= min min n
{0, ..., N - 1}
n
(A
1
... A
n
)
:
s
·(a +
n
)
(b +n)
2
= min
min
j
{0,...,N-1-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
,
N
i=1
c
i
, N
(B.8.28)
(vi) Stoppzeit nach der vereinfachten -Niveauinklusionsmethode:
T s
(N )
= min min n
{0, ..., N - 1}
n
(A
1
... A
n
)
:
s
·(a +
n
)
(b +n)
2
= min
min
j
{0,...,N-1-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
,
N
i=1
c
i
, N
(B.8.29)
(vii) Stoppzeit nach der vereinfachten Kardinalit¨
atsmethode:
T s(card)
(N )
= min min n
{0, ..., N - 1}
card
n
,
~
A
1
... ~
A
n
(
n
)
~A
1
... ~A
n
s
·(a +
n
)
(b +n)
2
= min
min
j
{0,...,N-1-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
,
N
i=1
c
i
card
n
,
~
A
1
... ~
A
n
(
n
)
~A
1
... ~A
n
s
·(a +
n
)
(b +n)
2
> min
min
j
{0,...,N-1-n}
s
·(a +
n
)
(b +n)(b +n+j)
+
j
i=1
c
n+i
,
N
i=1
c
i
, N
(B.8.30)

326
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Begleitendes numerisches Beispiel: Mit den gleichen Angaben wie im vorherge-
henden Abschnitt, d.h. ausgehend von einer A-priori-Gammaverteilung mit Parametern
a = 2
· 9 = 18, b =
1
2
() = f
(
|18,
1
2
) =
2
18
·
17
·e
-5
17!
, soll eine verlustminimierende
Sch¨
atzung f¨
ur den Parameter angegeben werden. Die Kosten der Beobachtung sind
wiederum in der ersten Periode gleich c
1
= 6, in der zweiten c
2
= 5.2, in der dritten
gleich c
3
= 3.5 und in der vierten Periode, aufgrund einer Konventionalstrafe f¨
ur ver-
sp¨
atete Nutzung, gleich c
4
= 12.6. Der Verlust aus einer Fehlsch¨
atzung wird wiederum
beschrieben durch eine quadratische Verlustfunktion l(, d) = 7
· ( - d)
2
. Als Gesamt-
verlustfunktion wird jedoch, da, aufgrund der vertraglichen Verpflichtung das Gebiet
zu nutzen und der damit verbundenen Konventionalstrafe ab einer Beobachtungsdauer
von 4 Perioden, der Profit aus einer weiteren Beobachtung gegen¨
uber der wachsenden
Strafverpflichtung vernachl¨
assigt werden kann, die folgende modifizierte Verlustfunkti-
on angenommen:
L
l
(4)
(, d, n) =
s
· ( - d)
2
+
n
i=1
c
i
ur n < 4
6 + 5.2 + 3.5 + 12.5 = 27.3 f¨
ur n
4
A priori besteht also keine Unsch¨
arfe. Abbruchrisiko und Fortsetzungsrisiko auf der
Stufe 0 sind somit scharfe Gr¨
oßen. Es ist
r
(4)0
f
(.
|18,
1
2
)
(]
[(.), 0) =
7
·18
4
= 31.5
r
(4)4
f
(.
|18,
1
2
)
(]
[(.), 0) = min
7 18
4
,
7
·18
6
+ 6,
7
·18
8
+ 11.2,
7
·18
10
+ 14.7, 27.3
= min
{31.5, 27, 26.95, 27.3, 27.3} = 26.95.
Wegen r
(4)0
f
(.
|18,
1
2
)
(]
[(.), 0) = 31.5 > r
(4)4
f
(.
|18,
1
2
)
(]
[(.), 0) = 26.95 ist ø
(4)0
= 0, und es
wird X
1
bzw. die Fuzzy-Perzeption ~
X
1
von X
1
beobachtet. Man erh¨
alt die unscharfe
Beobachtung ~
A
1
=
0.2
0.8
1
0.5
8
9
10
11
. Nun werden unscharfes Abbruchrisiko und un-
scharfes Fortsetzungsrisiko auf der Stufe 1 berechnet. Es ist
a
~A
1
= 18
0.2
0.8
1
0.5
8
9
10
11
=
0.2
0.8
1
0.5
26
27
28
29
und daher:
~
r
(4)0
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1) =
7
·
0.2
0.8
1
0.5
26
27
28
29
9
6
=
0.2
0.8
1
0.5
26.2222
27.0000
27.7778
28.5556
mit
co
~
r
(4)0
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1)
=
[26.2222, 28.5556] f¨
ur 0 <
0.2
[27.0000, 28.5556] f¨
ur 0.2 <
0.5
[27.0000, 27.7778] f¨
ur 0.2 <
0.5
27.7778
ur 0.8 <
1.
~
r
(4)3
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1) erh¨
alt man durch Berechung von
min
7
·26
9
+ 6,
7
·26
12
+ 11.2,
7
·26
15
+ 14.7, 27.3
= min
{26.2222, 26.3667, 26.8333, 27.3000} = 26.2222,
a
~
A
1
(26) = 0.2
min
7
·27
9
+ 6,
7
·27
12
+ 11.2,
7
·27
15
+ 14.7, 27.3
= min
{27.0000, 26.9500, 27.3000, 27.3000} = 26.9500,
a
~
A
1
(27) = 0.8
min
7
·28
9
+ 6,
7
·28
12
+ 11.2,
7
·28
15
+ 14.7, 27.3

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
327
= min
{27.7778, 27.5333, 27.7667, 27.3000} = 27.3000,
a
~
A
1
(28) = 1
min
7
·29
9
+ 6,
7
·29
12
+ 11.2,
7
·29
15
+ 14.7, 27.3
= min
{28.5556, 28.1167, 28.2333, 27.3000} = 27.3000,
a
~
A
1
(29) = 0.5.
Es ist also
~
r
(4)3
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1) =
0.2
0.8
1
26.2222
26.9500
27.3000
bzw.
co
~
r
(4)3
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1)
= min
co
7
0.2
0.8
1
0.5
26
27
28
29
9
6
, co
7
0.2
0.8
1
0.5
26
27
28
29
12
11.2
,
co
7
0.2
0.8
1
0.5
26
27
28
29
15
14.7
, 27.3000
= min co
0.2
0.8
1
0.5
26.2222
27.0000
27.7778
28.5556
, co
0.2
0.8
1
0.5
26.3667
26.9500
27.5333
28.1167
,
co
0.2
0.8
1
0.5
26.8333
27.3000
27.7667
28.2333
, 27.3000
= co
0.2
0.8
1
26.2222
26.9500
27.3000
mit
co
~
r
(4)3
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1)
=
[26.2222, 27.3000] f¨
ur 0 <
0.2
[26.9500, 27.3000] f¨
ur 0.2 <
0.8
27.3000
ur 0.8 <
1.
Außerdem ist
card
0.2
26
= 0.2 < card
0.8
1
0.5
27
28
29
= 0.8 + 1 + 0.5 = 2.3.
Damit ist
ø
s
(4),1
=
(0,0.2]
ø
s
(4),1
= 1.
(N.8.8)
Sofern die Stoppzeit nach der (vereinfachten) Tr¨
agertangentialmethode oder nach der
(vereinfachten) -Niveautangentialmethode f¨
ur ein
0.2 angewendet wird, wird das
Verfahren abgebrochen, die Bayes'sche Sch¨
atzung auf der Stufe 1 lautet dann
1
( ~
A
1
) =
0.2
0.8
1
0.5
26
27
28
29
3 =
0.2
0.8
1
0.5
8.6667
9.0000
9.3333
9.6667
.
(N.8.9)
Bei Anwendung aller anderen Stoppzeiten wird X
2
bzw. die Fuzzy-Perzeption ~
X
2
von
X
2
beobachtet. Man erh¨
alt die unscharfe Beobachtung ~
A
2
=
0.7
1
0.6
11
12
13
. Nun sind
auf der Stufe 2 wiederum unscharfes Abbruchrisiko und unscharfes Fortsetzungsrisiko
zu bestimmen. Es ist
a
~A
1
~A
2
= 18
0.2
0.8
1
0.5
8
9
10
11
0.7
1
0.6
11
12
13
=
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
und daher:

328
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
~
r
(4)0
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2) =
7
·
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
16
11.2
=
0.2
0.7
0.8
1
0.6
0.5
27.3875
27.8250
28.2625
28.7000
29.1375
29.5750
mit
co
~
r
(4)0
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2)
=
[27.3875, 29.5750] f¨
ur 0 <
0.2
[27.8250, 29.5750] f¨
ur 0.2 <
0.5
[27.8250, 29.1375] f¨
ur 0.5 <
0.6
[28.2625, 29.1375] f¨
ur 0.6 <
0.7
[28.2625, 28.7000] f¨
ur 0.7 <
0.8
28.7000
ur 0.8 <
1.
~
r
(4)2
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2) erh¨
alt man durch Berechnung von
min
7
·37
16
+ 11.2,
7
·37
20
+ 14.7, 27.3 = min
{27.3875, 27.6500, 27.3000} = 27.3000,
a
~
A
1
~
A
2
(37) = 0.2
min
7
·38
16
+ 11.2,
7
·38
20
+ 14.7, 27.3 = min
{27.8250, 28.0000, 27.3000} = 27.3000,
a
~
A
1
~
A
2
(38) = 0.7
min
7
·39
16
+ 11.2,
7
·39
20
+ 14.7, 27.3 = min
{28.2625, 28.3500, 27.3000} = 27.3000,
a
~
A
1
~
A
2
(39) = 0.8
min
7
·40
16
+ 11.2,
7
·40
20
+ 14.7, 27.3 = min
{28.7000, 28.7000, 27.3000} = 27.3000,
a
~
A
1
~
A
2
(40) = 0.1
min
7
·41
16
+ 11.2,
7
·41
20
+ 14.7, 27.3 = min
{29.1375, 29.0500, 27.3000} = 27.3000,
a
~
A
1
~
A
2
(21) = 0.6
min
7
·42
16
+ 11.2,
7
·42
20
+ 14.7, 27.3 = min
{29.5750, 29.4000, 27.3000} = 27.3000,
a
~
A
1
~
A
2
(42) = 0.5.
Es ist also
~
r
(4)2
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2) = 27.3000
bzw.
co
~
r
(4)2
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2)
= min
co
7
·
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
16
11.2
,
co
7
·
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
20
14.7
, 27.3
= min co
0.2
0.7
0.8
1
0.6
0.5
27.3875
27.8250
28.2625
28.7000
29.1375
29.5750
,
co
0.2
0.7
0.8
1
0.6
0.5
27.6500
28.0000
28.3500
28.7000
29.0500
29.4000
, 27.3000
= 27.3000.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
329
Nach der zweiten Beobachtung f¨
uhrt somit keine einzige Stoppzeit zum Abbruch des
Verfahrens, d.h. ø
(4),2
= 0, daher ist es auch nicht sinnvoll, eine Sch¨
atzentscheidung
ur die Stufe 2 zu definieren. Es wird also X
3
bzw. die Fuzzy-Perzeption ~
X
3
von X
3
beobachtet, es ist ~
A
3
=
0.5
1
0.8
6
7
8
. Zur Berechnung des unscharfen Abbruchrisikos
und des unscharfen Fortsetzungsrisikos wird
a
~A
1
~A
2
~A
3
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
bestimmt, und man erh¨
alt:
~
r
(4)0
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)
=
7
·
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
25
14.7
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
26.7400
27.0200
27.3000
27.5800
27.8600
28.1400
28.4200
28.7000
mit
co
~
r
(4)0
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)
=
[26.7400, 28.7000] f¨
ur 0 <
0.2
[27.0200, 28.7000] f¨
ur 0.2 <
0.5
[27.3000, 28.4200] f¨
ur 0.5 <
0.6
[27.3000, 28.1400] f¨
ur 0.6 <
0.7
[27.5800, 28.1400] f¨
ur 0.7 <
0.8
28.8600
ur 0.8 <
1.
~
r
(4)1
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3) erh¨
alt man durch Berechnung von
min
7
·43
20
+ 14.7, 27.3 = min
{26.7400, 27.3000} = 26.7400,
a
~
A
1
~
A
2
~
A
3
(43) = 0.2
min
7
·44
20
+ 14.7, 27.3 = min
{27.0200, 27.3000} = 27.0200,
a
~
A
1
~
A
2
~
A
3
(44) = 0.5
min
7
·45
20
+ 14.7, 27.3 = min
{27.3000, 27.3000} = 27.3000,
a
~
A
1
~
A
2
~
A
3
(45) = 0.7
min
7
·46
20
+ 14.7, 27.3 = min
{27.5800, 27.3000} = 27.3000,
a
~
A
1
~
A
2
~
A
3
(46) = 0.8
min
7
·47
20
+ 14.7, 27.3 = min
{27.8600, 27.3000} = 27.3000,
a
~
A
1
~
A
2
~
A
3
(47) = 1
min
7
·48
20
+ 14.7, 27.3 = min
{28.1400, 27.3000} = 27.3000,
a
~
A
1
~
A
2
~
A
3
(48) = 0.8
min
7
·49
20
+ 14.7, 27.3 = min
{28.4200, 27.3000} = 27.3000,
a
~
A
1
~
A
2
~
A
3
(49) = 0.6
min
7
·50
20
+ 14.7, 27.3 = min
{28.7000, 27.3000} = 27.3000,
a
~
A
1
~
A
2
~
A
3
(50) = 0.5.
Es ist also ~
r
(4)1
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3) =
0.2
0.5
1
26.7400
27.0200
27.3000
bzw.
co
~
r
(4)1
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)
= min
co
7
·
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
25
14.7
, 27.3

330
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
= min co
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
26.74
27.02
27.30
27.58
27.86
28.14
28.42
28.70
, 27.30
= co
0.2
0.5
1
26.7400
27.0200
27.3000
mit
co
~
r
(4)1
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)
=
[26.7400, 27.3000] f¨
ur 0 <
0.2
[27.0200, 27.3000] f¨
ur 0.2 <
0.5
27.3000
ur 0.5 <
1.
Außerdem ist
card
0.2
0.5
0.7
43
44
45
= 0.2 + 0.5 + 0.7 = 1.4
< card
0.8
1
0.8
0.6
0.5
46
47
48
49
50
= 0.8 + 1 + 0.8 + 0.6 + 0.5 = 3.7.
Daher ist
(0.2,0.7]
ø
s
(4),3
= 1.
(N.8.10)
Abbildung 8.12: Fuzzy-Risikovergleich beim modifizierten verk¨
urzten Verfahren
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
26.22
27
27.78
28.56
r
(
r)
~
r
(4)0
~
~
f (.| ~
A1)
(]
[(.),1)
26.95
27.3
~
r
(4)3
~
~
f (.| ~
A1)
(]
[(.),1)
Stufe 1
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
26.74 27.02 27.3 27.58 27.86 28.14 28.58 28.7
r
(
r)
~
r
(4)0
~
~
f (.| ~
A1), ~
A2, ~
A3
(]
[(.),3)
~
r
(4)1
~
~
f (.| ~
A1, ~
A2, ~
A3)
(]
[(.),3)
Stufe 3
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
27.39
27.82
28.26
28.7
29.14
29.57
r
(
r)
~
r
(4)0
~
~
f (.| ~
A1), ~
A2
(]
[(.),2)
27.3
r
(4)2
~
~
f (.| ~
A1, ~
A2)
(]
[(.),2)
Stufe 2
Erkl¨
arung:
·
Abbruchrisiko
Fortsetzungsrisiko
·
Zusammenfall von Abbruch- und
Fortsetzungsrisiko

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
331
Nach der dritten Beobachtungsperiode wird das sequentielle Fuzzy-Entscheidungsver-
fahren abgebrochen, wenn mittels einer Stoppzeit nach der (vereinfachten) -Niveau-
tangentialmethode f¨
ur
(0.2, 0.7] ¨uber Abbruch oder Fortsetzung entschieden wird.
Die unscharfe Bayes'sche Entscheidung nach 3 Beobachtungsperioden lautet
3
( ~
A
1
, ~
A
2
, ~
A
3
) =
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
5
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
8.6
8.8
9.0
9.2
9.4
9.6
9.8
10.0
.
(N.8.11)
In allen anderen F¨
allen wird das Verfahren nach der dritten Periode weiter fortge-
setzt. Aufgrund der Struktur der Gesamtverlustfunktion wird jedoch nach 4 Perioden
jedenfalls abgebrochen. Somit ist
(0.7,1]
ø
s
(4),4
= ø
s
(4),4
= ø
s
(4),4
=
(0,1]
ø
s
(4),4
= ø
s(card)
(4),4
= 1.
(N.8.12)
Die (vereinfachten) Bayes'schen Stoppzeiten f¨
ur das modifizierte verk¨
urzte sequentielle
Fuzzy-Bayes-Entscheidungsverfahren lauten daher:
T s
(4)
=
(0,0.2]T s
(4)
= 1
(0.2,0.7]T s
(4)
= 3
(0.7,1]T s
(4)
=
T s
(4)
=
T s
(4)
=
(0,1]
T s
(4)
=
T s
(4)
=
T s(card)
(4)
= 4
(N.8.13)
8.5
Vorausschauende sequentielle Bayes-Verfahren
und modifizierte vorausschauende sequentielle
Bayes-Verfahren f¨
ur unscharfe Daten
8.5.1
Vorausschauende sequentielle Bayes-Verfahren und mo-
difizierte vorausschauende sequentielle Bayes-Verfahren
Verk¨
urzte sequentielle Bayes-Verfahren und modifizierte verk¨
urzte sequentielle Bayes-
Verfahren lieferten Approximationen f¨
ur unendlich fortsetzbare sequentielle Bayes-
Verfahren, indem durch eine Folge von ¨
Ubersch¨
atzungen und eine Folge von Un-
tersch¨
atzungen das Risiko des sequentiellen Verfahrens nach oben und nach unten
eingegrenzt wurde. Eine Verbesserung der Approximation bringen vorausschauende
sequentielle Bayes-Verfahren (mit gew¨
ohnlicher Verlustfunktion) und modifizierte vor-
ausschauende sequentielle Bayes-Verfahren (mit modifizierter Verlustfunktion). Neben
der besseren Absch¨
atzung des Risikos bringen diese Verfahren außerdem noch den
Vorteil, dass es gen¨
ugt, die Fortsetzungsrisiken f¨
ur wesentlich geringere Umf¨
ange zu
berechnen. Die Idee, die hinter den vorausschauenden Verfahren steht, ist es, auf jeder
Stufe jeweils das Fortsetzungsrisiko f¨
ur m weitere Schritte zu ber¨
ucksichtigen, anstatt
immer das Fortsetzungsrisiko bis zur Stufe N zu betrachten.
86
86
Vgl. Berger (1985), S. 455 ff.

332
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Wie in den vorausgehenden Abschnitten wird das Risiko, auf der Stufe n bei Vor-
liegen der Daten (x
1
, ..., x
n
) j weitere Zufallsvariablen zu beobachten und danach zu
entscheiden, mit r
j
(.
|x
1
,...,x
n
)
(]
[(.), n) gem¨
aß (8.78) bei gew¨
ohnlicher Verlustfunktion
87
bzeichnet und mit r
(N )j
(.
|x
1
,...,x
n
)
(]
[(.), n) gem¨
aß (8.129) bei modifizierter Verlustfunk-
tion, f¨
ur die das Entscheidungsrisiko bei Stichprobenumf¨
angen gr¨
oßer gleich N ver-
schwindet.
88
Definition:
(i) Unter den Voraussetzungen der Definition (8.78) aus Abschnitt 8.3 wird eine
Stoppzeit f¨
ur das m Schritte vorausschauende sequentielle Verfahren durch
m
(x
1
, x
2
, ...):= min n
IN
0
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.154)
definiert. Das m Schritte vorausschauende sequentielle Verfahren mit der Stopp-
zeit
m
(.) wird bezeichnet mit
m
(.) := (
m
(.), ]
[(.)) .
(8.155)
(ii) Unter den Voraussetzungen der Definition (8.129) aus Abschnitt 8.4 wird eine
Stoppzeit f¨
ur das modifizierte m Schritte vorausschauende sequentielle Verfahren
durch
(m)
(x
1
, x
2
, ...):= min n
IN
0
r
(n+m)0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(n+m)m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.156)
definiert. Das modifizierte m Schritte vorausschauende sequentielle Verfahren mit
der Stoppzeit
(m)
(.) wird bezeichnet mit
(m)
(.) :=
(m)
(.), ]
[(.) .
(8.157)
Satz:
(i) Die Stoppzeit
m
(.) gem¨
aß (8.154) ist eine Bayes-sche Stoppzeit f¨
ur das m Schritte
vorausschauende sequentielle Verfahren. Das Verfahren
m
(.) := (
m
(.), ]
[(.))
nach (8.155) ist somit ein m Schritte vorausschauendes sequentielles Bayes-Ver-
fahren.
89
(ii) Die Stoppzeit
(m)
(.) gem¨
aß (8.156) ist eine Bayes-sche Stoppzeit f¨
ur das modifi-
zierte m Schritte vorausschauende sequentielle Verfahren. Das Verfahren
(m)
(.) :=
(
(m)
(.), ]
[(.)) nach (8.157) ist somit ein modifiziertes m Schritte vorausschau-
endes sequentielles Bayes-Verfahren.
90
87
Vgl. Berger (1985), S. 455.
88
Vgl. Berger (1985), S. 461.
89
Vgl. Berger (1985), S. 455.
90
Vgl. Berger (1985), S. 461.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
333
Das Fortsetzungsrisiko r
m
(.
|x
1
,...,x
n
)
(]
[(.), n) kann mittels der Rekursionsformel (8.82)-
(8.84) berechnet werden. Dem Fortsetzungsrisiko r
(n+m)m
(.
|x
1
,...,x
n
)
(]
[(.), n) liegt die modifi-
zierte Verlustfunktion
L
l
(m+n)
(, d, j) gem¨
aß (8.127) zugrunde, und es kann mittels der
Rekursionsformel (8.132) berechnet werden.
Die Stoppzeiten
m
(.) und
(m)
(.) stellen sehr gute Sch¨
atzungen f¨
ur die Stoppzeit
(.) des unendlich fortsetzbaren Verfahrens dar, und es gilt:
91
T
m
T
T
(m)
(8.158)
Besonders einfach in der Berechnung sind modifizierte 1 Schritt vorausschauende
Verfahren.
92
Beim 1 Schritt vorausschauenden Verfahren gen¨
ugt es, auf jeder Stufe n
die Gr¨
oßen
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))) +
n
i=1
c
i
und
r
1
(.
|x
1
,...,x
n
)
(]
[(.), n) = min r
0
(.
|x
1
,...,x
n
)
(]
[(.), n),
x
n+1
U
r
0
(.
|x
1
,...,x
n+1
)
(]
[(.), n + 1)p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
= min E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))) ,
x
n+1
U
E
(.
|x
1
,...,x
n+1
)
(l(,
n
(x
1
, ..., x
n+1
)))p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
+
n
i=1
c
i
ur diskretes X bzw.
r
1
(.
|x
1
,...,x
n
)
(]
[(.), n) = min r
0
(.
|x
1
,...,x
n
)
(]
[(.), n),
U
r
0
(.
|x
1
,...,x
n+1
)
(]
[(.), n + 1)f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
= min E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))) ,
U
E
(.
|x
1
,...,x
n+1
)
(l(,
n
(x
1
, ..., x
n+1
)))f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
+
n
i=1
c
i
ur stetiges X zu berechnen, und es ist
1
= min n
IN
0
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
1
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.159)
d.h.
1
= min n
IN
0
E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))),
x
n+1
U
E
(.
|x
1
,...,x
n+1
)
(l(,
n
(x
1
, ..., x
n+1
)))p
X
(x
n+1
|x
1
, ..., x
n
)
U
E
(.
|x
1
,...,x
n+1
)
(l(,
n
(x
1
, ..., x
n+1
)))f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
.
91
Vgl. Berger (1985), S. 462.
92
Vgl. Berger (1985), S. 461.

334
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Beim modifizierten 1 Schritt vorausschauenden Verfahren reduziert sich aufgrund des
Verschwindens der Verlustfunktion f¨
ur n + 1 der Aufwand auf jeder Stufe n auf die
Berechnung von
r
(n+1)0
(.
|x
1
,...,x
n
)
(]
[(.), n) = E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))) +
n
i=1
c
i
und
r
(n+1)1
(.
|x
1
,...,x
n
)
(]
[(.), n) = min r
(n+1)0
(.
|x
1
,...,x
n
)
(]
[(.), n), c
n+1
+
n
i=1
c
i
= min E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))), c
n+1
+
n
i=1
c
i
,
und es ist
(1)
= min n
IN
0
r
(n+1)0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(n+1)1
(.
|x
1
,...,x
n
)
(]
[(.), n) ,
(8.160)
d.h.
93
(1)
= min n
IN
0
E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
)))
c
n+1
.
8.5.2
Vorausschauende sequentielle Bayes-Verfahren und mo-
difizierte vorausschauende sequentielle Bayes-Verfahren
ur unscharfe Daten
Bei der Anwendung auf unscharfe Daten kann f¨
ur vorausschauende Verfahren analog
zu verk¨
urzten Verfahren und f¨
ur modifizierte vorausschauende Verfahren analog zu
modifizierten verk¨
urzten Verfahren vorgegangen werden.
Beim m Schritte vorausschauenden Verfahren mit unscharfen Daten m¨
ussen auf
jeder Stufe n f¨
ur jedes (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) das Abbruchrisiko
r
0
(x
1
,...,x
n
)
(]
[(.), n) = E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))) +
n
i=1
c
i
und das Fortsetzungsrisiko f¨
ur m Schritte
r
m
(x
1
,...,x
n
)
(]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))),
x
n+1
U
min E
(.
|x
1
,...,x
n+1
)
(l(,
n+1
(x
1
, ..., x
n+1
))), ...
x
n+m-1
U
min E
(.
|x
1
,...,x
n+m-1
)
(l(,
n+m
-1
(x
1
, ..., x
n+m
-1
))),
x
n+m
U
E
(.
|x
1
,...,x
n+m
)
(l(,
n+m
(x
1
, ..., x
n+m
)))p
X
(x
n+m
|x
1
, ..., x
n+m
-1
)
+ c
n+m
p
X
(x
n+m
-1
|x
1
, ..., x
n+m
-2
) + c
n+m
-1
...
p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
+
n
i=1
c
i
93
Vgl. Berger (1985), S. 461.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
335
bei diskretem X und
r
m
(x
1
,...,x
n
)
(]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))),
U
min E
(.
|x
1
,...,x
n+1
)
(l(,
n+1
(x
1
, ..., x
n+1
))), ...
U
min E
(.
|x
1
,...,x
n+m-1
)
(l(,
n+m
-1
(x
1
, ..., x
n+m
-1
))),
U
E
(.
|x
1
,...,x
n+m
)
(l(,
n+m
(x
1
, ..., x
n+m
)))f
X
(x
n+m
|x
1
, ..., x
n+m
-1
)dx
n+m
+ c
n+m
f
X
(x
n+m
-1
|x
1
, ..., x
n+m
-2
)dx
n+m
-1
+ c
n+m
-1
...
f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
+
n
i=1
c
i
bei stetigem X bestimmt werden. Man erh¨
alt so ein unscharfes Abbruchrisiko
~
r
0
~
~
(.
| ~
A
1
,..., ~
A
n
)
]
[(.), n =
r,
~
r
0
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r) r IR
+
0
,
~
r
0
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
r0
(.|x1,...,xn)
(][(.),n)=r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(8.161)
und ein unscharfes Fortsetzungsrisiko
~
r
m
~
~
(.
| ~
A
1
,..., ~
A
n
)
]
[(.), n =
r,
~
r
m
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r) r IR
+
0
,
~
r
m
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
rm
(.|x1,...,xn)
(][(.),n)=r
min
~
A
1
(y
1
), ...,
~
A
n
(y
n
)
.
(8.162)
Es gilt also analog zu (8.103)-(8.105)
~
r
0
~
~
(.
| ~
A
1
,..., ~
A
n
)
]
[(.), n = E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
,
n
( ~
A
1
, ..., ~
A
n
)
n
i=1
c
i
(8.163)
und f¨
ur diskretes X
co ~
r
m
~
~
(.
| ~
A
1
,..., ~
A
n
)
(]
[(.), n) = min co E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( l (~
,
n
( ~
A
1
, ..., ~
A
n
))) ,
co
x
n+1
U
min E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n
, x
n+1
))), ...
x
n+m
U
min E
(.
|x
1
,...,x
n
,x
n+1
,...,x
N
)
(l(
,
n+m
(x
1
, ..., x
n
, x
n+1
, ..., x
n+m
)))
p
X
(x
n+m
|x
1
, ..., x
n
, x
n+1
, ..., x
n+m
-1
) + c
n+m
} ...
p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
, min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
x
1
supp(~A
1
), ..., x
n
supp(~A
n
)
n
i=1
c
i
(8.164)

336
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
bzw. f¨
ur stetiges X
co ~
r
m
~
~
(.
| ~
A
1
,..., ~
A
n
)
(]
[(.), n) = min co E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( l (~
,
n
( ~
A
1
, ..., ~
A
n
))) ,
co
U
min E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n
, x
n+1
))), ...
U
min E
(.
|x
1
,...,x
n
,x
n+1
,...,x
N
)
(l(
,
n+m
(x
1
, ..., x
n
, x
n+1
, ..., x
n+m
)))
f
X
(x
n+m
|x
1
, ..., x
n
, x
n+1
, ..., x
n+m
-1
)dx
n+m
+ c
n+m
} ...
f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
, min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
x
1
supp(~A
1
), ..., x
n
supp(~A
n
)
n
i=1
c
i
(8.165)
Beim modifizierten m Schritte vorausschauenden Verfahren mit unscharfen Daten m¨
ussen
auf jeder Stufe n f¨
ur jedes (x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) das Abbruchrisiko
r
(n+m)0
(x
1
,...,x
n
)
(]
[(.), n) = E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))) +
n
i=1
c
i
und das Fortsetzungsrisiko f¨
ur m Schritte
r
(n+m)m
(x
1
,...,x
n
)
(]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))),
x
n+1
U
min E
(.
|x
1
,...,x
n+1
)
(l(,
n+1
(x
1
, ..., x
n+1
))), ...
x
n+m-1
U
min E
(.
|x
1
,...,x
n+m-1
)
(l(,
n+m
-1
(x
1
, ..., x
n+m
-1
))), c
n+m
p
X
(x
n+m
-1
|x
1
, ..., x
n+m
-2
) + c
n+m
-1
...p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
+
n
i=1
c
i
bei diskretem X und
r
(n+m)m
(x
1
,...,x
n
)
(]
[(.), n) = min E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))),
U
min E
(.
|x
1
,...,x
n+1
)
(l(,
n+1
(x
1
, ..., x
n+1
))), ...
U
min E
(.
|x
1
,...,x
n+m-1
)
(l(,
n+m
-1
(x
1
, ..., x
n+m
-1
))), c
n+m
f
X
(x
n+m
-1
|x
1
, ..., x
n+m
-2
)dx
n+m
-1
+ c
n+m
-1
...f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
+
n
i=1
c
i
bei stetigem X bestimmt werden. Man erh¨
alt also ein unscharfes Abbruchrisiko
~
r
(n+m)0
~
~
(.
| ~
A
1
,..., ~
A
n
)
]
[(.), n =
r,
~
r
(n+m)0
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r)
r IR
+
0
,
~
r
(n+m)0
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
r
(n+m)0
(.|x1,...,xn)
(][(.),n)=r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(8.166)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
337
und ein unscharfes Fortsetzungsrisiko
~
r
(n+m)m
~
~
(.
| ~
A
1
,..., ~
A
n
)
]
[(.), n =
r,
~
r
(n+m)m
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r)
r IR
+
0
,
~
r
(n+m)m
~
~
(.| ~
A1,..., ~
An)
(]
[(.),n)
(r) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
r
(n+m)m
(.|x1,...,xn)
(][(.),n)=r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
.
(8.167)
Formal kann man wieder analog zu (8.144)-(8.146) schreiben: f¨
ur das unscharfe Ab-
bruchrisiko
~
r
(n+m)0
~
~
(.
| ~
A
1
,..., ~
A
n
)
]
[(.), n = E
~
~
(.
| ~
A
1
,..., ~
A
n
)
l
~
,
n
( ~
A
1
, ..., ~
A
n
)
n
i=1
c
i
(8.168)
und f¨
ur das unscharfe Fortsetzungsrisiko bei diskretem X
~
r
(n+m)m
~
~
(.
| ~
A
1
,..., ~
A
n
)
(]
[(.), n) = min co
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( l ( ~
,
n
( ~
A
1
, ..., ~
A
n
))),
co
x
n+1
U
min E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n
, x
n+1
))) ...
x
n+m-1
U
min E
(.|x1,...,xn,xn+1,...,xn+m-1)
(l(
,
n+m-1
(x
1
, ..., x
n
, x
n+1
, ..., x
n+m
-1
))),
c
n+m
} , p
X
(x
n+m
-1
|x
1
, ..., x
n
, x
n+1
, ..., x
n+m
-2
) + c
n+m
-1
...
p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
, min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
x
1
supp(~A
1
), ..., x
n
supp(~A
n
)
n
i=1
c
i
(8.169)
bzw. bei stetigem X
~
r
(n+m)m
~
~
(.
| ~
A
1
,..., ~
A
n
)
(]
[(.), n) = min co
E
~
~
(.
| ~
A
1
,..., ~
A
n
)
( l ( ~
,
n
( ~
A
1
, ..., ~
A
n
))),
co
U
min E
(.
|x
1
,...,x
n
,x
n+1
)
(l(
,
n+1
(x
1
, ..., x
n
, x
n+1
))) ...
U
min E
(.|x1,...,xn,xn+1,...,xn+m-1)
(l(
,
n+m-1
(x
1
, ..., x
n
, x
n+1
, ..., x
n+m
-1
))),
c
n+m
} , f
X
(x
n+m
-1
|x
1
, ..., x
n
, x
n+1
, ..., x
n+m
-2
)dx
n+m
-1
+ c
n+m
-1
...
f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
, min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
x
1
supp(~A
1
), ..., x
n
supp(~A
n
)
n
i=1
c
i
(8.170)
ur die verschiedenen Methoden k¨
onnen nun f¨
ur das m Schritte vorausschauende Ver-
fahren und f¨
ur das modifizierte m Schritte vorausschauende Verfahren die Stoppzeiten
bei unscharfen Daten bestimmt werden.
(i) Stoppzeit nach der Tr¨
agertangentialmethode:
T
m
= min n
IN
0
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.171)

338
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
T
(m)
= min n
IN
0
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
r
(n+m)0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(n+m)m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.172)
(ii) Stoppzeit nach der Tr¨
agerinklusionsmethode:
T
m
= min n
IN
0
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.173)
T
(m)
= min n
IN
0
(x
1
, ..., x
n
)
supp(~A
1
)
× ... × supp(~A
n
) :
r
(n+m)0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(n+m)m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.174)
(iii) Stoppzeit nach der Kerntangentialmethode:
T
m
= min n
IN
0
(x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.175)
T
(m)
= min n
IN
0
(x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
r
(n+m)0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(n+m)m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.176)
(iv) Stoppzeit nach der Kerninklusionsmethode:
T
m
= min n
IN
0
(x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.177)
T
(m)
= min n
IN
0
(x
1
, ..., x
n
)
ker(~A
1
)
× ... × ker(~A
n
) :
r
(n+m)0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(n+m)m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.178)
(v) Stoppzeit nach der -Niveautangentialmethode:
T
m
= min
{n IN
0
|(x
1
, ..., x
n
)
A
1
× ... × A
n
:
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.179)
T
(m)
= min
{n IN
0
|(x
1
, ..., x
n
)
A
1
× ... × A
n
:
r
(n+m)0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(n+m)m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.180)
(vi) Stoppzeit nach der -Niveauinklusionsmethode:
T
m
= min
{n IN
0
|(x
1
, ..., x
n
)
A
1
× ... × A
n
:
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.181)
T
(m)
= min
{n IN
0
|(x
1
, ..., x
n
)
A
1
× ... × A
n
:
r
(n+m)0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(n+m)m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.182)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
339
(vii) Stoppzeit nach der Kardinalit¨
atsmethode:
T (card)
m
= min n
IN
0
card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
~A
1
... ~A
n
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
m
(.
|x
1
,...,x
n
)
(]
[(.), n)
card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
~A
1
... ~A
n
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) > r
m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.183)
T (card)
(m)
= min n
IN
0
card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
~A
1
... ~A
n
r
(n+m)0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(n+m)m
(.
|x
1
,...,x
n
)
(]
[(.), n)
card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
~A
1
... ~A
n
r
(n+m)0
(.
|x
1
,...,x
n
)
(]
[(.), n) > r
(n+m)m
(.
|x
1
,...,x
n
)
(]
[(.), n)
(8.184)
Handelt es sich dabei um ein 1 Schritt vorausschauendes Verfahren, so reduziert
sich in (8.171), (8.173), (8.175), (8.177),(8.179), (8.181), (8.183) der Vergleich von
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) und r
m
(.
|x
1
,...,x
n
)
(]
[(.), n) auf einen Vergleich von
E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))) und
x
n+1
U
E
(.
|x
1
,...,x
n+1
)
(l(,
n
(x
1
, ..., x
n+1
)))p
X
(x
n+1
|x
1
, ..., x
n
) + c
n+1
bzw.
U
E
(.
|x
1
,...,x
n+1
)
(l(,
n
(x
1
, ..., x
n+1
)))f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
+ c
n+1
im Sinne von (8.159), und beim modifizierten 1 Schritt vorausschauenden Verfah-
ren in (8.172), (8.174), (8.176), (8.178),(8.180), (8.182), (8.184) reduziert sich der
Vergleich von r
(n+m)0
(.
|x
1
,...,x
n
)
(]
[(.), n) und r
(n+m)m
(.
|x
1
,...,x
n
)
(]
[(.), n) auf einen Vergleich von
E
(.
|x
1
,...,x
n
)
(l(,
n
(x
1
, ..., x
n
))) und c
n+1
im Sinne von (8.160).
8.5.3
Vorausschauendes sequentielles Punktsch¨
atzverfahren und
modifiziertes vorausschauendes sequentielles Punktsch¨
atz-
verfahren f¨
ur unscharfe Daten
Die Vorgangsweise bei vorausschauenden Bayes'schen Entscheidungsverfahren mit ge-
ohnlicher oder mit modifizierter Verlustfunktion mit unscharfen Daten soll ebenfalls
eine unscharfe Punktsch¨
atzung berechnet werden. Abermals erfolgen die Darstellungen
exemplarisch anhand der unscharf Poisson-verteilten Fuzzy-Zufallsvariablen, die unser
Beispielproblem beschreibt.
Begleitendes Beispiel: Es wird angenommen, dass im parametrischen stochastischen
Modell X
Po
, X :
IN
0
, der Parameter
eine Zufallsvariable auf dem messba-
ren Parameterraum (IR
+
0
,
B(IR
+
0
)) ist, die a priori invertiert-Gamma-verteilt mit Pa-
rametern a ,
1
b
ist, also
a ,
1
b
, d.h. () = f
(
|a ,
1
b
) =
b
a
·
a -1
·e
-b
(a
-1)!
. Auf-
grund der Folge X
1
, X
2
, ... von unabh¨
angigen und identisch wie X verteilten Zufalls-
variablen soll eine sequentielle Sch¨
atzung f¨
ur den Parameter gefunden werden. Der
Verlust aus einer Fehlsch¨
atzung ist gegeben durch eine quadratische Verlustfunktion
l(, d) = s
· ( - d)
2
, die Kosten der i-ten Beobachtung sind gleich c
i
ur i
{1, ..., N}.

340
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Zur Ermittlung der sequentiellen Sch¨
atzung soll ein 1 Schritt vorausschauendes sequen-
tielles Bayes-Verfahren verwendet werden, dem einerseits die Gesamtverlustfunktion
L
l(, d, n) = s
· ( - d)
2
+
n
i=1
c
i
, und andererseits eine modifizierte Gesamtverlustfunk-
tion, bei der der A-posteriori-Verlusterwartungswert der Entscheidung jeweils auf der
folgenden Stufe verschwindet, zugrunde liegt.
Zur Berechnung von Abbruch- und Fortsetzungsrisiko k¨
onnen wiederum die in Ab-
schnitt 8.3 entwickelten Formeln herangezogen werden. Es gilt beim vorausschauenden
Verfahren f¨
ur das Abbruchrisiko an der Stelle n bei gew¨
ohnlicher und bei modifizierter
Verlustfunktion:
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(n+1)0
(.
|x
1
,...,x
n
)
(]
[(.), n) = s
·
a +
n
i=1
x
i
(b +n)
2
+
n
i=1
c
i
Beim Fortsetzungsrisiko muss unterschieden werden zwischen dem bei gew¨
ohnlicher
Verlustfunktion
r
1
f
(.
|a +
n
i=1
x
i
,
1
b +n
)
(]
[(.), n) = min s
·
a +
n
i=1
x
i
(b +n)
2
+
n
i=1
c
i
, s
·
a +
n
i=1
x
i
(b +n)(b +n+1)
+
n+1
i=1
c
i
und dem bei modifizierter Verlustfunktion
r
(n+1)1
f
(.
|a +
n
i=1
x
i
,
1
b +n
)
(]
[(.), n) = min s
·
a +
n
i=1
x
i
(b +n)
2
+
n
i=1
c
i
,
n+1
i=1
c
i
.
Da hier jeweils nur zwei Ausdr¨
ucke miteinander verglichen werden m¨
ussen, k¨
onnen die
Bedingungen f¨
ur Abbruch oder Fortsetzung des Verfahrens als Ungleichungen ange-
schrieben und nach n aufgel¨
ost werden.
Beim Verfahren mit gew¨
ohnlicher Verlustfunktion ist
s
·
a +
n
i=1
x
i
(b +n)
2
+
n
i=1
c
i
= min s
·
a +
n
i=1
x
i
(b +n)
2
+
n
i=1
c
i
, s
·
a +
n
i=1
x
i
(b +n)(b +n+1)
+
n+1
i=1
c
i
s ·
a +
n
i=1
x
i
(b +n)
2
s ·
a +
n
i=1
x
i
(b +n)(b +n+1)
+ c
n+1
s
·(a +
n
i=1
x
i
)
(b +n)
·
1
(b +n)
-
1
(b n+1)
=
b +n+1-b -n
(b +n)(b +n+1)
=
1
(b +n)(b +n+1)
c
n+1
s
·(a +
n
i=1
x
i
)
(b +n)
2
(b +n+1)
c
n+1
(b + n)
2
(b + n + 1)
s
·(a +
n
i=1
x
i
)
c
n+1
(b + n)
3
+ (b + n)
2
s
c
n+1
· (a +
n
i=1
x
i
)
n
3
+ (3b + 1)n
2
+ (3b
2
+ 2b)n + (b
3
+ b
2
)
s
c
n+1
· (a +
n
i=1
x
i
).
Daher ist
T 1
= min n
IN
0
(b + n)
3
+ (b + n)
2
s
c
n+1
· (a +
n
i=1
x
i
) .
Es h¨
angt somit von der Beobachtungskostenfunktion ab, ob das Verfahren f¨
ur ein n
IN
0
abbricht oder nicht. Es ist
T 1
=
<
falls c
n+1
> ord(n
-3
)
=
falls c
n+1
< ord(n
-3
)
<
oder = falls c
n+1
= ord(n
-3
).

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
341
Beim Verfahren mit modifizierter Verlustfunktion vereinfacht sich die zu l¨
osende
Ungleichung weiter zu
s
·
a +
n
i=1
x
i
(b +n)
2
+
n
i=1
c
i
= min s
·
a +
n
i=1
x
i
(b +n)
2
+
n
i=1
c
i
,
n+1
i=1
c
i
s ·
a +
n
i=1
x
i
(b +n)
2
c
n+1
(b + n)
2
s
c
n+1
· (a +
n
i=1
x
i
).
Daher ist
T (1)
= min n
IN
0
(b + n)
2
s
c
n+1
· (a +
n
i=1
x
i
) .
Ob das Verfahren f¨
ur ein n
IN
0
abbricht, h¨
angt wiederum von den Beobachtungsko-
sten ab, und es ist
T (1)
=
<
falls c
n+1
> ord(n
-2
)
=
falls c
n+1
< ord(n
-2
)
<
oder = falls c
n+1
= ord(n
-2
).
Muss die Entscheidung auf Basis unscharfer Daten getroffen werden, so m¨
ussen
wiederum auf jeder Stufe n das unscharfe Abbruchrisiko und das unscharfe Fortset-
zungsrisiko berechnet werden. Das unscharfe Abbruchrisiko ist f¨
ur vorausschauende
Verfahren bzw. f¨
ur modifizierte vorausschauende Verfahren gleich
~
r
0
~~
f
(.
|a ~
A
1
... ~
A
n
,
1
b +n
)
]
[(.), n = ~
r
(n+1)0
~~
f
(.
|a ~
A
1
... ~
A
n
,
1
b +n
)
]
[(.), n
= s
·
a
~A
1
... ~A
n
(b + n)
2
n
i=1
c
i
(B.8.31)
mit
~
r
0
~
~
f (.|a ~
A1... ~
An,
1
b +n
)
((]
[(.),n)
(r) =
~
r
(n+1)0
~
~
f (.|a ~
A1... ~
An,
1
b +n
)
((]
[(.),n)
(r)
=
sup
(x1,...,xn)supp(fuzA1)×...×supp( ~
An):
a +n
i=1
xi
(b +n)2
+
n
i=1
ci=r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(B.8.32)
ur r IR
+
0
.
Bei der Bestimmung des unscharfen Fortsetzungsrisikos muss unterschieden werden
zwischen dem 1 Schritt vorausschauenden Verfahren
~
r
1
~~
f
(.
|a ~
A
1
... ~
A
n
,
1
b +n
)
]
[(.), n
=
min
a +
n
i=1
x
i
(b + n)
2
+
n
i=1
c
i
,
a +
n
i=1
x
i
(b + n)(b + n + 1)
+
n+1
i=1
c
i
,
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
x
1
supp(~A
1
), ..., x
n
supp(~A
n
)
(B.8.33)
bzw.
co
~
r
1
~~
f
(.
|a ~
A
1
... ~
A
n
,
1
b +n
)
]
[(.), n
= co min s
·
a
~A
1
... ~A
n
(b + n)
2
n
i=1
c
i
, s
·
a
~A
1
... ~A
n
(b + n)(b + n + 1)
n+1
i=1
c
i
(B.8.34)

342
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
mit
~
r
1
~
~
f (.|a ~
A1... ~
An,
1
b +n
)
((]
[(.),n)
(r)
=
sup
(x1,...,xn)supp(fuzA1)×...×supp( ~
An):
min
a +n
i=1
xi
(b +n)2
+
n
i=1
ci,
a +n
i=1
xi
(b +n)(b +n+1)
+
n+1
i=1
ci =r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(B.8.35)
ur r IR
+
0
und dem modifizierten 1 Schritt vorausschauenden Verfahren
~
r
1
~~
f
(.
|a ~
A
1
... ~
A
n
,
1
b +n
)
]
[(.), n
=
min
a +
n
i=1
x
i
(b + n)
2
+
n
i=1
c
i
,
n+1
i=1
c
i
, min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
x
1
supp(~A
1
) , ..., x
n
supp(~A
n
)
(B.8.36)
bzw.
co
~
r
(n+1)1
~~
f
(.
|a ~
A
1
... ~
A
n
,
1
b +n
)
]
[(.), n
= co
min s
·
a
~A
1
... ~A
n
(b + n)
2
n
i=1
c
i
,
n+1
i=1
c
i
(B.8.37)
mit
~
r
(n+1)1
~
~
f (.|a ~
A1... ~
An,
1
b +n
)
((]
[(.),n)
(r)
=
sup
(x1,...,xn)supp(fuzA1)×...×supp( ~
An):
min
a +n
i=1
xi
(b +n)2
+
n
i=1
ci,
n+1
i=1
ci =r
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
(B.8.38)
ur r IR
+
0
.
Vergleich der unscharfen Abbruch- und Fortsetzungsrisiken f¨
uhrt zu den folgenden
Stoppzeiten f¨
ur 1 Schritt vorausschauende und modifizierte 1 Schritt vorausschauende
Verfahren:
(i) Stoppzeit nach der vereinfachten Tr¨
agertangentialmethode:
T s
1
= min n
IN
0
n
supp(~A
1
... ~A
n
) :
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
s ·
a +
n
(b +n)(b +n+1)
+
n+1
i=1
c
i
= min n
IN
0
n
supp(~A
1
... ~A
n
) :
(b + n)
3
+ (b + n)
2
s
c
n+1
· (a +
n
)
(B.8.39)
T s
(1)
= min n
IN
0
n
supp(~A
1
... ~A
n
) :
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
n+1
i=1
c
i
= min n
IN
0
n
supp(~A
1
... ~A
n
) :
(b + n)
2
s
c
n+1
· (a +
n
)
(B.8.40)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
343
(ii) Stoppzeit nach der vereinfachten Tr¨
agerinklusionsmethode:
T s
1
= min n
IN
0
n
supp(~A
1
... ~A
n
) :
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
s ·
a +
n
(b +n)(b +n+1)
+
n+1
i=1
c
i
= min n
IN
0
n
supp(~A
1
... ~A
n
) :
(b + n)
3
+ (b + n)
2
s
c
n+1
· (a +
n
)
(B.8.41)
T s
(1)
= min n
IN
0
n
supp(~A
1
... ~A
n
) :
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
n+1
i=1
c
i
= min n
IN
0
n
supp(~A
1
... ~A
n
) :
(b + n)
2
s
c
n+1
· (a +
n
)
(B.8.42)
(iii) Stoppzeit nach der vereinfachten Kerntangentialmethode:
T s
1
= min n
IN
0
n
ker(~A
1
... ~A
n
) :
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
s ·
a +
n
(b +n)(b +n+1)
+
n+1
i=1
c
i
= min n
IN
0
n
ker(~A
1
... ~A
n
) :
(b + n)
3
+ (b + n)
2
s
c
n+1
· (a +
n
)
(B.8.43)
T s
(1)
= min n
IN
0
n
ker(~A
1
... ~A
n
) :
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
n+1
i=1
c
i
= min n
IN
0
n
ker(~A
1
... ~A
n
) :
(b + n)
2
s
c
n+1
· (a +
n
)
(B.8.44)
(iv) Stoppzeit nach der vereinfachten Kerninklusionsmethode:
T s
1
= min n
IN
0
n
ker(~A
1
... ~A
n
) :
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
s ·
a +
n
(b +n)(b +n+1)
+
n+1
i=1
c
i
= min n
IN
0
n
ker(~A
1
... ~A
n
) :
(b + n)
3
+ (b + n)
2
s
c
n+1
· (a +
n
)
(B.8.45)
T s
(1)
= min n
IN
0
n
ker(~A
1
... ~A
n
) :
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
n+1
i=1
c
i
min n
IN
0
n
ker(~A
1
)
... ~A
n
) :
(b + n)
2
s
c
n+1
· (a +
n
)
(B.8.46)

344
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(v) Stoppzeit nach der vereinfachten -Niveautangentialmethode:
T s
1
= min
{n IN
0
|
n
(A
1
... A
n
)
:
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
s ·
a +
n
(b +n)(b +n+1)
+
n+1
i=1
c
i
= min
{n IN
0
|
n
(A
1
... A
n
)
:
(b + n)
3
+ (b + n)
2
s
c
n+1
· (a +
n
)
(B.8.47)
T s
(1)
= min
{n IN
0
|
n
(A
1
... A
n
)
:
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
n+1
i=1
c
i
= min
{n IN
0
|
n
(A
1
... A
n
)
:
(b + n)
2
s
c
n+1
· (a +
n
)
(B.8.48)
(vi) Stoppzeit nach der vereinfachten -Niveauinklusionsmethode:
T s
1
= min
{n IN
0
|
n
(A
1
... A
n
)
:
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
s ·
a +
n
(b +n)(b +n+1)
+
n+1
i=1
c
i
= min
{n IN
0
|
n
(A
1
... A
n
)
:
(b + n)
3
+ (b + n)
2
s
c
n+1
· (a +
n
)
(B.8.49)
T s
(1)
= min
{n IN
0
|
n
(A
1
... A
n
)
:
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
n+1
i=1
c
i
= min
{n IN
0
|
n
(A
1
... A
n
)
:
(b + n)
2
s
c
n+1
· (a +
n
)
(B.8.50)
(vii) Stoppzeit nach der vereinfachten Kardinalit¨
atsmethode:
T s(card)
1
= min n
IN
0
card
n
,
~
A
1
... ~
A
n
(
n
)
~A
1
... ~A
n
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
s ·
a +
n
(b +n)(b +n+1)
+
n+1
i=1
c
i
card
n
,
~
A
1
... ~
A
n
(
n
)
~A
1
... ~A
n
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
> s
·
a +
n
(b +n)(b +n+1)
+
n+1
i=1
c
i
= min n
IN
0
card
n
,
~
A
1
... ~
A
n
(
n
)
~A
1
... ~A
n
(b + n)
3
+ (b + n)
2
s
c
n+1
· (a +
n
)
card
n
,
~
A
1
... ~
A
n
(
n
)
~A
1
... ~A
n
(b + n)
3
+ (b + n)
2
<
s
c
n+1
· (a +
n
)
(B.8.51)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
345
T s(card)
(1)
= min n
IN
0
card
n
,
~
A
1
... ~
A
n
(
n
)
~A
1
... ~A
n
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
n+1
i=1
c
i
card
n
,
~
A
1
... ~
A
n
(
n
)
~A
1
... ~A
n
s
·
a +
n
(b +n)
2
+
n
i=1
c
i
>
n+1
i=1
c
i
= min n
IN
0
card
n
,
~
A
1
... ~
A
n
(
n
)
~A
1
... ~A
n
(b + n)
2
s
c
n+1
· (a +
n
)
card
n
,
~
A
1
... ~
A
n
(
n
)
~A
1
... ~A
n
(b + n)
2
<
s
c
n+1
· (a +
n
)
(B.8.52)
Begleitendes numerisches Beispiel: Mit den Angaben aus den vorgehenden Ab-
schnitten zur unscharfen Wahrscheinlichkeitsverteilung der Flutwellen, d.h. ausgehend
von einer A-priori-Gammaverteilung mit Parametern a = 2
· 9 = 18, b =
1
2
() =
f
(
|18,
1
2
) =
2
18
·
17
·e
-5
17!
, soll eine verlustminimierende Sch¨
atzung f¨
ur den Parameter
angegeben werden. Die Kosten der Beobachtung betragen in der ersten Periode c
1
= 2,
in der zweiten c
2
= 3, in der dritten gleich c
3
= 10 und in der vierten Periode c
4
= 8. Der
Verlust aus einer Fehlsch¨
atzung wird wiederum beschrieben durch eine quadratische
Verlustfunktion l(, d) = 4
· ( - d)
2
. Es soll dabei immer nur die M¨
oglichkeit in Be-
tracht gezogen werden, ein weiteres Jahr lang die Flutwellen zu messen und danach zu
entscheiden, ob die endg¨
ultige Entscheidung getroffen werde, oder ob noch ein weiteres
Jahr lang beobachtet werden soll. Einerseits soll dabei der Verlusterwartungswert einer
sofortigen Entscheidung mit dem der erwarteten verbesserten Entscheidung in einem
Jahr einschließlich Beobachtungskosten verglichen werden (1 Schritt vorausschauendes
Verfahren), andererseits soll der Verlusterwartungswert einer sofortigen Entscheidung
mit den Beobachtungskosten f¨
ur ein weiteres Jahr verglichen werde (modifiziertes 1
Schritt vorausschauendes Verfahren).
A priori besteht keine Unsch¨
arfe. Abbruchrisiko und Fortsetzungsrisiko auf der Stu-
fe 0 sind scharfe Gr¨
oßen. Es ist
r
0
f
(.
|18,
1
2
)
(]
[(.), 0) = r
(1)0
f
(.
|18,
1
2
)
(]
[(.), 0) =
4
·18
4
= 18,
r
1
f
(.
|18,
1
2
)
(]
[(.), 0) = min
4 18
4
,
2
·18
6
+ 2 = min
{18, 14} = 14,
r
(1)1
f
(.
|18,
1
2
)
(]
[(.), 0) = min
4 18
4
, 2 = min
{18, 2} = 2,
bzw. ist
2
3
+ 2
2
= 8 + 4 = 12 <
4
2
· 18 = 36,
2
2
= 4 <
4
2
· 18 = 36.
Es ist daher
ø
1,0
= ø
(1),0
= 0.

346
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Es wird X
1
bzw. die Fuzzy-Perzeption ~
X
1
von X
1
beobachtet. Man erh¨
alt die un-
scharfe Beobachtung ~
A
1
=
0.2
0.8
1
0.5
8
9
10
11
. Nun werden unscharfes Abbruchrisiko
und unscharfes Fortsetzungsrisiko auf der Stufe 1 berechnet. Es ist
a
~A
1
= 18
0.2
0.8
1
0.5
8
9
10
11
=
0.2
0.8
1
0.5
26
27
28
29
, und daher:
~
r
0
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1) = r
(2)0
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1)
=
4
·
0.2
0.8
1
0.5
26
27
28
29
9
2 =
0.2
0.8
1
0.5
13.5556
14.0000
14.4444
14.8889
mit
co
~
r
0
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1)
=
co
r
(2)0
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1)
=
[13.5556, 14.8889] f¨
ur 0 <
0.2
[14.0000, 14.8889] f¨
ur 0.2 <
0.5
[14.0000, 14.4444] f¨
ur 0.5 <
0.8
14.4444
ur 0.8 <
1.
~
r
1
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1) erh¨
alt man durch Berechung von
min
4
·26
9
+ 2,
4
·26
12
+ 5 = min
{13.5556, 13.6667} = 13.6667,
a
~
A
1
(26) = 0.2
min
4
·27
9
+ 2,
4
·27
12
+ 5 = min
{14.0000, 14.0000} = 14.0000,
a
~
A
1
(27) = 0.8
min
4
·28
9
+ 2,
4
·28
12
+ 5 = min
{14.4444, 14.3333} = 14.3333,
a
~
A
1
(28) = 1
min
4
·29
9
+ 2,
4
·29
12
+ 5 = min
{14.8889, 14.6667} = 14.6667,
a
~
A
1
(29) = 0.5.
Es ist also
~
r
1
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1) =
0.2
0.8
1
0.5
13.5556
14.0000
14.3333
14.6667
bzw.
co
~
r
1
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1)
= min
co
4
·
0.2
0.8
1
0.5
26
27
28
29
9
2
, co
4
·
0.2
0.8
1
0.5
26
27
28
29
12
5
= min co
0.2
0.8
1
0.5
13.56
14.00
14.44
14.89
, co
0.2
0.8
1
0.5
13.67
14.00
14.33
14.67
= co
0.2
0.8
1
0.5
13.5556
14.0000
14.3333
14.6667
mit
co
~
r
1
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1)
=
[13.5556, 14.6667] f¨
ur 0 <
0.2
[14.0000, 14.6667] f¨
ur 0.2 <
0.5
[14.0000, 14.3333] f¨
ur 0.5 <
0.8
14.3333
ur 0.8 <
1.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
347
~
r
(2)1
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1) erh¨
alt man durch Berechung von
min
4
·26
9
+ 2, 5 = min
{13.5556, 13.6667} = 5.0000,
a
~
A
1
(26) = 0.2
min
4
·27
9
+ 2, 5 = min
{14.0000, 14.0000} = 5.0000,
a
~
A
1
(27) = 0.8
min
4
·28
9
+ 2, 5 = min
{14.4444, 14.3333} = 5.0000,
a
~
A
1
(28) = 1
min
4
·29
9
+ 2, 5 = min
{14.8889, 14.6667} = 5.0000,
a
~
A
1
(29) = 0.5.
Es ist also
~
r
(2)1
~
~
f .|
0.2
0.8
1
0.5
26
27
28
29
,
1
3
(]
[(.), 1) = 5.0000.
Es k¨
onnen auch die folgenden Vergleiche durchgef¨
uhrt werden:
max 3
3
+ 3
2
,
4
3
· 26 = max {36.0000, 34.6667} = 36.0000,
a
~
A
1
(26) = 0.2
max 3
3
+ 3
2
,
4
3
· 27 = max {36.0000, 36.0000} = 36.0000,
a
~
A
1
(27) = 0.8
max 3
3
+ 3
2
,
4
3
· 28 = max {36.0000, 37.3333} = 37.3333,
a
~
A
1
(28) = 1
max 3
3
+ 3
2
,
4
3
· 29 = max {36.0000, 38.6667} = 38.6667,
a
~
A
1
(29) = 0.5,
bzw.
max 3
3
+ 3
2
, co
4
3
·
0.2
0.8
1
0.5
26
27
28
29
= max 36, co
0.2
0.8
1
0.5
34.67
36
37.33
38.67
= co
0.8
1
0.5
36.00
37.33
38.67
,
und
max 3
2
,
4
3
· 26 = max {9.0000, 34.6667} = 34.6667,
a
~
A
1
(26) = 0.2
max 3
2
,
4
3
· 27 = max {9.0000, 36.0000} = 36.0000,
a
~
A
1
(27) = 0.8
max 3
2
,
4
3
· 28 = max {9.0000, 37.3333} = 37.3333,
a
~
A
1
(28) = 1
max 3
2
,
4
3
· 29 = max {9.0000, 38.6667} = 38.6667,
a
~
A
1
(29) = 0.5
bzw.
max 3
2
, co
4
3
·
0.2
0.8
1
0.5
26
27
28
29
= max 9, co
0.2
0.8
1
0.5
34.67
36
37.33
38.67
= co
0.2
0.8
1
0.5
34.67
36
37.33
38.67
.
Außerdem ist
card
0.2
0.8
26
27
= 0.2 + 0.8 = 1 < card
1
0.5
28
29
= 1 + 0.5 = 1.5.
Damit ist
ø
s
1,1
=
(0,0.8]
ø
s
1,1
= 1.
(N.8.14)
ur die Stoppzeit nach der (vereinfachten) Tr¨
agertangentialmethode oder eine Stopp-
zeit nach der (vereinfachten) -Niveautangentialmethode mit
0.8 wird das 1
Schritt vorausschauende Verfahren mit gew¨
ohnlicher Verlustfunktion abgebrochen, die

348
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Bayes'sche Sch¨
atzung auf der Stufe 1 lautet dann
1
( ~
A
1
) =
0.2
0.8
1
0.5
26
27
28
29
3 =
0.2
0.8
1
0.5
8.6667
9.0000
9.3333
9.6667
.
(N.8.15)
ur alle anderen Stoppzeiten wird das 1 Schritt vorausschauende Verfahren fortgesetzt,
das modifizierte 1 Schritt vorausschauende Verfahren wird jedenfalls fortgesetzt, und
es wird X
2
bzw. die Fuzzy-Perzeption ~
X
2
von X
2
beobachtet. Man erh¨
alt die unscharfe
Beobachtung ~
A
2
=
0.7
1
0.6
11
12
13
. Nun sind auf der Stufe 2 wiederum unscharfes Ab-
bruchrisiko und unscharfes Fortsetzungsrisiko zu bestimmen. Es ist
a
~A
1
~A
2
= 18
0.2
0.8
1
0.5
8
9
10
11
0.7
1
0.6
11
12
13
=
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
und daher:
~
r
0
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2) = r
(3)0
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2)
=
4
·
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
16
5 =
0.2
0.7
0.8
1
0.6
0.5
14.25
14.50
14.75
15.00
15.25
15.50
mit
co
~
r
0
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2)
=
co
r
(3)0
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2)
=
[14.2500, 15.5000] f¨
ur 0 <
0.2
[14.5000, 15.5000] f¨
ur 0.2 <
0.5
[14.5000, 15.2500] f¨
ur 0.5 <
0.6
[14.5000, 15.0000] f¨
ur 0.6 <
0.7
[14.7500, 15.0000] f¨
ur 0.7 <
0.8
15.0000
ur 0.8 <
1.
~
r
1
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2) erh¨
alt man durch Berechung von
min
4
·37
16
+ 5,
4
·38
20
+ 15 = min
{14.2500, 22.4000} = 14.2500,
a
~
A
1
(37) = 0.2
min
4
·38
16
+ 5,
4
·38
20
+ 15 = min
{14.5000, 22.6000} = 14.5000,
a
~
A
1
(38) = 0.7
min
4
·37
16
+ 5,
4
·38
20
+ 15 = min
{14.7500, 22.8000} = 14.7500,
a
~
A
1
(38) = 0.8
min
4
·38
16
+ 5,
4
·38
20
+ 15 = min
{15.0000, 23.0000} = 15.0000,
a
~
A
1
(38) = 1
min
4
·38
16
+ 5,
4
·38
20
+ 15 = min
{15.2500, 23.2000} = 15.2500,
a
~
A
1
(38) = 0.6
min
4
·38
16
+ 5,
4
·38
20
+ 15 = min
{15.5000, 23.4000} = 15.5000,
a
~
A
1
(38) = 0.5.
Es ist also
~
r
1
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2) =
0.2
0.7
0.8
1
0.6
0.5
14.25
14.50
14.75
15.00
15.25
15.50
bzw.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
349
co
~
r
1
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2)
= min
co
4
·
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
16
5
,
co
4
·
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
20
15
= min co
0.2
0.7
0.8
1
0.6
0.5
14.25
14.50
14.75
15.00
15.25
15.50
,
co
0.2
0.7
0.8
1
0.6
0.5
22.4
22.6
22.8
23.0
23.2
23.4
= co
0.2
0.7
0.8
1
0.6
0.5
14.25
14.50
14.75
15.00
15.25
15.50
mit
~
r
1
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2)
=
[14.2500, 15.5000] f¨
ur 0 <
0.2
[14.5000, 15.5000] f¨
ur 0.2 <
0.5
[14.5000, 15.2500] f¨
ur 0.5 <
0.6
[14.5000, 15.0000] f¨
ur 0.6 <
0.7
[14.7500, 15.0000] f¨
ur 0.7 <
0.8
15.0000
ur 0.8 <
1.
bzw.
~
r
(3)1
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2) erh¨
alt man durch Berechung von
min
4
·37
16
+ 5, 15 = min
{14.2500, 15.0000} = 14.2500,
a
~
A
1
(37) = 0.2
min
4
·38
16
+ 5, 15 = min
{14.5000, 15.0000} = 14.5000,
a
~
A
1
(38) = 0.7
min
4
·37
16
+ 5, 15 = min
{14.7500, 15.0000} = 14.7500,
a
~
A
1
(38) = 0.8
min
4
·38
16
+ 5, 15 = min
{15.0000, 15.0000} = 15.0000,
a
~
A
1
(38) = 1
min
4
·38
16
+ 5, 15 = min
{15.2500, 15.0000} = 15.0000,
a
~
A
1
(38) = 0.6
min
4
·38
16
+ 5, 15 = min
{15.5000, 15.0000} = 15.0000,
a
~
A
1
(38) = 0.5.
Es ist also
~
r
(3)1
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2) =
0.2
0.7
0.8
1
14.2500
14.5000
14.7500
15.0000
bzw.
co
~
r
(3)1
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2)
= min
co
4
·
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
16
5
, 15

350
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
= min co
0.2
0.7
0.8
1
0.6
0.5
14.25
14.50
14.75
15.00
15.25
15.50
, 15.00
= co
0.2
0.7
0.8
1
14.25
14.50
14.75
15.00
mit
~
r
(3)1
~
~
f .|
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
,
1
4
(]
[(.), 2)
=
[14.2500, 15.0000] f¨
ur 0 <
0.2
[14.5000, 15.0000] f¨
ur 0.2 <
0.7
[14.7500, 15.0000] f¨
ur 0.7 <
0.8
15.0000
ur 0.8 <
1.
Es k¨
onnen auch die folgenden Vergleiche durchgef¨
uhrt werden:
max 4
3
+ 4
2
,
4
10
· 37 = max {80.0000, 14.8000} = 80.0000,
a
~
A
1
(37) = 0.2
max 4
3
+ 4
2
,
4
10
· 38 = max {80.0000, 15.2000} = 80.0000,
a
~
A
1
(38) = 0.7
max 4
3
+ 4
2
,
4
10
· 39 = max {80.0000, 15.6000} = 80.0000,
a
~
A
1
(39) = 0.8
max 4
3
+ 4
2
,
4
10
· 40 = max {80.0000, 16.0000} = 80.0000,
a
~
A
1
(40) = 1
max 4
3
+ 4
2
,
4
10
· 41 = max {80.0000, 16.4000} = 80.0000,
a
~
A
1
(41) = 0.6
max 4
3
+ 4
2
,
4
10
· 42 = max {80.0000, 16.8000} = 80.0000,
a
~
A
1
(42) = 0.5,
bzw.
max 4
3
+ 4
2
, co
4
10
·
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
= max 80, co
0.2
0.7
0.8
1
0.6
0.5
14.8
15.2
15.6
16.0
16.4
16.8
= 80,
und
max 4
2
,
4
10
· 37 = max {16.0000, 14.8000} = 14.8000,
a
~
A
1
(37) = 0.2
max 4
2
,
4
10
· 38 = max {16.0000, 15.2000} = 15.2000,
a
~
A
1
(38) = 0.7
max 4
2
,
4
10
· 39 = max {16.0000, 15.6000} = 15.6000,
a
~
A
1
(39) = 0.8
max 4
2
,
4
10
· 40 = max {16.0000, 16.0000} = 16.0000,
a
~
A
1
(40) = 1
max 4
2
,
4
10
· 41 = max {16.0000, 16.4000} = 16.0000,
a
~
A
1
(41) = 0.6
max 4
2
,
4
10
· 42 = max {16.0000, 16.8000} = 16.0000,
a
~
A
1
(42) = 0.5,
bzw.
max 4
2
, co
4
10
·
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
= max 16, co
0.2
0.7
0.8
1
0.6
0.5
14.8
15.2
15.6
16.0
16.4
16.8
= co
1
0.6
0.5
16.0
16.4
16.8
.
Außerdem ist
card
0.2
0.7
0.8
1
37
38
39
40
= 0.2+0.7+0.8+1 = 2.7 > card
0.6
0.5
41
42
= 0.6+0.5 = 1.1.
Somit ist
(0.8,1]
ø
s
1,2
= ø
s
1,2
= ø
s
1,2
=
(0,1]
ø
s
1,2
= ø
s
1,2
= ø
s(card)
1,2
= 1,
(N.8.16)
ø
s
(1),2
=
(0,1]
ø
s
(1),2
= ø
s
(1),2
= ø
s
(1),2
=
(0.6,1]
ø
s
(1),2
= ø
s(card)
(1),2
= 1.
(N.8.17)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
351
Nach der zweiten Beobachtung f¨
uhren damit alle außer den in (N.8.14) angef¨
uhrten
Stoppzeiten des 1 Schritt vorausschauenden Verfahrens zum Abbruch des sequenti-
ellen Fuzzy-Entscheidungsverfahrens, d.h. alle außer der Stoppzeit nach der (verein-
fachten) Tr¨
agertangentialmethode oder (vereinfachten) -Niveautangentialmethode f¨
ur
(0, 0.8], die bereits nach der ersten Beobachtung zum Abbruch gekommen waren.
Abbildung 8.13: Fuzzy-Risikovergleich beim vorausschauenden sequentiellen Verfahren
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
13.56
14
14.44
14.89
r
(
r)
~
r
0
~
~
f (.| ~
A1)
(]
[(.),1)
14.33
14.66
~
r
1
~
~
f (.| ~
A1)
(]
[(.),1)
Stufe 1
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
14.25
14.5
14.75
15
15.25
15.5
r
(
r)
=~
r
0
~
~
f (.| ~
A1), ~
A2
(]
[(.),2)
~
r
1
~
~
f (.| ~
A1, ~
A2)
(]
[(.),2)
Stufe 2
Erkl¨
arung:
·
Abbruchrisiko
Fortsetzungsrisiko
·
Zusammenfall von Abbruch- und Fortsetzungsrisiko
Beim modifizierten 1 Schritt vorausschauenden Verfahren f¨
uhren alle Stoppzeiten außer
den Stoppzeiten nach der (vereinfachten) -Niveauinklusionsmethode f¨
ur
(0, 0.6]
und der Stoppzeit nach der (vereinfachten) Tr¨
agerinklusionsmethode zum Abbruch des
Verfahrens. Im Allgemeinen wird man wohl an dieser Stelle aufh¨
oren zu beobachten
und die Entscheidung treffen, die Bayes'sche Fuzzy-Entscheidung auf der zweiten Stufe
lautet
2
( ~
A
1
, ~
A
2
) =
0.2
0.7
0.8
1
0.6
0.5
37
38
39
40
41
42
4
=
0.2
0.7
0.8
1
0.6
0.5
9.25
9.50
9.75
10.00
10.25
10.50
.
(N.8.18)
Sofern man eine Stoppzeit nach der -Niveauinklusionsmethode mit < 0.6 beim
modifizierten 1 Schritt vorausschauenden Verfahren gew¨
ahlt hat, wird noch X
3
bzw.
die Fuzzy-Perzeption ~
X
3
von X
3
beobachtet, es ist ~
A
3
=
0.5
1
0.8
6
7
8
. Zur Berechnung
des unscharfen Abbruchrisikos und des unscharfen Fortsetzungsrisikos berechnet man
a
~A
1
~A
2
~A
3
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
, und man erh¨
alt:
r
(4)0
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)
=
4
·
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
25
15
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
21.88
22.04
22.20
22.36
22.52
22.68
22.84
23.00

352
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
mit
co
r
(4)0
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)
=
[21.8800, 23.0000] f¨
ur 0 <
0.2
[22.0400, 23.0000] f¨
ur 0.2 <
0.5
[22.2000, 22.8400] f¨
ur 0.5 <
0.6
[22.2000, 22.6800] f¨
ur 0.6 <
0.7
[22.3600, 22.6800] f¨
ur 0.7 <
0.8
22.5200
ur 0.8 <
1
und
~
r
(4)1
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3) erh¨
alt man durch Berechnung von
min
4
·43
25
+ 15, 23 = min
{21.8800, 23.0000} = 21.8800,
a
~
A
1
(43) = 0.2
min
4
·44
25
+ 15, 23 = min
{22.0400, 23.0000} = 22.0400,
a
~
A
1
(44) = 0.5
min
4
·45
25
+ 15, 23 = min
{22.2000, 23.0000} = 22.2000,
a
~
A
1
(45) = 0.7
min
4
·46
25
+ 15, 23 = min
{22.3600, 23.0000} = 22.3600,
a
~
A
1
(46) = 0.8
min
4
·47
25
+ 15, 23 = min
{22.5200, 23.0000} = 22.5200,
a
~
A
1
(47) = 1
min
4
·48
25
+ 15, 23 = min
{22.6800, 23.0000} = 22.6800,
a
~
A
1
(48) = 0.8
min
4
·49
25
+ 15, 23 = min
{22.8400, 23.0000} = 22.8400,
a
~
A
1
(49) = 0.6
min
4
·50
25
+ 15, 23 = min
{23.0000, 23.0000} = 23.0000,
a
~
A
1
(50) = 0.5.
Es ist also
~
r
(4)1
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
21.88
22.04
22.20
22.36
22.52
22.68
22.84
23.00
bzw.
co
~
r
(4)1
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)
= min
co
4
·
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
25
15
, 23
= min co
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
21.88
22.04
22.20
22.36
22.52
22.68
22.84
23.00
, 23.00
= co
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
21.88
22.04
22.20
22.36
22.52
22.68
22.84
23.00
mit
co
r
(4)0
~
~
f .|
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
,
1
5
(]
[(.), 3)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
353
=
[21.8800, 23.0000] f¨
ur 0 <
0.2
[22.0400, 23.0000] f¨
ur 0.2 <
0.5
[22.2000, 22.8400] f¨
ur 0.5 <
0.6
[22.2000, 22.6800] f¨
ur 0.6 <
0.7
[22.3600, 22.6800] f¨
ur 0.7 <
0.8
22.5200
ur 0.8 <
1.
Daher ist
(0,0.6]
ø
s
(4),3
= ø
s
(4),3
= 1.
(N.8.19)
Nach der dritten Beobachtungsperiode wird das sequentielle Fuzzy-Entscheidungsver-
fahren abgebrochen, wenn mittels einer Stoppzeit nach der(vereinfachten) -Niveauin-
klusionsmethode mit
(0, 0.6] oder mittels der Stoppzeit nach der (vereinfachten)
Tr¨
agerinklusionsmethode f¨
ur das modifizierte 1 Schritt vorausschauende Verfahren ¨
uber
Abbruch oder Fortsetzung entschieden wird.
Abbildung 8.14: Fuzzy-Risikovergleich beim modifizierten vorausschauenden Verfahren
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
13.56
14
14.44
14.89
r
(
r)
~
r
(2)0
~
~
f (.| ~
A1)
(]
[(.),1)
5
~
r
(2)1
~
~
f (.| ~
A1)
(]
[(.),1)
Stufe 1
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
14.25
14.5
14.75
15
15.25
15.5
r
(
r)
~
r
(3)0
~
~
f (.| ~
A1), ~
A2
(]
[(.),2)
~
r
(3)1
~
~
f (.| ~
A1, ~
A2)
(]
[(.),2)
Stufe 2
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
21.88 22.04 22.2 22.36 22.52 22.68 22.84 23
r
(
r)
=~
r
(4)0
~
~
f (.| ~
A1), ~
A2, ~
A3
(]
[(.),3)
~
r
(4)1
~
~
f (.| ~
A1, ~
A2, ~
A3)
(]
[(.),3)
Stufe 3
Erkl¨
arung:
·
Abbruchrisiko
Fortsetzungsrisiko
·
Zusammenfall von Abbruch- und Fortsetzungsrisiko
Die unscharfe Bayes'sche Entscheidung nach 3 Beobachtungsperioden lautet
3
( ~
A
1
, ~
A
2
, ~
A
3
) =
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
43
44
45
46
47
48
49
50
5
=
0.2
0.5
0.7
0.8
1
0.8
0.6
0.5
8.6
8.8
9.0
9.2
9.4
9.6
9.8
10.0
.
(N.8.20)

354
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Die Bayes'schen Stoppzeiten f¨
ur das 1 Schritt vorausschauende sequentielle Fuzzy-
Bayes-Entscheidungsverfahren lauten daher:
T s
1
=
(0,0.8]T s
1
= 1
(0.8,1]T s
1
=
T s
1
=
T s
1
=
(0,1]
T s
1
=
T s
1
=
T s(card)
1
= 2
(N.8.21)
und f¨
ur das modifizierte 1 Schritt vorausschauende sequentielle Bayes'sche Entschei-
dungsverfahren:
T s
(1)
=
(0,1]T s
(1)
=
T s
(1)
=
T s
(1)
=
(0.6,1]
T s
(1)
=
T s(card)
(1)
= 2
(0,0.6]
T s
(1)
=
T s
(1)
= 3
(N.8.22)
8.6
Der unscharfe sequentielle Likelihood-
Quotienten-Test (Fuzzy-SPRT)
Der sequentielle Likelihood-Quotiententest oder SPRT (Sequential Probability Ratio
Test) ist das am h¨
aufigsten verwendete sequentielle statistische Entscheidungsverfah-
ren. Der SPRT wurde von Wald
94
entwickelt. Die dem SPRT zugrunde liegende Idee ist
die folgende:
Ausgegangen wird von einem parametrischen stochastischen Modell X
P
, X :
U stetig, mit unbekanntem Parameter , und einer Folge X
1
, X
2
, ... von un-
abh¨
angigen und identisch wie X verteilten Zufallsvariablen. Es sollen die beiden ein-
fachen Hypothesen
H
0
: =
0
und
H
1
: =
1
gegeneinander mittels des folgenden
sequentiellen Tests getestet werden. Ist f (x
|
j
) die Dichtefunktion von x
U unter Zu-
grundelegung der Hypothese
H
j
, j
{0, 1}, und ist f(x
1
, ..., x
n
|
j
) =
n
i=1
f (x
i
|
j
) =
(
j
|x
1
, ..., x
n
) die gemeinsame Dichtefunktion von (x
1
, ..., x
n
)
U
n
ur
j
, j
{0, 1}
als Funktion von (x
1
, ..., x
n
) bzw. die Likelihoodfunktion als Funktion von
j
, dann ist
der Likelihood-Quotient (Probability Ratio), wie folgt, definiert:
95
L
n
(x
1
, ..., x
n
|
1
,
0
) :=
(
1
|x
1
,...,x
n
)
(
0
|x
1
,...,x
n
)
=
f (x
1
,..,x
n
|
1
)
f (x
1
,...,x
n
|
0
)
=
n
i=1
f (x
i
|
1
)
n
i=1
f (x
i
|
0
)
=
n
i=1
f (x
i
|
1
)
f (x
i
|
0
)
ur n
1
1
ur n = 0
(8.185)
Eine analoge Definition ist m¨
oglich f¨
ur diskretes X mit (
j
|x
1
, ..., x
n
) = p(x
1
, ..., x
n
|
j
) =
n
i=1
p(x
i
|
j
) f¨
ur j
{0, 1}, wobei p(x
i
|
j
) die Wahrscheinlichkeitsfunktion von x
i
unter
j
ist.
94
Vgl. Wald (1945), S. 125 ff., Wald (1947a), S. 37 ff., Wald / Wolfowitz (1948), S. 326 ff.
95
Vgl. Wald (1945), S. 122, Wald (1947a), S. 18, Wald / Wolfowitz(1948), S. 326, Ferguson (1967), S.
361, Wetherill (1975), S. 15, Siegmund (1985), S. 8, Irle (1990), S. 15. Die Definition des Likelihood-
Quotienten im Zusammenhang mit dem nicht-sequentiellen Likelihood-Quotienten-Test wurde am
Ende von Abschnitt 5.5.2 bereits erw¨
ahnt.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
355
Sind A, B zwei Zahlen mit 0 < A < 1 < B <
, dann ist der SPRT mit den Grenzen
A und B
96
gegeben durch die Abbruchregel
97
n
(x
1
, ..., x
n
) =
0 f¨
ur A < L
n
(x
1
, ..., x
n
|
1
,
0
) < B
1 f¨
ur L
n
(x
1
; ..., x
n
|
1
,
0
)
A
oder L
(
x
1
, ..., x
n
|
1
,
0
)
B
(8.186)
bzw. die Stoppzeit
98
(x
1
, ..., x
n
) = min
{n IN
0
|L
n
(x
1
; ..., x
n
|
1
,
0
)
A
L
(
x
1
, ..., x
n
|
1
,
0
)
B
min
{n IN|L
n
(x
1
, ..., x
n
) /
(A, B)}
(8.187)
und die Entscheidungsfunktion
99
T
(x
1
, ..., x
T
) =
0 f¨
ur L
T
(x
1
, ..., x
T
|
1
,
0
)
A
1 f¨
ur L
T
(x
1
, ..., x
T
|
1
,
0
)
B.
(8.188)
ahrend also bei nichtsequentiellen Tests der Stichprobenraum U
n
in einen Akzep-
tanzbereich und einen Verwerfungsbereich geteilt wird, tritt beim sequentiellen Test ein
Indifferenzbereich hinzu, so dass auf jeder Beobachtungsstufe drei Aktionen m¨
oglich
sind:
100
1) (Abbruch und) Entscheidung f¨
ur
H
0
2) (Abbruch und) Entscheidung f¨
ur
H
1
3) (noch keine Entscheidung und) Beobachtung einer weiteren Zufallsvariablen
Der SPRT wird also als eine Folge von Abbildungen (
n
)
n
IN
betrachtet
101
n
:
U
n
{0, 1, ?}
(x
1
, ..., x
n
)
n
(x
1
, ..., x
n
)
=
0 f¨
ur L
n
(x
1
, ..., x
n
|
1
,
0
)
A
1 f¨
ur L
n
(x
1
, ..., x
n
|
1
,
0
)
B
? f¨
ur L
n
(x
1
, ..., x
n
|
1
,
0
)
(A, B),
(8.189)
wobei "?" die Entscheidung "indifferent" bzw. "eine weitere Zufallsvariable ziehen"
darstellt.
Der SPRT kann sowohl als klassisches als auch als Bayes'sches sequentielles Test-
verfahren angesehen werden. Hier sollen zun¨
achst die beiden Zug¨
ange kurz skizziert
werden, anschließend wird die Anwendung des SPRT auf unscharfe Daten dargestellt.
96
Vgl. Wald (1945), S. 127 ff., Wald (1947a), S. 37 ff.
97
Vgl. Ferguson (1967), S. 361.
98
Vgl. Siegmund (1985), S. 9, Irle (1990), S. 17.
99
Vgl. Ferguson (1967), S. 361, Siegmund (1985), S. 9.
100
Vgl. Wald (1945), S. 123, Wald (1947a) S. 37 f., Wetherill (1975), S. 15, Ghosh (1970), S. 37.
101
Vgl. Berger (1985), S. 486, Ghosh (1970), S. 84.

356
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
8.6.1
Der SPRT als klassisches sequentielles Testverfahren
Klassische nichtsequentielle Tests haben das Ziel, die Wahrscheinlichkeit eines Fehlers
erster Art, d.h. der Verwerfung einer richtigen Nullhypothese und/oder die Wahrschein-
lichkeit eines Fehlers zweiter Art, d.h. der Annahme einer falschen Nullhypothese, zu
minimieren. Bei sequentiellen Tests tritt als weitere Aufgabe die Minimierung des er-
warteten Stichprobenumfangs dazu.
ur die beiden Fehlerwahrscheinlichkeiten und den erwarteten Stichprobenumfang,
deren exakte Berechnung sehr umst¨
andlich und aufwendig ist, gab Wald
102
die so ge-
nannten Wald'schen Approximationen an, deren Herleitung im Folgenden kurz skizziert
werden soll. Wald formulierte den SPRT (8.186)-(8.188) in der folgenden modifizierten
Form:
103
Ist Z
1
, Z
2
, ..., definiert durch
Z
i
:= ln
f (X
i
|
1
)
f (X
i
|
0
)
i IN,
eine Folge von i.i.d. Zufallsvariablen (es ist X
1
, X
2
, ... eine Folge von i.i.d. Zufallsva-
riablen, und somit sind auch f (X
1
|), f(X
2
|), ... und damit
f (X
1
|
1
)
f (X
1
|
0
)
,
f (X
2
|
1
)
f (X
2
|
0
)
, ... Folgen
von i.i.d. Zufallsvariablen), ist weiters (S
n
)
n
IN
mit
S
n
:=
n
i=1
Z
i
=
n
i=1
ln
f (X
i
|
1
)
f (X
i
|
0
)
= ln
n
i=1
f (X
i
|
1
)
f (X
i
|
0
)
= ln L
n
(X
1
, ..., X
n
|
1
,
0
)
eine weitere Folge von Zufallsvariablen, dann kann der SPRT, wie folgt, umformuliert
werden:
104
n
(S
n
) =
0 falls a < S
n
< b
1 falls S
n
a oder S
n
b
T
= min
{n IN|(S
n
a) (S
n
b)}
T
(S
T
) =
0 falls S
T
a
1 falls S
T
b,
wobei a := ln A, b := ln B und
- < a < 0 < b < .
Die beiden Fehlerwahrscheinlichkeiten sind gegeben durch
105
1
= P
(
{d = 1| =
0
}) = P
0
(
{d = 1})
= P
0
(
{(x
1
, x
2
, ..., x
T
)
{T < } :
T
(x
1
, ..., x
T
) = 1
}) ,
2
= P
(
{d = 0| =
1
}) = P
1
(
{d = 0})
= P
1
(
{(x
1
, x
2
, ..., x
T
)
{T < } :
T
(x
1
, ..., x
T
) = 0
}) .
102
Vgl. Wald (1947a), S. 50 bzw. S. 53.
103
Vgl. Wald (1945), S. 134 ff., Wald (1947a), S. 38 ff., Wald (1948a), S. 466 ff., Berger (1985), S.
486, Ferguson (1967), S. 371, Wetherill (1975), S. 19, Ghosh (1970), S. 67, aufbauend auf Wald (1944),
S. 283 ff.
104
Vgl. Wald (1945), S. 134, Berger (1985), S. 486 f., Ferguson (1967), S. 371, Wetherill (1975), S.
19, Siegmund (1985), S. 11, Irle (1990), S. 17.
105
Vgl. Berger (1985), S. 486, Siegmund (1985), S. 10.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
357
Da f¨
ur P
(
{Z
i
= 0
}) < 1, , d.h. f¨ur f(X
i
|
1
) = f (X
i
|
0
), mit positiver Wahr-
scheinlichkeit f¨
ur die Stoppzeit
T gilt:
106
P
(
{T < }) = 1,
d.h.
c, r IR, c > 0, 0 < r < 1, so dass P
(
{T n}) cr
n
, lassen sich die
Fehlerwahrscheinlichkeiten mit Hilfe der folgenden Funktion von , die als Operations-
charakteristik (OC) bezeichnet wird, angeben:
107
() := P
(
{d = 1}) = P
(
{(x
1
, ..., x
T
)
{T < } : (x
1
, ..., x
T
) = 1
})
=
{T<}
T
(x
1
, ..., x
T
)f (x
1
, ..., x
T
|)dx
1
...dx
T
Es ist dann
1
= (
0
)
und
2
= P
1
(
{d = 0}) =
{T<}
(1
-
T
(x
1
, ..., x
T
))f (x
1
, ..., x
T
|
1
)dx
1
...dx
T
= P
1
(
{T < }) -
{T<}
T
(x
1
, ..., x
T
)f (x
1
, ..., x
T
|
1
)dx
1
...dx
T
= 1
- (
1
).
Außerdem existieren wegen P
(
{T < }) = 1 der Erwartungswert der Stoppzeit
E
(
T ) =
n=0
n
· P
(
{T = n}) < ,
108
der auch als ASN (Average Sample Number)
bezeichnet wird, und alle Momente der Stoppzeit E
(
T
j
), j
IN.
109
Die Wald'schen Approximationen sind nun Approximationen f¨
ur die Operationscha-
rakteristik () und den Erwartungswert der Stoppzeit bzw. des Stichprobenumfangs
E
(
T ) f¨ur die Parameterwerte {
0
,
1
}.
Der grundlegende Satz, auf dem die Wald'schen Approximationen beruhen, ist die
anschließend dargestellte Fundamentalgleichung der Sequentialanalyse.
Die momenterzeugende Funktion M
(t) von Z
i
ist definiert durch:
110
M
(t) := E
(e
t
·Z
i
) = E
(exp(t
· Z
i
))
ur t
IR. Die Fundamentalgleichung lautet dann:
111
Satz (Fundamentalgleichung der Sequentialanalyse):
Falls P
(
{Z
i
= 0
}) < 1 und P
(
{|Z
i
| < }) = 1, dann gilt:
E
exp(t
· S
T
)
· M
(t)
-T
= 1
106
Vgl. Wald (1944), S. 283, Wald (1945), S. 134, Wald (1947a), S. 157 f., bzw. Berger (1985), S.
487 f., Ferguson (1967), S. 372, Wetherill (1975), S. 19, wo der Beweis von Stein (1945), S. 244 ff.,
wiedergegeben wird.
107
Vgl. Wald (1947a), S. 48 ff., Berger (1985), S. 486, Stein (1945), S. 245 f., Ghosh (1970), S. 39 f.,
Vogt (1988), S. 66 ff., Irle (1990), S. 14.
108
Vgl. Wald (1947a), S. 52 ff., Berger (1985), S. 488, Stein (1945), S. 247 ff., Ghosh (1970), S. 40 f.,
Sigmund (1985), S. 12.
109
Vgl. Wald, (1947), S. 185 ff., Berger (1985), S. 488.
110
Vgl. Wald (1944), S. 285, Wald (1945), S. 134, Wald (1947a), S. 160, Wald (1948b), S. 493, Berger
(1985), S. 488, Ferguson (1967), S. 373, Bahadur (1958), S. 534, Wetherill (1975), S. 19, Siegmund
(1985), S. 12.
111
Vgl. Wald (1944), S. 285, Wald (1947a), S. 160, Wald (1948b), S. 493, Berger(1985), S. 489,
Ferguson (1967), S. 373, Bahadur (1958), S. 536, Ghosh (1970), S. 208, Siegmund (1985), S. 12.

358
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
ur alle t
IR, f¨ur die M
(t) endlich ist.
Falls die Bedingung
|Z
i
| < nicht erf¨ullt ist, bzw. falls M
(t) f¨
ur t nahe 0 nicht endlich
ist, k¨
onnen Z
i
durch Z
i
ersetzt werden, wobei
112
Z
i
=
b
- a
falls Z
i
> b
- a
Z
i
falls
|Z
i
| b - a
-(b - a) falls Z
i
<
-(b - a).
Beweis der Fundamentalgleichung:
113
Mit g(z
|) wird die Dichtefunktion der Z
i
(be-
dingt durch
) bezeichnet. Daraus kann f¨ur t {|M
(t) <
} := {u IR ||M
(u)
| < }
die bedingte Dichtefunktion g(Z
|t, ) :=
exp(t
z
)
·g(z|)
M
(t)
definiert werden.
Da wegen P
(
{Z
i
= 0
}) < 1 auch P
(
{T < }) = 1 gilt, gilt auch P
t,
(
{T < }) = 1
ur t
{|M
(t)
| < }. Somit gilt:
114
E
(exp(t
· S
T
)
· M
(t)
-T
)
=
n=1
{T=n}
exp((t
· S
n
)
· M
(t)
-n
·
n
i=1
g(z
i
|)dz
1
...dz
n
=
n=1
{T=n}
n
i=1
exp((t
· z
i
)
· M
(t)
-1
· g(z
i
|)dz
1
...dz
n
=
n=1
{T=n}
n
i=1
g(z
i
|t, )dz
1
...dz
n
= P
t,
(
{T < }) = 1
Als direkte Folgerung aus der Fundamentalgleichung erh¨
alt man die folgenden Aus-
sagen, die wesentlich sind f¨
ur die Wald'schen Approximationen von () und E
(
T ):
115
Falls P
(
{Z
i
= 0
}) < 1 und P
(
{|Z
i
| < }) = 1, und falls M
(t) f¨
ur t in einer Umge-
bung von 0 existiert, so folgt:
(i) E
(S
T
) = E
(Z
i
)
· E
(
T )
(ii) E
(S
T
- T · E
(Z
i
))
2
= V ar
(Z
i
)
· E
(
T )
Der Beweis erfolgt durch Differenzieren der Fundamentalgleichung nach A innerhalb
des Erwartungswertes.
116
Etwa (i) erh¨
alt man wegen
E
d
dt
exp(t
· S
T
)
· M
(t)
-T
= E
S
T
· exp(t · S
T
)
· M
(t)
-T
- T · exp(t · S
T
)
· M
(t)
-(T +1)
·
d
dt
M
(t)
=
d
dt
1 = 0.
ur t = 0 erh¨
alt man daraus wegen M
(0) = 1 und wegen
d
dt
M
(t)
|
t=0
= E
d
dt
exp(t
· Z
i
)
t=0
= E
(Z
i
· exp(t · Z
i
))
|
t=0
= E
(Z
i
)
schließlich
E
(S
T
- T · E
(Z
i
)) = 0.
112
Vgl. Berger (1985), S. 489.
113
Der Beweis folgt Bahadur (1958), S.536 f., und findet sich in dieser Form unter anderem auch bei
Berger (1985), S. 489, und Ferguson (1967), S. 373 f., Ghosh (1970), S. 208 f.
114
Vgl. Bahadur (1958), S. 535.
115
Vgl. Wald (1947a), S. 171 ff., Berger (1985), S. 490, Ferguson (1967), S. 374, Wetherill (1975), S.
20, Ghosh (1907), S. 69 ff., Siegmund (1985), S. 13.
116
Vgl. Wald (1948b), S. 493 ff., Berger (1985), S. 490, Ferguson (1967), S. 374 f.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
359
(ii) erh¨
alt man analog mit Hilfe der zweiten Ableitung.
Um die Wald'schen Approximationen f¨
ur () zu bestimmen, w¨
ahlt man f¨
ur
t
IR so, dass M
(t
) = 1.
117
ur den Fall E
(Z
i
) = 0 erh¨
alt man aufgrund der
Fundamentalgleichung
118
1 = E
exp(t
· S
T
)
· M
(t
)
-T
= E
(exp(t
· S
T
).
Die Verteilung der Zufallsvariablen S
T
wird reduziert auf die beiden Ereignisse
{S
T
a} und {S
T
b}, und es gilt wegen P ({T < }) = 1
119
P
(
{S
T
a}) + P
(
{S
T
b}) = 1.
Definiert man hieraus eine Wahrscheinlichkeitsverteilung P
durch
P
(
{S
T
= a
}) := P
(
{S
T
a})
P
(
{S
T
= b
}) := P
(
{S
T
b}),
so erh¨
alt man wegen P
(
{S
T
= a
}) + P
(
{S
T
= b
}) = 1 aufgrund der Fundamental-
gleichung die Approximation
120
1
exp(t
· a) · P
(
{S
T
= a
}) + exp(t
· b) · P
(
{S
T
= b
})
= exp(t
· a) · P
(
{S
T
a}) + exp(t
· b) · P
(
{S
T
b}).
Daraus ergibt sich f¨
ur die Operationscharakteristik () = P
(
{S
T
b}) die folgende
Approximation:
121
() = P
(
{S
T
b})
1
- exp(t
· a)
exp(t
· b) - exp(t
· a)
Die Idee der Approximation ist die Folgende:
122
Es wird davon ausgegangen, dass beim
¨
Uberschreiten einer der Grenzen a oder b diese Grenze genau getroffen wird. Wird die
Grenze genau getroffen, so gilt statt des Approximationszeichens das Gleichheitszei-
chen. Ist E
(Z
i
) = 0, so gilt E
(S
T
) = 0, und daher erh¨
alt man die Approximation
0
a · P
(
{S
T
= a
}) + b · P
(
{S
T
= b
})
= a
· P
(
{S
T
a}) + b · P
(
{S
T
b}),
und somit
123
() = P
(
{S
T
b})
-a
b
- a
.
117
Vgl. Wald (1944), S. 286, Wald (1945), S. 134, Berger (1985), S. 490 f. Es werden Existenz und
Eindeutigkeit von t
gezeigt.
118
Vgl. Wald (1944), S. 286, Wald (1945), S. 134, Wald (1947a), S. 161, Berger (1985), S. 492,
Ferguson (1967), S. 375.
119
Vgl. Berger (1985), S. 492, Ferguson (1967), S. 375.
120
Vgl. Wald (1947a), S. 161, Berger (1985), S. 492, Ferguson (1967), S. 375.
121
Vgl. Wald (1947a), S. 50, Berger (1985), S. 492, Ferguson (1967), S. 375, Wetherill (1975), S. 17,
Ghosh (1907), S. 69.
122
Vgl. Berger (1985), S. 492, Ferguson (1967), S. 375 f.
123
Vgl. Wald (1947a), S. 176.

360
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
(Diese letztere Approximation erh¨
alt man auch durch Grenzwertbildung in obiger Ap-
proximation f¨
ur t
0, was eine Konsequenz von E
(Z
i
)
0 ist.)
Auch bei der Bestimmung der Wald'schen Approximation f¨
ur E
(
T ) muss unter-
schieden werden zwischen den F¨
allen E
(Z
i
) = 0 und E
(Z
i
) = 0.
124
ur E
(Z
i
) = 0
gilt aufgrund obiger Aussage (i)
125
E
(
T ) = E
(Z
i
)
-1
· E
(S
T
).
Unter denselben Approximationsannahmen wie oben erh¨
alt man
126
E
(S
T
)
a · P
(
{S
T
a}) + b · P
(
{S
T
b})
und daraus (unter Verwendung der Approximation f¨
ur P (
{S
T
b}))
127
E
(
T ) E
(Z
i
)
-1
· (a · P
(
{S
T
a}) + b · P
(
{S
T
b}))
E
(Z
i
)
-1
·
a
· (exp(t
· b) - 1) + b · (1 - exp(t
· a))
exp(t
· b) - exp(t
· a)
.
ur E
(Z
i
) = 0 folgt wegen obiger Aussage (ii)
128
E
(
T ) = V ar
(Z
i
)
-1
· E
(S
2
T
).
Unter den gleichen Approximationsvoraussetzungen gilt
E
(S
2
T
)
a
2
· P
(
{S
T
a}) + b · P
(
{S
T
b}),
und daraus folgt weiter
129
E
(
T ) V ar
(Z
i
)
-1
· (a
2
· P
(
{S
T
a}) + b
2
· P
(
{S
T
b}))
V ar
(Z
i
)
-1
·
a
2
b
- b
2
a
b
- a
= V ar
(Z
i
)
-1
· (-ab).
Bei der Beschreibung der Wald'schen Approximationen wurde durchwegs auf den
von Wald formulierten abgewandelten SPRT Bezug genommen. Sollen nun f¨
ur den ur-
spr¨
unglichen STRT (8.186)-(8.188) die Fehlerwahrscheinlichkeiten und die erwarteten
Stichprobenumf¨
ange bei Zugrundelegung der beiden Hypothesen bestimmt werden, so
sind in den Formeln f¨
ur die Wald'schen Approximationen die Gr¨
oßen a und b durch
ln(A) und ln(B) zu ersetzen.
Betrachtet man also
1
= (
0
),
2
= 1
- (
1
) und E
0
(
T ) und E
1
(
T ), so erh¨alt
man wegen t
0
= 1 und t
1
=
-1 (f¨ur P
j
(
{|Z
i
| < }) = 1 f¨ur j {0, 1}):
130
1
1
- exp(a)
exp(b)
- exp(a)
=
1
- A
B
- A
(8.190)
2
1 -
1
- exp(-a)
exp(
-b) - exp(-a)
=
exp(
-b) - 1
exp(
-b) - exp(-a)
=
B
-1
- 1
B
-1
- A
-1
=
A
- AB
A
- B
=
A(B
- 1)
B
- A
(8.191)
124
Vgl. Berger (1985), S. 492 f., Ferguson (1967), S. 376.
125
Vgl. Wald (1947a), S. 171, Wald (1948b), S. 494, Berger (1985), S. 492, Ferguson (1967), S. 376.
126
Vgl. Wald (1947a), S.171, Wetherill (1975), S. 20, Siegmund (1985), S. 13.
127
Vgl. Wald (1947a), S. 53 und S. 172.
128
Vgl. Wald (1947a), S. 173, Wald (1948b), S. 496, Berger (1985), S. 493, Ferguson (1967), S. 376.
129
Vgl. Wald (1947a), S. 176, Wald (1948b), S. 497.
130
Vgl. Wald (1945), S. 135 bzw. S. 143, Wald (1947a), S. 50 bzw. S. 53, Berger (1985), S. 493,
Siegmund (1985), S. 11, Irle (1990), S. 28 f.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
361
E
0
(
T ) E
0
(Z
i
)
-1
·
a
· (exp(b) - 1) + b · (1 - exp(a))
exp(b)
- exp(a)
=
1
U
ln
f (x
i
|
1
)
f (x
i
|
0
)
f (x
i
|
0
)dx
i
·
ln(A)
· (B - 1) + ln(B) · (1 - A)
B
- A
= E
0
ln
f (x
i
|
1
)
f (x
i
|
0
)
-1
· ln(A) +
(ln(A)
- ln(B)) · (1 - A)
B
- A
= E
0
ln
f (x
i
|
1
)
f (x
i
|
0
)
-1
· ln(A) ·
B
- 1
B
- A
+ ln(B)
·
1
- A
B
- A
(8.192)
E
1
(
T ) E
1
(Z
i
)
-1
·
a
· (exp(-b) - 1) + b · (1 - exp(-a))
exp(
-b) - exp(-a)
=
1
U
ln
f (x
i
|
1
)
f (x
i
|
1
)
f (x
i
|
0
)dx
i
·
ln(A)
· (B
-1
- 1) + ln(B) · (1 - A
-1
)
B
-1
- A
-1
= E
1
ln
f (x
i
|
1
)
f (x
i
|
0
)
-1
· ln(A) +
(ln(A)
- ln(B)) · B · (1 - A)
B
- A
= E
1
ln
f (x
i
|
1
)
f (x
i
|
0
)
-1
· ln(A) ·
A
· (B - 1)
B
- A
+ ln(B)
·
B(1
- A)
B
- A
(8.193)
Die Approximationen f¨
ur die Fehlerwahrscheinlichkeiten k¨
onnen, da sie nur von A
und B abh¨
angen, auch zur (approximativen) Konstruktion eines SPRT f¨
ur vorgegebene
Fehlerwahrscheinlichkeiten
1
und
2
herangezogen werden, da die Approximationen
(8.190) und (8.191) auch nach A und B aufgel¨
ost werden k¨
onnen.
131
Es ist
A
2
1
-
1
=: A
B
1
-
2
1
=: B .
Insbesondere gelten die Ungleichungen
132
A
A =
2
1
-
1
,
B
B =
1
-
2
1
.
Ferner gelten die folgenden Ungleichungen f¨
ur die Erwartungswerte des Stichproben-
umfangs:
133
E
0
(
T ) E
0
ln
f (x
i
|
1
)
f (x
i
|
0
)
-1
· (1 -
1
)
· ln
2
1
-
1
+
1
·
1
-
2
1
E
1
(
T ) E
1
ln
f (x
i
|
1
)
f (x
i
|
0
)
-1
·
2
· ln
2
1
-
1
+ (1
-
2
)
·
1
-
2
1
8.6.2
Der SPRT als Bayes'sches sequentielles Testverfahren
Neben dem eben beschriebenen klassischen Zugang zum SPRT ist auch eine Herleitung
des SPRT als Bayes'sches sequentielles Verfahren m¨
oglich.
134
ur das parametrische
131
Vgl. Wald (1947a) S. 50, Berger (1985), S. 493, Wetheril (1966), S. 19.
132
Vgl. Wald (1947a), S. 50 bzw. S. 164, Berger (1985), S. 496 f., Ghosh (1970), S. 69, Irle (1990),
S. 27 f.
133
Vgl. Wald (1947a), S. 172, Berger (1985), S. 496 f., Ghosh (1970), S. 73
134
Vgl. Berger (1985), S. 481 ff., Ferguson (1967), S. 361 ff.

362
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
stochastische Modell X
P
, X :
U, soll aufgrund einer Folge von unabh¨angigen
und identisch wie X verteilten Zufallsvariablen X
1
, X
2
, ... die einfache Nullhypothese
H
0
: =
0
gegen die einfache Alternativhypothese
H
1
: =
1
getestet werden.
135
Es
sind also die beiden Entscheidungen d = 0 und d = 1 m¨
oglich. Dem Verfahren liegt die
Verlustfunktion
l(, 0) =
0
ur =
0
s
0
ur =
1
,
l(, 1) =
0
ur =
1
s
1
ur =
0
zugrunde, sowie die Beobachtungskosten c
i
c i IN, d.h.
n
i=1
c
i
= n
· c f¨ur n IN,
und somit die Gesamtverlustfunktion auf jeder Beobachtungsstufe n
IN:
136
L
l(, d, n) =
n
· c
ur =
d
(d
{0, 1})
s
0
+ n
· c f¨ur =
1
und d = 0
s
1
+ n
· c f¨ur =
0
und d = 1
Besitzt die Zufallsvariable
auf = {
0
,
1
} die A-priori-Verteilung (.), ge-
geben durch (
0
) =
0
[0, 1], (
1
) =
1
= 1
-
0
,
137
und erh¨
alt man auf je-
der Stufe n
IN nach Beobachtung der Daten (x
1
, ..., x
n
)
U
n
die A-posteriori-
Verteilung, die gegeben ist durch (
0
|x
1
, .., x
n
) =
0
·f(x
1
,...,x
n
|
0
)
0
·f(x
1
,...,x
n
|
0
)+(1
-
0
)
·f(x
1
,...,x
n
|
1
)
und
(
1
|x
1
, .., x
n
) = 1
- (
0
|x
1
, .., x
n
) =
(1
-
0
)
·f(x
1
,...,x
n
|
1
)
0
·f(x
1
,...,x
n
|
0
)+(1
-
0
)
·f(x
1
,...,x
n
|
1
)
,
138
dann kann
mit Hilfe der A-posteriori-Verteilungen f¨
ur ein beliebiges sequentielles Testverfahren
(.) = ( (.), ][(.)), : U
IN
{0, 1, ..., }, ][(.) = (
n
(.))
n
IN
,
n
:
{T = n} {0, 1}
das Bayes'sche Risiko formuliert werden:
139
r
(.)
((.)) = r
(.)
( (.), ][(.))
=
n=0
{T=n}|
Un
E
(.
|x
1
,...,x
n
)
(
L
l(
,
n
(x
1
, ..., x
n
), n))f
X
(x
1
, ..., x
n
)dx
1
...dx
n
=
n=0
{T=n}|
Un
(s
1
·
n
(x
1
, ..., x
n
)
· (
0
|x
1
, ..., x
n
)
+ s
0
· (1 -
n
(x
1
, ..., x
n
))
· (
1
|x
1
, ..., x
n
) + nc)f
X
(x
1
, ..., x
n
)dx
1
...dx
n
=
n=0
{T=n}|
Un
s
1
·
n
(x
1
, ..., x
n
)
·
0
·f(x
1
,...,x
n
|
0
)
0
·f(x
1
,...,x
n
|
0
)+(1
-
0
)
·f(x
1
,...,x
n
|
1
)
+ s
0
· (1 -
n
(x
1
, ..., x
n
))
·
(1
-
0
)
·f(x
1
,...,x
n
|
1
)
0
·f(x
1
,...,x
n
|
0
)+(1
-
0
)
·f(x
1
,...,x
n
|
1
)
+ nc
· (
0
· f(x
1
, ..., x
n
|
0
) + (1
-
0
)
· f(x
1
, ..., x
n
|
1
))dx
1
...dx
n
=
n=0
{T=n}|
Un
(s
1
·
n
(x
1
, ..., x
n
)
·
0
· f(x
1
, ..., x
n
|
0
)
+ s
0
· (1 -
n
(x
1
, ..., x
n
))
· (1 -
0
)
· f(x
1
, ..., x
n
|
1
)
+ nc
· (
0
· f(x
1
, ..., x
n
|
0
) + (1
-
0
)
· f(x
1
, ..., x
n
|
1
)))dx
1
...dx
n
135
Vgl. Berger (1985), S. 482.
136
Vgl. Berger (1985), S. 482, Irle (1990), S. 14.
137
Vgl. Berger (1985), S. 482.
138
Vgl. Wald (1950), S. 120, Arrow / Blackwell / Girshick (1949), S. 225, Ferguson (1967), S. 352.
139
Vgl. Wald / Wolfowitz (1948), S. 327, Ghosh (1970), S. 94, Irle (1990), S. 74 ff.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
363
=
n=0
s
1
·
0
·
{T=n}|
Un
n
(x
1
, ..., x
n
)
· f(x
1
, ..., x
n
|
0
)dx
1
...dx
n
+ s
0
· (1 -
0
)
·
{T=n}|
Un
(1
-
n
(x
1
, ..., x
n
))f (x
1
, ..., x
n
|
1
)dx
1
...dx
n
+nc
·
{T=n}|
Un
0
· f(x
1
, ..., x
n
|
0
)dx
1
...dx
n
+(1
-
0
)
·
{T=n}|
Un
f (x
1
, ..., x
n
|
1
)dx
1
...dx
n
=
n=0
[s
1
·
0
· P
0
(
{D
n
= 1
} {T = n}) + s
0
· (1 -
0
)
· P
1
(
{D
n
= 0
} {T = n})
+nc
· (
0
· P
0
(
{T = n}) + (1 -
0
)
· P
1
(
{T = n}))]
(
)
=
n=0
[
0
· s
1
· P
0
(
{D
n
= 1
}) · P
0
(
{T = n})
+ (1
-
0
)
· s
0
· P
1
(
{D
n
= 0
}) · P
1
(
{T = n})
+nc
· (
0
· P
0
(
{T = n}) + (1 -
0
)
· P
1
(
{T = n}))]
(
)
=
0
·
n=0
(s
1
· P
0
(
{D
n
= 1
}) + nc) · P
0
(
{T = n})
+ (1
-
0
)
·
n=0
(s
0
· P
1
(
{D
n
= 0
}) + nc) · P
1
(
{T = n}),
wobei D
n
:=
n
(X
1
, ..., X
n
) und
P
(
{
n
(X
1
, ..., X
n
) = d
}) =
{T=n}|
Un
n
(x
1
, ..., x
n
)
·f(x
1
, ..., x
n
|)dx
1
...dx
n
ur d = 1
{T=n}|
Un
(1
-
n
(x
1
, ..., x
n
))
·f(x
1
, ..., x
n
|)dx
1
...dx
n
ur d = 0
ur
{
0
,
1
}.
Die Identit¨
at (
) folgt aus der in Abschnitt 8.2 gezeigten Unabh¨angigkeit von Entschei-
dungsfunktion (.) und Stoppzeit (.). Die letzte Identit¨
at (
) folgt wegen
P
(
{T < }) = 1 f¨ur {
0
,
1
}, wie in Abschnitt 8.6.1 ausgef¨uhrt.
r
(.)
((.)) ist somit eine lineare Funktion der Variablen
0
.
140
Bei der Konstruk-
tion Bayes'scher sequentieller Entscheidungsverfahren (vgl. Abschnitte 8.2-8.5) wur-
de so vorgegangen, dass zun¨
achst die Folge von Bayes'schen Entscheidungsfunktionen
]
[(.) = (
n
(.))
n
IN
bestimmt wurde, die auf jeder Stufe n
IN den A-posteriori-
Verlusterwartungswert E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))) minimiert. Eine Bayes'sche Test-
funktion ist bei Zugrundelegung einer 0
- s
0
/0
- s
1
-Verlustfunktion gegeben durch
n
(x
1
, ..., x
n
) =
0 falls s
0
·
(
1
|x
1
, ..., x
n
)
s
1
· (
0
|x
1
, ..., x
n
)
1 falls s
0
·
(
1
|x
1
, ..., x
n
) > s
1
· (
0
|x
1
, ..., x
n
),
und der A-posteriori-Verlusterwartungswert f¨
ur die Bayes'sche Testfunktion lautet
E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))) = min
{s
0
·
(
1
|x
1
, ..., x
n
), s
1
· (
0
|x
1
, ..., x
n
)
}.
Dann wurde die Bayes'sche Stoppzeit
(.) bzw. alternativ die Bayes'sche Abbruchregel
]
[(.) = (
n
(.))
n
IN
bestimmt, indem auf jeder Stufe n
IN
0
das Fortsetzungsrisiko mit
dem Abbruchrisiko verglichen wurde. Das Abbruchrisiko auf der Stufe n nach Erhalt
140
Vgl. Ferguson (1967), S. 363.

364
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
der Daten (x
1
, ..., x
n
) ist gegeben durch
141
r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = E
(.
|x
1
,...,x
n
)
(
L
l(
,
n
(x
1
, ..., x
n
), n))
= E
(.
|x
1
,...,x
n
)
(l(
,
n
(x
1
, ..., x
n
))) + nc.
In den Abschnitten (8.3)-(8.5) wurden durchwegs Fortsetzungsrisiken r
j
(.
|x
1
,...,x
n
)
(]
[(.), n)
betrachtet, die sich auf eine endliche Schrittanzahl j
IN
0
bezogen. Hier sollen nun
im Gegensatz dazu Fortsetzungsrisiken betrachtet werden, die sich auf unendlich viele
Schritte beziehen:
142
r
(.
|x
1
,...,x
n
)
(]
[(.), n)
:= min
T
n
E
X
1
,...,X
-
(E
(.
|x
1
,...,x
n
)
(
L
l(
,
T
(X
1
, ..., X
T
),
T
))
|X
1
= x
1
, ..., X
n
= x
n
)
= min
T
n
T
k=n+1
{T=k}
n+1,...,k
E
(.
|x
1
,...,x
n
,x
n+1
,...,x
k
)
(
L
l(
,
k
(x
1
, ..., x
k
), k))
f
X
(x
n
+ 1, ..., x
k
|x
1
, ..., x
n
)dx
1
...dx
n
Das Verfahren bricht dann ab bei der Bayes'schen Stoppzeit
143
T
= min
{n IN|r
0
(.
|x
1
,...,x
n
)
(]
[(.), n) = r
(.
|x
1
,...,x
n
)
(]
[(.), n)
},
wobei f¨
ur das Fortsetzungsrisiko r
(.
|x
1
,...,x
n
)
(]
[(.), n) gilt:
r
(.
|x
1
,...,x
n
)
(]
[(.), n) = min r
0
(.
|x
1
,...,x
n
)
(]
[(.), n),
min
T
>n
T
k=n+1
{T=k}
n+1,...,k
E
(.
|x
1
,...,x
n
,x
n+1
,...,x
k
)
(
L
l(
,
k
(x
1
, ..., x
k
), k))
f
X
(x
n
+ 1, ..., x
k
|x
1
, ..., x
n
)dx
1
...dx
n
Bezeichnet man mit
r
1
(.
|x
1
,...,x
n
)
(]
[(.), n)
:= min
T
>n
E
X
1
,...,X
-
(E
(.
|x
1
,...,x
n
)
(
L
l(
,
T
(X
1
, ..., X
T
),
T
))
|X
1
= x
1
, ..., X
n
= x
n
)
= min
T
>n
T
k=n+1
{T=k}
n+1,...,k
E
(.
|x
1
,...,x
n
,x
n+1
,...,x
k
)
(
L
l(
,
k
(x
1
, ..., x
k
), k))
f
X
(x
n
+ 1, ..., x
k
|x
1
, ..., x
n
)dx
1
...dx
n
das minimale Bayes-Risiko aller Verfahren, die wenigstens eine weitere Beobachtung
vor der Entscheidung erheben, so gilt:
144
r
(.
|x
1
,...,x
n
)
(]
[(.), n) = min r
0
(.
|x
1
,...,x
n
)
(]
[(.), n), r
1
(.
|x
1
,...,x
n
)
(]
[(.), n)
und
r
1
(.
|x
1
,...,x
n
)
(]
[(.), n) = E
X
n+1
r
(.
|x
1
,...,x
n
,X
n+1
)
(]
[(.), n + 1)
=
U
r
(.
|x
1
,...,x
n
,x
n+1
)
(]
[(.), n + 1)f
X
(x
n+1
|x
1
, ..., x
n
)dx
n+1
141
Vgl. Wald / Wolfowitz (1948), S. 328, Irle (1990), S. 77.
142
Vgl. Irle (1990), S. 77 f.
143
Vgl. Berger (1985), S. 482, Irle (1990), S. 78.
144
Vgl. Berger (1985), S. 482, Ferguson (1967), S. 355.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
365
Ferner gilt speziell f¨
ur n = 0
145
r
(.)
(]
[(.), 0) = r
(.)
(
T
, ]
[(.))
und
r
1
(.)
(]
[(.), 0) = min
T
1
r
(.)
(
T
, ]
[(.)).
Das folgende Ergebnis ist wesentlich f¨
ur die Konstruktion des SPRT als Bayes'sches
Verfahren:
146
Die Funktion r
1
(.)
(]
[(.), 0) ist eine stetige konkave Funktion der Variablen
0
= (
0
),
und es ist r
1
(.)
(]
[(.), 0) = c f¨
ur
0
= 0 oder
0
= 1.
Beweis:
147
ur zwei verschiedene A-priori-Verteilungen und mit
0
= (
0
)
[0, 1] und
0
= (
0
)
[0, 1] und f¨ur [0, 1] wird mit + (1 - ) die A-
priori-Verteilung ( + (1
- ) )(
0
) =
0
+ (1
- )
0
und ( + (1
- ) )(
1
) =
1
- (
0
+ (1
- )
0
) = (1
-
0
) + (1
-
0
) bezeichnet. Es gilt somit
r
+(1
-)
( (.), ]
[(.))
= (
0
+ (1
- )
0
)
·
n=0
(s
1
· P
0
(
{d
n
= 1
}) + nc) · P
0
(
{T = n})
+ ((1
-
0
) + (1
-
0
))
·
n=0
(s
0
· P
1
(
{d
n
= 0
}) + nc) · P
1
(
{T = n})
=
·
0
·
n=0
(s
1
· P
0
(
{d
n
= 1
}) + nc) · P
0
(
{T = n})
+(1
-
0
)
·
n=0
(s
0
· P
1
(
{d
n
= 0
}) + nc) · P
1
(
{T = n})
+ (1
- ) ·
0
·
n=0
(s
1
· P
0
(
{d
n
= 1
}) + nc) · P
0
(
{T = n})
+(1
-
0
)
·
n=0
(s
0
· P
1
(
{d
n
= 0
}) + nc) · P
1
(
{T = n})
=
· r
( (.), ]
[(.)) + (1
- ) · r
( (.), ]
[(.)).
Daraus erh¨
alt man
148
r
1
+(1
-)
(]
[(.), 0) = min
T
1
r
+(1
-)
( (.), ]
[(.)) =
= min
T
1
(
· r
( (.), ]
[(.)) + (1
- ) · r
( (.), ]
[(.)))
· min
T
1
r
( (.), ]
[(.) + (1
- ) · min
T
1
r
( (.), ]
[(.))
=
· r
1
(]
[(.), 0) + (1
- ) · r
1
(]
[(.), 0).
Es ist r
1
(.)
(]
[(.), 0) somit konkav und stetig f¨
ur
0
im offenen Intervall (0, 1).
r
(.)
(1,
1
(.)) bezeichnet nun das Bayes-Risiko des Verfahrens, das nach einer Beobach-
tung stoppt und dann die Bayes'sche Entscheidung w¨
ahlt.
Es ist r
(.)
(1,
1
(.)) = E
X
1
(E
(.
|X
1
)
(l(
,
1
(X
1
)))) + c.
145
Vgl. Berger (1985), S. 482 f., Ferguson (1967), S. 362.
146
Vgl. Berger (1985), S. 483, Ferguson (1967), S. 362, Irle (1990), S. 80, ¨
ahnlich bei Wald / Wolfowitz
(1948), S. 334 f.
147
Vgl. Berger (1985), S. 483, Ferguson (1967), S. 362 f.
148
Vgl. Ferguson (1967), S. 355, Ghosh (1970), S. 94.

366
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Weiters ist r
1
(.)
(]
[(.), 0)
c. Somit ist
c
r
1
(.)
(]
[(.), 0)
E
X
1
(E
(.
|X
1
)
(l(
,
1
(X
1
)))) + c.
Es ist
E
X
1
(E
(.
|X
1
)
(l(
,
1
(X
1
))))
=
U
min s
1
·
0
·f(x
1
|
0
)
0
·f(x
1
|
0
)+(1
-
0
)
·f(x
1
|
1
)
, s
0
·
(1
-
0
)
·f(x
1
|
1
)
0
·f(x
1
|
0
)+(1
-
0
)
·f(x
1
|
1
)
· (
0
· f(x
1
|
0
) + (1
-
0
)
· f(x
1
|
1
)) dx
1
=
U
min
{s
1
·
0
· f(x
1
|
0
), s
0
· (1 -
0
)
· f(x
1
|
1
)
} dx
1
min{s
1
·
0
, s
0
· (1 -
0
)
} - 0 f¨ur
0
0 oder
0
1,
und daher r
1
(.)
(]
[(.), 0)
- c f¨ur
0
0 oder
0
1.
Es ist somit r
1
(.)
(]
[(.), 0) stetig in
0
= 0 und
0
= 1, und es ist r
1
(.)
(]
[(.), 0) = c
ur
0
= 0 und
0
= 1.
q.e.d.
Vor Beginn der Beobachtung werden also die Gr¨
oßen r
0
(.)
(]
[(.), 0) = min
{s
1
·
0
,
s
0
·(1-
0
)
} und r
1
(.)
(]
[(.), 0) verglichen. Es k¨
onnen dabei die folgenden F¨
alle auftreten:
149
(i)
0
[0, 1] : r
0
(.)
(]
[(.), 0) = r
1
(.)
(]
[(.), 0) = [0, 1]
In diesem Fall wird ohne Beobachtung sofort entschieden.
150
(ii)
L
,
R
[0, 1],
L
<
R
:
0
[0, 1]: r
0
(.)
(]
[(.), 0)
r
1
(.)
(]
[(.), 0)
= [0,
L
]
[
R
, 1]
Diese Situation soll durch die Abbildung 8.15 illustriert werden.
151
Das sequentielle Bayes'sche Testverfahren
(.) = (
(.), ]
[(.)) stoppt nun f¨
ur
152
= min
{n IN
0
|((
0
|x
1
, ..., x
n
)
L
)
((
0
|x
1
, ..., x
n
)
R
)
}
und entscheidet
153
n
(x
1
, ..., x
n
) = 0 falls (
0
|x
1
, ..., x
n
)
R
und
n
(x
1
, ..., x
n
) = 1 falls (
0
|x
1
, ..., x
n
)
L
.
149
Vgl. Berger (1985), S. 483, Irle (1990), S. 80. Bei Wald / Wolfowitz (1948), S. 330, werden, mit
etwas anderer Notation, drei F¨
alle unterschieden: Sofortabbruch, Indifferenz und Fortsetzung. Bei
Wald (1950), S. 109 ff., wird der der umgekehrte Weg beschritten: Es werden allgemein f¨
ur Bayes'sche
Entscheidungsverfahren Eigenschaften hergeleitet, aus denen sich dann diese Eigenschaften des SPRT
ergeben, vgl. auch Berger (1985), S. 499 f.
150
Vgl. Berger (1985), S. 483, Ferguson (1967), S. 365, Irle (1990), S. 80 f.
151
Vgl. Berger (1985), S. 484, Ferguson (1967), S. 363, Ghosh (1970), S. 95, Irle (1990), S. 80.
152
Vgl. Berger (1985), S. 484, Ferguson (1967), S. 363 f., Irle (1990), S. 81.
153
Vgl. Berger (1985), S. 484, Irle (1990), S. 81.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
367
Abbildung 8.15: Ausgangssituation beim Bayes'schen SPRT
Es gilt
L
s
0
s
0
+s
1
R
, und der Fall (i) kann somit als Spezialfall mit
L
=
s
0
s
0
+s
1
=
R
interpretiert werden.
154
Eine Umformulierung des eben beschriebenen Bayes'schen Entscheidungsverfahrens
liefert den SPRT in der Form (8.186)-(8.188). Es ist n¨
amlich
155
(
0
|x
1
, ..., x
n
) =
0
n
i=1
f (x
i
|
0
)
0
n
i=1
f (x
i
|
0
)(1
-
0
)
n
i=1
f (x
i
|
1
)
=
1
1 +
1
-
0
0
n
i=1
f (x
i
|
1
)
f (x
i
|
0
)
=
1
1 +
1
-
0
0
· L
n
(x
1
, ..., x
n
|
1
,
0
)
,
und es ist
156
(
0
|x
1
, ..., x
n
)
R
L
n
(x
1
, ..., x
n
|
1
,
0
)
0
(1
-
R
)
R
(1
-
0
)
(
0
|x
1
, ..., x
n
)
L
L
n
(x
1
, ..., x
n
|
1
,
0
)
0
(1
-
L
)
L
(1
-
0
)
.
Das Bayes'sche sequentielle Testverfahren ist somit ein SPRT der Form (8.186)-(8.188)
mit
157
A =
0
(1
-
R
)
R
(1
-
0
)
und
B =
0
(1
-
L
)
L
(1
-
0
)
.
(8.194)
(Wegen
L
R
gilt
1
-
R
R
1
-
L
L
und somit A
B.)
154
Vgl. Berger (1985), S. 484, Ferguson (1967), S. 365.
155
Vgl. Wald (1950), S. 120, Wald / Wolfowitz (1950), S. 97, Arrow / Blackwell / Girshick (1949),
S. 225, Berger (1985), S. 484, Ferguson (1967), S. 364, Ghosh (1970), S. 96, Irle (1990), S. 81.
156
Vgl. Berger (1985), S. 484.
157
Vgl. Berger (1985), S. 484, Ferguson (1967), S. 364, Ghosh (1970), S. 95 f., Irle (1990), S. 81. Ein
etwas anderer Zugang f¨
uhrt auch bei Wald / Wolfowitz (1948), S. 335 ff., zu diesem Ergebnis.

368
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Die Schwierigkeit liegt nun bei der Berechnung der Werte
L
und
R
, die ge-
geben sind durch die L¨
osungen der Gleichungen r
1
(
L
,1
-
L
)
(]
[(.), 0) =
L
· s
1
und
r
1
(
R
,1
-
R
)
(]
[(.), 0) = (1
-
R
)
· s
0
. Da eine explizite Berechnung sehr kompliziert und
umst¨
andlich ist, versucht man, eine geeignete Approximation zu finden. Die folgende
Darstellung des Bayes'schen Risikos f¨
uhrt das Problem auf die relevanten Gr¨
oßen der
klassischen Problemstellung und somit auf die Wald'schen Approximationen zur¨
uck.
ur ein sequentielles Testverfahren (.) = ( (.), ][(.)) ist das Bayes'sche Risiko gege-
ben durch:
158
r((.)) = r( (.), ][(.))
=
n=0
{T=n}|
Un
E
(.
|x
1
,...,x
n
)
(
L
l(
, (x
1
, ..., x
n
), n))f
X
(x
1
, ..., x
n
)dx
1
...dx
n
=
n=0
{T=n}|
Un
(s
1
·
n
(x
1
, ..., x
n
)
· (
0
|x
1
, ..., x
n
)
+ s
0
· P (1 -
n
(x
1
, ..., x
n
))
· (
1
|x
1
, ..., x
n
) + nc)f
X
(x
1
, ..., x
n
)dx
1
...dx
n
= (
0
)
n=0
(s
1
· P
0
(
{D
n
= 1
}) + nc) · P
0
(
{T = n})
+ (
1
)
n=0
(s
0
· P
1
(
{D
n
= 0
}) + nc) · P
1
(
{T = n})
= (
0
)
· (s
1
· P
0
(
{D = 1})) + c ·
n=0
n
· P
0
(
{T = n})
+ (
1
)
· (s
0
· P
1
(
{D = 0})) + c ·
n=0
n
· P
1
(
{T = n})
= (
0
)
· (s
1
·
1
+ c
· E
0
(
T )) + (
1
)
· (s
0
·
2
+ c
· E
1
(
T ))
ur die Gr¨
oßen
1
,
2
, E
0
(
T ) und E
1
(
T ) wurden oben die Wald'schen Approxima-
tionen hergeleitet. Mit Hilfe der Wald'schen Approximationen kann nun das Bayes'sche
Risiko approximiert werden. F¨
ur einen SPRT (.) = ( (.), ][(.)) mit den Grenzen A
und B gilt somit:
159
r ( (.), ][(.))
0
· s
1
·
1
-A
B
-A
+ c
· E
0
ln
f (x
i
|
1
)
f (x
i
|
0
)
-1
· ln(A) ·
B
-1
B
-A
+ ln(B)
·
1
-A
B
-A
+
(1
-
0
)
· s
0
·
A(B
-1)
B
-A
+ c
· E
1
ln
f (x
i
|
1
)
f (x
i
|
0
)
-1
· ln(A)·
A
·(B-1)
B
-A
+ ln(B)
·
B(1
-A)
B
-A
(8.195)
Minimierung des gesch¨
atzten Risikos r( (.), ][(.)) bez¨
uglich A und B ergibt Approxi-
mationen f¨
ur die "optimalen" Grenzen des SPRT A
und B
. Eine analytische Herlei-
tung der Approximationen von A
und B
ist sehr kompliziert (durch Differenzieren
und Null-Setzen), man wird sich daher, da es sich ohnehin nur um eine Approximation
handelt, mit einer numerischen Approximation f¨
ur A
und B
zufrieden geben.
160
Der SPRT (
(.), ]
[(.)) mit den Grenzen A
und B
ist optimal in einem sehr engen
Sinn. Bezeichnet man die Fehlerwahrscheinlichkeiten des SPRT mit
1
und
2
und die
erwarteten Stichprobenumf¨
ange mit E
0
(
T
) und E
1
(
T
), so gilt f¨
ur ein beliebiges
anderes sequentielles Testverfahren ( (.), ][(.)) mit Fehlerwahrscheinlichkeiten
1
und
158
Vgl. Wald / Wolfowitz (1948), S. 327, Berger (1985), S. 485, Ferguson (1967), S. 365.
159
Vgl. Berger (1985), S. 498 f.
160
Vgl. Berger (1985), S. 485 und S. 499.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
369
2
und erwarteten Stichprobenumf¨
angen E
1
(
T ) und E
1
(
T ):
161
Falls
1
1
und
2
2
so ist E
0
(
T
)
E
0
(
T ) und E
1
(
T
)
E
1
(
T )
Umgekehrt gilt auch:
Falls E
0
(
T ) E
0
(
T ) und E
1
(
T ) E
1
(
T )
so ist
1
1
und
2
2
8.6.3
Der Fuzzy-SPRT als klassisches sequentielles
Testverfahren f¨
ur unscharfe Daten
Der SPRT kann sowohl als klassisches als auch als Bayes'sches Verfahren auf unschar-
fe Daten angewandt werden. Ausgegangen wird von einem parametrischen stochasti-
schen Modell, X
P
, X :
U, mit unbekanntem Parameter und einer Folge
~
X
1
, ~
X
2
, ..., ~
X
i
:
F(U) f¨ur i IN, von unabh¨angigen und identisch verteilten
verteilungstreuen Fuzzy-Perzeptionen von X. Es sollen die beiden einfachen Hypothe-
sen
H
0
: =
0
und
H
1
: =
1
gegeneinander mittels des folgenden sequentiellen
Fuzzy-Tests unscharf sequentiell getestet werden. Sind f¨
ur n
IN die unscharfen Daten
( ~
A
1
, ..., ~
A
n
)
(F(U))
n
die Fuzzy-Realisationen der Fuzzy-Zufallsvariablen ( ~
X
1
, ..., ~
X
n
),
und ist
f (.
|
j
) f¨
ur j
{0, 1} die Fuzzy-Extension der Dichtefunktion f(.|
j
) f¨
ur
~
A
F(U) unter Zugrundelegung der Hypothese H
j
, dann ist der Fuzzy-Likelihood-
Quotient (Fuzzy-Probability-Ratio) gegeben durch:
L ( ~
A
1
, ..., ~
A
n
|
1
,
0
)
=
L,
L
n
( ~
A
1
,..., ~
A
n
|
1
,
0
)
(L) L IR
+
,
L
n
( ~
A
1
,..., ~
A
n
|
1
,
0
)
(L)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
Ln(x1,...,xn|1,0)=h
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
n
i=1
f (xi|1)
f (xi|0)
=h
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
ur n
1
1
ur n = 0
(8.196)
ur zwei Zahlen A, B
IR mit 0 < A < 1 < B < erh¨alt man verschiedene M¨oglich-
keiten f¨
ur eine Anwendung des SPRT auf die Folge von unscharfen Daten ( ~
A
1
, ~
A
2
, ...).
Betrachtet man den Fuzzy-SPRT als Folge von Fuzzy-Extensionen der Funktionen
n
(.) gem¨
aß (8.189), so kann der Fuzzy-SPRT als Erweiterung des Fuzzy-Tests (5.46)-
(5.49) aus Abschnitt 5.5.1 aufgefasst werden. F¨
ur alle n
IN erh¨alt man eine Abbildung
n
:
(
F)
n
F({0, 1, ?})
( ~
A
1
, ..., ~
A
)
n
( ~
A
1
, ..., ~
A
n
),
(8.197)
161
Die Optimalit¨
at in diesem Sinn wird bei Wald / Wolfowitz (1948), S. 338 f., Berger (1985), S. 499
f., und Ferguson (1967), S. 365 ff., Ghosh (197), S. 93 ff., bewiesen.

370
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
die gegeben ist durch
n
( ~
A
1
, ..., ~
A
n
)
:=
n
(A
1
, ..., A
n
)
=
0
wenn
(x
1
, ..., x
n
)
(A
1
, ..., A
n
) :
n
(x
1
, ..., x
n
) = 0,
d.h. L
n
(x
1
, ..., x
n
|
1
,
0
)
A
1
wenn
(x
1
, ..., x
n
)
(A
1
, ..., A
n
:
n
(x
1
, ..., x
n
) = 1,
d.h. L
n
(x
1
, ..., x
n
|
1
,
0
)
B
?
wenn
(x
1
, ..., x
n
)
(A
1
, ..., A
n
) :
n
(x
1
, ..., x
n
) =?,
d.h. L
n
(x
1
, ..., x
n
|
1
,
0
)
(A, B)
{0, ?} wenn (x
1
, ..., x
n
)
(A
1
, ..., A
n
) :
(
n
(x
1
, ..., x
n
) = 0)
(
n
(x
1
, ..., x
n
) =?)
d.h.
(x
1
, ..., x
n
)
(A
1
, ..., A
n
) : L
n
(x
1
, ..., x
n
|
1
,
0
) < B
und
(x
1
, ..., x
n
), (x
1
, ..., x
n
)
(A
1
, ..., A
n
) :
L
n
(x
1
, ..., x
n
|
1
,
0
)
A < L
n
(x
1
, ..., x
n
|
1
,
0
)
{1, ?} wenn (x
1
, ..., x
n
)
(A
1
, ..., A
n
) :
(
n
(x
1
, ..., x
n
) = 1)
(
n
(x
1
, ..., x
n
) =?)
d.h.
(x
1
, ..., x
n
)
(A
1
, ..., A
n
) : L
n
(x
1
, ..., x
n
|
1
,
0
) > A
und
(x
1
, ..., x
n
), (x
1
, ..., x
n
)
(A
1
, ..., A
n
) :
L
n
(x
1
, ..., x
n
|
1
,
0
)
B > L
n
(x
1
, ..., x
n
|
1
,
0
)
{0, 1} wenn (x
1
, ..., x
n
)
(A
1
, ..., A
n
) :
(
n
(x
1
, ..., x
n
) = 0)
(
n
(x
1
, ..., x
n
) = 1)
d.h. wenn
(x
1
, ..., x
n
)
(A
1
, ..., A
n
)
L
n
(x
1
, ..., x
n
|
1
,
0
)
(A, B)
und
(x
1
, ..., x
n
), (x
1
, ..., x
n
)
(A
1
, ..., A
n
) :
L
n
(x
1
, ..., x
n
|
1
,
0
)
A < B L
n
(x
1
, ..., x
n
|
1
,
0
)
{0, 1, ?} sonst
(8.198)
und
n
( ~
A
1
,..., ~
A
n
)
(e) = sup
[0, 1]
n
(A
1
, ..., A
n
)
e
(8.199)
ur e
{0, 1}. Der Fall {0, 1} kann nur f¨ur nicht-konvexes L
n
(A
1
, ..., A
n
) eintreten.
Die Situation auf der Stufe n (
IN) ist graphisch in der Abbildung 8.16 veran-
schaulicht.
Abbildung 8.16: Situation beim Fuzzy-SPRT nach n Beobachtungen

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
371
Außerdem ist
n
( ~
A
1
,..., ~
A
n
)
(e) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
Ln(x1,...,xn|1,0)A
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
ur
n
(x
1
, ..., x
n
) = 0
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
Ln(x1,...,xn|1,0)B
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
ur
n
(x
1
, ..., x
n
) = 1
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
A<Ln(x1,...,xn|1,0)<B
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
ur
n
(x
1
, ..., x
n
) = ?,
und daher ist eine Darstellung der Testsituation auf der Stufe n
IN mit Hilfe einer
dreistelligen unscharfen Ordnungsrelation m¨
oglich. Da definitionsgem¨
aß A > B gilt,
kann eine dreistellige unscharfe Relation
~
R
~
>
~
<
L
n
( ~
A
1
, ..., ~
A
n
), A, B
:=
L
n
( ~
A
1
, ..., ~
A
n
), A, B ,
~
R
~
L
n
( ~
A
1
, ..., ~
A
n
), A, B ,
~
R
~
L
n
( ~
A
1
, ..., ~
A
n
), A, B ,
~
R
~
> ~
<
L
n
( ~
A
1
, ..., ~
A
n
), A, B
(8.200)
aufgestellt werden durch
~
R
~
L
n
( ~
A
1
, ..., ~
A
n
), A, B :=
~
R
~
L
n
( ~
A
1
, ..., ~
A
n
), A
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
Ln(x1,...,xn)A
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
~
R
~
L
n
( ~
A
1
, ..., ~
A
n
), A, B :=
~
R
~
L
n
( ~
A
1
, ..., ~
A
n
), B
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
Ln(x1,...,xn)B
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
~
R
~
> ~
<
L
n
( ~
A
1
, ..., ~
A
n
), A, B
:= sup
~
R
~
>
L
n
( ~
A
1
, ..., ~
A
n
), A ,
~
R
~
<
L
n
( ~
A
1
, ..., ~
A
n
), B
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
A<Ln(x1,...,xn)<B
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(8.201)
Aus der dreistelligen Fuzzy-Relation ~
R
~
>
~
<
L
n
( ~
A
1
, ..., ~
A
n
), A, B nach (8.200)-(8.201)
kann dann die unscharfe Testentscheidung
n
( ~
A
1
, ..., ~
A
n
) auf der Stufe n bestimmt
werden durch
n
( ~
A
1
,..., ~
A
n
)
(0) =
~
R
~
L
n
( ~
A
1
, ..., ~
A
n
), A, B
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
Ln(x1,...,xn)A
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
n
( ~
A
1
,..., ~
A
n
)
(1) =
~
R
~
L
n
( ~
A
1
, ..., ~
A
n
), A, B
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
Ln(x1,...,xn)B
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
n
( ~
A
1
,..., ~
A
n
)
(?) =
~
R
~
< ~
>
L
n
( ~
A
1
, ..., ~
A
n
), A, B
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
A<Ln(x1,...,xn)<B
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(8.202)

372
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Je nachdem, welche Methode zur Bestimmung der Stoppzeit angewandt wird, liefert
die Betrachtungsweise (8.197)-(8.199) die folgenden M¨
oglichkeiten:
(i) Abbruchregel bzw. Stoppzeit nach der (vereinfachten) Tr¨
agertangentialmethode:
T
= min n
IN max
n
( ~
A
1
,..., ~
A
n
)
(0),
n
( ~
A
1
,..., ~
A
n
)
(1) > 0
(8.203)
und
-
( ~
A
1
,..., ~
A
-
)
(e) =
-
( ~
A
1
,..., ~
A
-
)
(e)
(8.204)
ur e
{0, 1}
(ii) Abbruchregel bzw. Stoppzeit nach der (vereinfachten) Tr¨
agerinklusionsmethode:
T
= min n
IN
n
( ~
A
1
,..., ~
A
n
)
(?) = 0
(8.205)
und
-
( ~
A
1
,..., ~
A
-
)
(e) =
-
( ~
A
1
,..., ~
A
-
)
(e)
(8.206)
ur e
{0, 1}
(iii) Abbruchregel bzw. Stoppzeit nach der (vereinfachten) Kerntangentialmethode:
T
= min n
IN max
n
( ~
A
1
,..., ~
A
n
)
(0),
n
( ~
A
1
,..., ~
A
n
)
(1) = 1
(8.207)
und
-
( ~
A
1
,..., ~
A
-
)
(e) =
-
( ~
A
1
,..., ~
A
-
)
(e)
(8.208)
ur e
{0, 1}
(iv) Abbruchregel bzw. Stoppzeit nach der (vereinfachten) Kerninklusionsmethode:
T
= min n
IN
n
( ~
A
1
,..., ~
A
n
)
(?) < 1
(8.209)
und
-
( ~
A
1
,..., ~
A
-
)
(e) =
-
( ~
A
1
,..., ~
A
-
)
(e)
(8.210)
ur e
{0, 1}
(v) Abbruchregel bzw. Stoppzeit nach der (vereinfachten) -Niveautangentialmethode:
T
= min n
IN max
n
( ~
A
1
,..., ~
A
n
)
(0),
n
( ~
A
1
,..., ~
A
n
)
(1)
(8.211)
ur
(0, 1) und
-
( ~
A
1
,..., ~
A
-
)
(e) =
-
( ~
A
1
,..., ~
A
-
)
(e)
(8.212)
ur e
{0, 1}, (0, 1)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
373
(vi) Abbruchregel bzw. Stoppzeit nach der (vereinfachten) -Niveauinklusionsmethode:
T
= min n
IN
n
( ~
A
1
,..., ~
A
n
)
(?) <
(8.213)
ur
(0, 1) und
-
( ~
A
1
,..., ~
A
-
)
(e) =
-
( ~
A
1
,..., ~
A
-
)
(e)
(8.214)
ur e
{0, 1}, (0, 1)
(vii) Abbruchregel bzw. Stoppzeit nach der (vereinfachten) Kardinalit¨
atsmethode:
T (card)
= min n
IN
card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
n
(x
1
, ..., x
n
) = 0
+card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
n
(x
1
, ..., x
n
) = 1
card
(x
1
, ..., x
n
),
~
A
1
... ~
A
n
(x
1
, ..., x
n
)
n
(x
1
, ..., x
n
) =?
(8.215)
und
-
(card)
( ~
A
1
,..., ~
A
-
(card)
)
(e) =
-
(card)
( ~
A
1
,..., ~
A
-
(card)
)
(e)
(8.216)
ur e
{0, 1}
Bemerkung: Der wesentliche Unterschied des SPRT mit unscharfen Daten zu den
verk¨
urzten oder vorausschauenden Verfahren (mit gew¨
ohnlicher oder modifizierter Ver-
lustfunktion) mit unscharfen Daten besteht darin, dass verk¨
urzte und vorausschauende
Verfahren im Fall normalisierter unscharfer Daten (d.h. mit max
x
~
A
i
(x) = 1
i) un-
abh¨
angig von der gew¨
ahlten Stoppzeit immer zu normierten Testentscheidungen f¨
uhren,
d.h. max
e
{0,1}
n
( ~
A
1
,..., ~
A
n
)
(e) = 1
n IN.
Beim unscharfen SPRT erh¨
alt man dagegen bei der Wahl einer Stoppzeit (.), die
fr¨
uher als die Stoppzeit nach der Kerntangential-Methode (.) zum Abbruch f¨
uhrt
(also wenn ( ~
A
1
, ~
A
2
, ...) < ( ~
A
1
, ~
A
2
, ...) gilt), subnormale Testentscheidungen, d.h.
max
e
{0,1}
-
( ~
A
1
,..., ~
A
-
)
(e) < 1 f¨
ur
T
<
T
. Dieser Unterschied beruht darauf, dass beim
SPRT ein Indifferenzbereich vorliegt, in welchem keine Aussage gemacht wird, wel-
che Entscheidung im Fall eines Abbruchs vor der optimalen Stoppzeit zu w¨
ahlen ist.
Verk¨
urzte und vorausschauende Verfahren geben dagegen auf jeder Stufe Auskunft ¨
uber
die optimale Testentscheidung, unabh¨
angig davon, ob ein Abbruch auf der entsprechen-
den Beobachtungsstufe optimal ist oder nicht. Bei verk¨
urzten und vorausschauenden
Verfahren besteht also insbesondere kein Indifferenzbereich, man erh¨
alt auf jeder Stufe
lediglich zus¨
atzlich zur optimalen Testentscheidung Auskunft dar¨
uber, ob es "g¨
unsti-
ger" ist, diese Entscheidung bereits als endg¨
ultig zu akzeptieren oder noch weitere
Beobachtungen zu ber¨
ucksichtigen.
Ein alternativer Ansatz f¨
ur einen SPRT aufgrund von unscharfen Daten wurde von
Torabi und Behboodian
162
konstruiert.
163
In ihrem Ansatz wird nur eine begrenzte
162
Vgl. Torabi / Behboodian (2005), S. 25 ff.
163
Dieser Ansatz baut auf den Ideen von Taheri / Behboodian (1999), S. 3 ff., Taheri / Behbodian
(2001), S. 39ff., und Taheri / Behboodian (2002), S. 527 ff., auf.

374
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Anzahl von unscharfen Realisationen einer Fuzzy-Zufallsvariablen ~
X im Stichproben-
raum
F(U) als m¨oglich angenommen, n¨amlich eine unscharfe Partition, also eine Menge
N
F(U) von unscharfen Teilmengen der Grundmenge U, f¨ur welche die Orthogo-
nalit¨
atseigenschaft
~
A
N
~
A
(x) = 1
x U erf¨ullt ist.
164
ur die Elemente ~
A
N
, die auch als unscharfe Ereignisse bezeichnet werden,
wird die von Zadeh vorgeschlagene am Ende von Abschnitt 4.2.1 kurz beschriebene
exakte Wahrscheinlichkeit einer unscharfen Menge (4.57) verwendet: Ist die gew¨
ohn-
liche Zufallsvariable X ein Original von ~
X, durch welche auf U eine Wahrscheinlich-
keitsfunktion p
X
(.) (im diskreten Fall) bzw. Dichtefunktion f
X
(.) (im stetigen Fall)
gegeben ist, so ist die Wahrscheinlichkeit P
~
X
( ~
A) des unscharfen Ereignisses ~
A gleich
P
~
X
( ~
A) =
x
U
~
A
(x)p
X
(x) im diskreten Fall bzw. P
~
X
( ~
A) =
U
~
A
(x)f
X
(x)dx im steti-
gen Fall.
Liegt etwa eine stetige parametrische Wahrscheinlichkeitsverteilung mit Dichtefunk-
tion f
X
(.) = f (.
|) zugrunde, so ist die Wahrscheinlichkeit von ~A N definiert durch
P ( ~
A
|) =
U
~
A
(x)f (x
|)dx.
ur die unscharfen Realisationen ( ~
A
1
, ..., ~
A
n
) einer unscharfen Stichprobe ( ~
X
1
, ..., ~
X
n
)
von ~
X ist die gemeinsame Wahrscheinlichkeit, wie am Ende von Abschnitt 4.3.4 de-
finiert durch P
~
X
1
,..., ~
X
n
( ~
A
1
, ..., ~
A
n
) =
x
U
n
i=1
~
A
i
(x)p
X
(x) im diskreten Fall bzw.
P
~
X
1
,..., ~
X
n
( ~
A
1
, ..., ~
A
n
) =
U
n
i=1
~
A
i
(x)f
X
(x)dx im stetigen Fall.
Bei Torabi und Behboodian wird zu¨
atzlich zur Unsch¨
arfe bei den Messungen auch
noch von unscharfen Hypothesen im Sinn von (5.42) ausgegangen, insbesondere wird
ein Paar aus zwei einfachen unscharfen Hypothesen konstruiert, welches mittels SPRT
getestet wird:
165
H
0
: ~
= ~
0
,
H
1
: ~
= ~
1
mit Zugeh¨
origkeitsfunktionen
~
0
(.) und
~
1
(.) auf dem Parameterraum . F¨
ur jede
dieser unscharfen Hypothesen wird bei Vorliegen f¨
ur unscharfes ~
A
N eine so genannte
gewichtete Wahrscheinlichkeit
P
j
( ~
A) :=
~
j
()
~
j
()
P ( ~
A
|)d
ur j
{0, 1} berechnet, was einer Defuzzifikation der Fuzzy-Menge von Wahrschein-
lichkeiten
{(P (~A|),
~
j
())
| )} nach der Schwerpunktmethode entspricht.
Sind nun die Grenzen A und B mit A < B gegeben, so wird mit Hilfe der scharfen
Gr¨
oße
L
#
n
( ~
A
1
, ..., ~
A
n
) :=
P
1
( ~
A
1
, ..., ~
A
n
)
P
0
( ~
A
1
, ..., ~
A
n
)
=
n
i=1
P
1
( ~
A
i
)
n
i=1
P
0
( ~
A
i
)
=
n
i=1
P
1
( ~
A
i
)
P
0
( ~
A
i
)
ein exakter SPRT f¨
ur unscharfe Hypothesen auf Basis unscharfer Daten definiert.
166
Das Verfahren wird fortgesetzt, wenn A < L
#
n
( ~
A
1
, ..., ~
A
n
) < B ist, es wird abgebrochen
und die
H
0
angenommen, wenn L
#
n
( ~
A
1
, ..., ~
A
n
)
A ist, und es wird abgebrochen und
die
H
0
verworfen und die
H
1
angenommen, wenn L
#
n
( ~
A
1
, ..., ~
A
n
)
B ist.
167
164
Vgl. Torabi / Behboodian (2005), S. 27.
165
Vgl. Torabi / Behboodian (2005), S. 29 f.
166
Vgl. Torabi / Behboodian (2005), S. 30 ff.
167
Eigentlich wird bei Torabi / Behboodian (2005), S. 30 ff., der SPRT dahingehend "umge-

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
375
8.6.4
Der Fuzzy-SPRT als Bayes'sches sequentielles
Testverfahren f¨
ur unscharfe Daten
Wiederum ist ~
X
1
, ~
X
2
, ..., ~
X
i
:
F(U) f¨ur i IN eine Folge von unabh¨angigen und
identisch verteilten verteilungstreuen Fuzzy-Perzeptionen von X. Es sollen die beiden
einfachen Hypothesen
H
0
: =
0
und
H
1
: =
1
gegeneinander mittels des folgenden
sequentiellen Fuzzy-Tests unscharf sequentiell getestet werden. Sind die unscharfen Da-
ten ( ~
A
1
, ..., ~
A
n
)
(F(U))
n
, n
IN die Fuzzy-Realisationen der Fuzzy-Zufallsvariablen
( ~
X
1
, ..., ~
X
n
), und ist f¨
ur j
{0, 1} wiederum f (.|
j
) die Fuzzy-Extension der Dichte-
funktion f (.
|
j
) f¨
ur ~
A
F(U) unter Zugrundelegung der Hypothese H
j
, dann ist der
Fuzzy-Likelihood-Quotient (Fuzzy-Probability-Ratio) gem¨
aß (8.196) gegeben durch:
L ( ~
A
1
, ..., ~
A
n
|
1
,
0
)
=
L,
L
n
( ~
A
1
,..., ~
A
n
|
1
,
0
)
(L) L IR
+
,
L
n
( ~
A
1
,..., ~
A
n
|
1
,
0
)
(L)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
Ln(x1,...,xn|1,0)=h
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
n
i=1
f (xi|1)
f (xi|0)
=h
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
ur n
1
1
ur n = 0
Die Interpretation des SPRT als sequentielles Bayes'sches Entscheidungsverfahren, f¨
ur
welches nach dem Abbruch des Verfahrens gem¨
aß der Bayes'schen Stoppzeit
(.) die
Bayes'sche Entscheidung
(.) gew¨
ahlt wird, bietet eine Anzahl von M¨
oglichkeiten f¨
ur
eine Anwendung des SPRT auf die Folge von unscharfen Daten ( ~
A
1
, ~
A
2
, ...). Es werden
A, B
IR zwei Zahlen mit 0 < A < 1 < B < gew¨ahlt. Wiederum lassen sich die
in fr¨
uheren Abschnitten verwendeten M¨
oglichkeiten zur Bestimmung einer Stoppzeit
anwenden:
(i) Abbruchregel bzw. Stoppzeit nach der vereinfachten Tr¨
agertangentialmethode:
sn
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur supp
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(A, B)
1 f¨
ur supp L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A] =
supp L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, ) =
(8.217)
T s
= min n
IN
0
supp L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A] =
supp L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, ) =
(8.218)
(ii) Abbruchregel bzw. Stoppzeit nach der vereinfachten Tr¨
agerinklusionsmethode:
sn
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur supp
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(A, B) =
1 f¨
ur supp L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A]
supp L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, )
(8.219)
dreht", dass eigentlich L
#/
n
( ~
A
1
, ..., ~
A
n
) =
P
0
( ~
A
1
,..., ~
A
n
)
P
1
( ~
A
1
,..., ~
A
n
)
definiert wird.
H
0
wird dann verworfen, wenn
L
#/
n
( ~
A
1
, ..., ~
A
n
)
A, und dann angenommen, wenn L
#/
n
( ~
A
1
, ..., ~
A
n
)
B. Hier soll aber zwecks Kon-
sistenz der SPRT in gewohnter Weise auf Basis der von Torabi / Behboodian (2005) konstruierten
Gr¨
oßen vorgestellt werden.

376
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
T s
= min n
IN
0
supp
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A]
supp L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, )
(8.220)
(iii) Abbruchregel bzw. Stoppzeit nach der vereinfachten Kerntangentialmethode:
s
n
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur ker
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(A, B)
1 f¨
ur ker L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A] =
ker L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, ) =
(8.221)
T s
= min n
IN
0
ker
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A] =
ker L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, ) =
(8.222)
(iv) Abbruchregel bzw. Stoppzeit nach der vereinfachten Kerninklusionsmethode:
sn
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur ker
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(A, B) =
1 f¨
ur ker
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A]
ker L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, )
(8.223)
T s
= min n
IN
0
ker
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A]
ker L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, )
(8.224)
(v) Abbruchregel bzw. Stoppzeit nach der vereinfachten -Niveautangentialmethode:
sn
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(A, B)
1 f¨
ur
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A] =
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, ) =
(8.225)
T s
= min n
IN
0
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A] =
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, ) =
(8.226)
(vi) Abbruchregel bzw. Stoppzeit nach der vereinfachten -Niveauinklusionsmethode:
sn
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(A, B) =
1 f¨
ur
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A]
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, )
(8.227)
T s
= min n
IN
0
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A]
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, )
(8.228)
(vii) Abbruchregel bzw. Stoppzeit nach der vereinfachten Kardinalit¨
atsmethode:
s(card)n
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur card
L
n
(~
A
1
, ..., ~
A
n
|
1
,
0
)
(A, B)
> card
L
n
(~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A]
+card
L
n
(~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, )
1 f¨
ur card L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(A, B)
card L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A]
+card L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, )
(8.229)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
377
T s(card)
= min n
IN
0
card L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(A, B)
card L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
(-, A]
+card L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, )
(8.230)
Die unscharfe Bayes'sche Testentscheidung wird auf der Stufe des Abbruchs aufgrund
der gew¨
ahlten Abbruchregel bzw. Stoppzeit (8.217)-(8.230) getroffen. Es ist
T
( ~
A
1
, ..., ~
A
T
)
F({0, 1})
mit
-
( ~
A
1
,..., ~
A
-
)
(e) =
sup
(x1,...,x- )supp(
~
A1)×...×supp( ~
A- ):
- (x1,...,x-)=e
min
~
A
1
(x
1
), ...,
~
A
-
(x
T
)
=
sup
(x1,...,x- )supp(
~
A1)×...×supp( ~
A- ):
L- (x1,...,x- |1,0)A
min
~
A
1
(x
1
), ...,
~
A
-
(x
T
)
ur e = 0
sup
(x1,...,x- )supp(
~
A1)×...×supp( ~
A- ):
L- (x1,...,x- |1,0)B
min
~
A
1
(x
1
), ...,
~
A
-
(x
T
)
ur e = 1.
(8.231)
Wird der Fuzzy-SPRT als Bayes'sches Testverfahren f¨
ur unscharfe Daten interpre-
tiert, so gen¨
ugt es, auf der Stufe
T
eine dreistellige Relation ~
R
~
~
L
T
( ~
A
1
, ..., ~
A
T
), A, B
auf Basis der urspr¨
unglichen Zadeh'schen Ordnungsrelationen ~
R
~
L
T
( ~
A
1
, ..., ~
A
T
), A
und ~
R
~
L
T
( ~
A
1
, ..., ~
A
T
), B gem¨
aß (3.82) mit
~
R
~
L
T
( ~
A
1
, ..., ~
A
T
), A, B
=
~
R
~
L
T
( ~
A
1
, ..., ~
A
T
), A
=
sup
(x1,...,x- )supp(
~
A1)×...×supp( ~
A- ):
L- (x1,...,x- )A
min
~
A
1
(x
1
), ...,
~
A
-
(x
T
)
~
R
~
L
T
( ~
A
1
, ..., ~
A
T
), A, B
=
~
R
~
L
T
( ~
A
1
, ..., ~
A
T
), G
=
sup
(x1,...,x- )supp(
~
A1)×...×supp( ~
A- ):
L- (x1,...,x- )B
min
~
A
1
(x
1
), ...,
~
A
-
(x
T
)
zu betrachten. Es ist
-
( ~
A
1
,..., ~
A
-
)
(0) =
~
R
~
L
T
( ~
A
1
, ..., ~
A
T
), A
=
sup
(x1,...,x- )supp(
~
A1)×...×supp( ~
A- ):
L- (x1,...,x- )A
min
~
A
1
(x
1
), ...,
~
A
-
(x
T
)
-
( ~
A
1
,..., ~
A
-
)
(1) =
~
R
~
L
T
( ~
A
1
, ..., ~
A
T
), A
=
sup
(x1,...,x- )supp(
~
A1)×...×supp( ~
A- ):
L- (x1,...,x- )B
min
~
A
1
(x
1
), ...,
~
A
-
(x
T
) .
(8.232)
Die Darstellungen (8.217)-(8.231) stimmen mit den Darstellungen (8.203)-(8.216)
¨
uberein. So ist etwa

378
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
max
n
( ~
A
1
,..., ~
A
n
)
(0),
n
( ~
A
1
,..., ~
A
n
)
(1) > 0
0 supp(
n
( ~
A
1
, ..., ~
A
n
)
1 supp(
n
( ~
A
1
, ..., ~
A
n
)
0
n
(supp( ~
A
1
), ..., supp( ~
A
n
))
1
n
(supp( ~
A
1
), ..., supp( ~
A
n
))
(x
1
, ..., x
n
)
supp(~A
1
), ..., supp( ~
A
n
) :
n
(x
1
, ..., x
n
) = 0
n
(x
1
, ..., x
n
) = 1
(x
1
, ..., x
n
)
supp(~A
1
), ..., supp( ~
A
n
) :
(L
n
(x
1
, ..., x
n
|
1
,
0
)
A) (L
n
(x
1
, ..., x
n
|
1
,
0
)
B)
L supp L
n
( ~
A
1
, ..., ~
A
n
) : (L A) (L B)
supp L
n
( ~
A
1
, ..., ~
A
n
)
(-, A] = supp L
n
( ~
A
1
, ..., ~
A
n
)
[B, ) =
und
n
( ~
A
1
,..., ~
A
n
)
(e) = sup
[0, 1]
n
(A
1
, ..., A
n
)
e
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
n
(x1,...,xn)=e
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
Ln(x1,...,xn|1,0)A
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
ur e = 0
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
Ln(x1,...,xn|1,0)B
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
ur e = 1.
Begleitendes Beispiel: F¨
ur das stochastische Modell X
Po
, X :
{0, 1}
soll die einfache Nullhypothese
H
0
: =
0
gegen die einfache Alternativhypothese
H
1
: =
1
sequentiell getestet werden, wobei auf =
{
0
,
1
} die A-priori-Verteilung
gegeben ist durch (
0
) =
0
und (
1
) =
1
= 1
-
0
. Der Test soll durchgef¨
uhrt
werden, so dass das Risiko, das auf der Gesamtverlustfunktion
L
l(, d, n) =
nc
ur =
d
, d
{0, 1}
s
0
+ nc f¨
ur =
1
und d = 0
s
1
+ nc f¨
ur =
0
und d = 1
beruht, minimiert wird. F¨
ur den Test steht eine Folge von unabh¨
angigen und identisch
verteilten verteilungstreuen Fuzzy-Perzeptionen ~
X
1
, ~
X
2
, ... von X zur Verf¨
ugung.
Um die Grenzen A und B f¨
ur den Bayes'schen SPRT festzulegen wird das Bayes'sche
Risiko (8.221) mit Hilfe der Wald'schen Approximationen (8.190)-(8.193) formuliert.
Da diese Analyse vor Beginn der Beobachtung erfolgt, liegt auf dieser Stufe noch
keine Unsch¨
arfe vor, die Approximationsformel kann also wie im Fall scharfer Da-
ten zur Anwendung kommen. Zun¨
achst werden die Gr¨
oßen E
0
(ln(L
1
(X
|
1
,
0
))) =
E
0
ln
f (X
|
1
)
f (X
|
0
)
und E
1
(ln(L
1
(X
|
1
,
0
))) = E
1
ln
f (X
|
1
)
f (X
|
0
)
berechnet. Es ist
f (x
|) =
x
·e
-
x!
ur x
IN
0
und
IR
+
. Somit ist
L
1
(x
|
1
0
) =
x
1
·e
-1
x!
x
0
·e
-0
x!
=
x
1
· e
-
1
x
0
· e
-
0
=
1
0
x
· e
0
-
1
(B.8.53)
und
ln(L
1
(x
|
1
,
0
)) = ln
1
0
x
· e
0
-
1
= x
· (ln(
1
)
- ln(
0
)) +
0
-
1
.
(B.8.54)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
379
Somit erh¨
alt man die beiden Erwartungswerte
E
0
(ln(L
1
(X
|
1
,
0
))) =
x=0
(x
· (ln(
1
)
- ln(
0
)) +
0
-
1
)
·
x
0
·e
-0
x!
= (ln(
1
)
- ln(
0
))
·
x=0
x
·
x
0
·e
-0
x!
=
0
+(
0
-
1
)
·
x=0
x
0
·e
-0
x!
=1
=
0
· (1 - ln(
0
) + ln(
1
))
-
1
(B.8.55)
und
E
1
(ln(L
1
(X
|
1
,
0
))) =
x=0
(x
· (ln(
1
)
- ln(
0
)) +
0
-
1
)
·
x
1
·e
-1
x!
= (ln(
1
)
- ln(
0
))
·
x=0
x
·
x
1
·e
-1
x!
=
1
+(
0
-
1
)
·
x=0
x
1
·e
-1
x!
=1
=
0
-
1
· (1 - ln(
0
) + ln(
1
)),
(B.8.56)
und f¨
ur das Bayes-Risiko erh¨
alt man die Approximation
r
(
0
,1
-
0
)
( (.), ][(.))
0
· s
1
·
1
-A
B
-A
+
c
0
·(1-ln(
0
)+ln(
1
))
-
1
· ln(A) ·
B
-1
B
-A
+ ln(B)
·
1
-A
B
-A
+(1
-
0
)
· s
0
·
A(B
-1)
B
-A
+
c
0
-
1
·(1-ln(
0
)+ln(
1
))
· ln(A) ·
A
·(B-1)
B
-A
+ ln(B)
·
B(1
-A)
B
-A
,
(B.8.57)
aus der A und B durch Minimierung bestimmt werden.
Nach Erhebung von n Beobachtungen (x
1
, ..., x
n
) lautet der Likelihood-Quotient:
L
n
(x
1
, ..., x
n
|
1
,
0
) =
n
i=1
1
0
x
i
· e
0
-
1
=
1
0
n
i=1
x
i
· e
n
·(
0
-
1
)
Bei Vorliegen unscharfer Beobachtungen ( ~
A
1
, ..., ~
A
n
) lautet der Fuzzy-Likelihood-Quotient:
L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
) =
1
0
( ~
A
1
... ~
A
n
)
· e
n
·(
0
-
1
)
(B.8.58)
mit
L
n
( ~
A
1
,..., ~
A
n
|
1
,
0
)
(L) =
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
Ln(x1,...,xn|1,0)=h
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
)
=
sup
(x1,...,xn)supp( ~
A1)×...×supp( ~
An):
(
1
0
)
n
i=1
xi
·en·(0-1)=h
min
~
A
1
(x
1
), ...,
~
A
n
(x
n
) .
(B.8.59)
Daraus ergibt sich f¨
ur die Abbruchregeln bzw. Stoppzeiten:
(i) Abbruchregel bzw. Stoppzeit nach der vereinfachten Tr¨
agertangentialmethode:
sn
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur supp
1
0
( ~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(A, B)
1 f¨
ur supp
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A]=
supp
1
0
( ~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
[B, )=
(B.8.60)

380
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
T s
= min n
IN
0
supp
1
0
( ~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A] =
supp
1
0
( ~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
[B, ) =
(B.8.61)
(ii) Abbruchregel bzw. Stoppzeit nach der vereinfachten Tr¨
agerinklusionsmethode:
sn
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur supp
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(A, B)=
1 f¨
ur supp
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A]
supp
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
[B, )
(B.8.62)
T s
= min n
IN
0
supp
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A]
supp L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, )
(B.8.63)
(iii) Abbruchregel bzw. Stoppzeit nach der vereinfachten Kerntangentialmethode:
s
n
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur ker
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(A, B)
1 f¨
ur ker
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A]=
ker
1
0
( ~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
[B, )=
(B.8.64)
T s
= min n
IN
0
ker
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A] =
ker
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
[B, ) =
(B.8.65)
(iv) Abbruchregel bzw. Stoppzeit nach der vereinfachten Kerninklusionsmethode:
sn
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur ker
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(A, B) =
1 f¨
ur ker
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A]
ker
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
[B, )
(B.8.66)
T s
= min n
IN
0
ker
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A]
ker L
n
( ~
A
1
, ..., ~
A
n
|
1
,
0
)
[B, )
(B.8.67)
(v) Abbruchregel bzw. Stoppzeit nach der vereinfachten -Niveautangentialmethode:
sn
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(A, B)
1 f¨
ur
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A]=
1
0
( ~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
[B, )=
(B.8.68)

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
381
T s
= min n
IN
0
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A] =
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
[B, ) =
(B.8.69)
(vi) Abbruchregel bzw. Stoppzeit nach der vereinfachten -Niveauinklusionsmethode:
sn
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(A, B) =
1 f¨
ur
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A]
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
[B, )
(B.8.70)
T s
= min n
IN
0
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A]
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
[B, )
(B.8.71)
(vii) Abbruchregel bzw. Stoppzeit nach der vereinfachten Kardinalit¨
atsmethode:
s(card)n
( ~
A
1
, ..., ~
A
n
) =
0 f¨
ur card
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(A, B)
> card
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A]
+card
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
[B, )
1 f¨
ur card
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(A, B)
card
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A]
+card
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
[B, )
(B.8.72)
T s(card)
= min n
IN
0
card
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(A, B)
card
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
(-, A]
+card
1
0
~
A
1
... ~
A
n
)
·e
n(
0
-
1
)
[B, )
(B.8.73)
Auf der Stufe des Abbruchs aufgrund der gew¨
ahlten Abbruchregel bzw. Stoppzeit
(B.8.60)-(B.8.73) wird die Fuzzy-Bayes-Testentscheidung getroffen. Es ist
T
( ~
A
1
, ..., ~
A
T
)
F({0, 1})

382
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
mit
-
( ~
A
1
,..., ~
A
-
)
(e) =
sup
(x1,...,x- )supp(
~
A1)×...×supp( ~
A- ):
- (x1,...,x-)=e
min
~
A
1
(x
1
), ...,
~
A
-
(x
T
)
=
sup
(x1,...,x- )supp(
~
A1)×...×supp( ~
A- ):
(
1
0
)
-
i=1
xi
·e
-·(
0-1)
A
min
~
A
1
(x
1
), ...,
~
A
-
(x
T
)
ur e = 0
sup
(x1,...,x- )supp(
~
A1)×...×supp( ~
A- ):
(
1
0
)
-
i=1
xi
·e
-·(
0-1)
B
min
~
A
1
(x
1
), ...,
~
A
-
(x
T
)
ur e = 1.
(B.8.74)
Begleitendes numerisches Beispiel: F¨
ur die Poisson-verteilte Zufallsvariable X
Po
, welche die Anzahl der Flutwellen kritischer H¨
ohe im Jahr beschreibt, wird mit
Hilfe eines SPRT die einfache Nullhypothese
H
0
: =
0
= 15 gegen die einfache
Alternativhypothese
H
1
: =
1
= 9 sequentiell getestet. Die A-priori-Verteilung auf
=
{15, 9} ist dabei gegeben durch (
0
) = (15) =
0
= 0.4 und (
1
) = (9) =
1
= 1
-
0
= 0.6. Das Risiko aufgrund der Gesamtverlustfunktion
L
l(, d, n) =
n
ur =
d
, d
{0, 1}
3 + n f¨
ur =
1
und d = 0
2 + n f¨
ur =
0
und d = 1
soll minimiert werden.
Man erh¨
alt dann die Erwartungswerte
E
0
(ln(L
1
(X
|
1
,
0
))) = E
10
(ln(L
1
(X
|9, 15)))
= 15
· (1 - ln(15) + ln(9)) - 9 = -1.6624
(N.8.23)
und
E
1
(ln(L
1
(X
|
1
,
0
))) = E
9
(ln(L
1
(X
|9, 15)))
= 15
- 9 · (1 - ln(15) + ln(9)) = 10.5974.
(N.8.24)
Die Approximation f¨
ur das Bayes-Risiko lautet dann
r
(0.4,0.6)
( (.), ][(.))
0.4 · 2 ·
1
-A
B
-A
+
1
15
·(1-ln(15)+ln(9))-9
· ln(A) ·
B
-1
B
-A
+ ln(B)
·
1
-A
B
-A
+0.6
· 3·
A(B
-1)
B
-A
+
1
15
-9·(1-ln(15)+ln(9))
· ln(A)·
A
·(B-1)
B
-A
+ln(B)
·
B(1
-A)
B
-A
=
1
B
-A
· [0.8 · (1 - A) - 0.2406 · (ln(A) · (B - 1) + ln(B) · (1 - A))
+1.8
· A(B - 1) + 0.0566 · (ln(A) · A · (B - 1) + ln(B) · B(1 - A))] .
(N.8.25)
Die Grenzen des "optimalen" SPRT werden durch A = 0.005 und B = 36.5 approximiert.
168
Es wird die Fuzzy-Zufallsvariable ~
X
1
beobachtet und man erh¨
alt ~
A
1
=
0.2
0.8
1
0.5
8
9
10
11
.
Es ist L
1
( ~
A
1
|9, 15) =
0.5
1
0.8
0.2
0.6
11
0.6
10
0.6
9
0.6
8
· e
6
168
Die Minimierung wird mit Hilfe des Programms Excel numerisch durchgef¨
uhrt.

KAPITEL 8 FUZZY-SEQUENTIALANALYSE
383
=
0.5
1
0.8
0.2
1.4636
2.4394
4.0656
6.7761
(0.005, 36.5).
Es wird ~
X
2
beobachtet, und es ist ~
A
2
=
0.7
1
0.6
11
12
13
, daraus erh¨
alt man
L
2
( ~
A
1
, ~
A
2
|9, 15) =
0.5
0.6
1
0.8
0.7
0.2
0.6
24
0.6
23
0.6
22
0.6
21
0.6
20
0.6
19
· e
12
=
0.5
0.6
1
0.8
0.7
0.2
0.7712
1.2853
2.1422
3.5703
5.9506
9.9176
(0.005, 36.5).
Es f¨
uhrt also noch keine der Abbruchregeln zum Stoppen des Verfahrens, und damit
kommt es auch noch zu keiner Entscheidung.
Beobachtung von ~
X
3
liefert ~
A
3
=
0.5
1
0.8
6
7
8
. Daher ist
L
3
( ~
A
1
, ~
A
2
, ~
A
3
|
1
,
0
) =
0.5
0.6
0.8
1
0.8
0.7
0.5
0.2
0.6
32
0.6
31
0.6
30
0.6
29
0.6
28
0.6
27
0.6
26
0.6
25
· e
18
=
0.5
0.6
0.8
1
0.8
0.7
0.5
0.2
5.2257
8.7094
14.5157
24.1928
40.3214
67.2023
112.0039
186.6732
.
Abbildung 8.17: Vorgangsweise beim Fuzzy-SPRT
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
.005
1.5 2.4 4.1 6.8
36.5
L
(
L)
L ( ~
A
1
|9,15)
A
B
Stufe 1
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
.005
.8 1.3 2.1 3.6 6
9.9
23
L
(
L)
L ( ~
A
1
, ~
A
2
|9,15)
A
B
Stufe 2
-
6
0.0
0.2
0.5
0.6
0.7
0.8
1.0
.0055.2 8.7 14.5 24.2
40.3
67.2
112
186.7
36.5
L
(
L)
L ( ~
A
1
, ~
A
2
, ~
A
3
|9,15)
A
B
Stufe 3
Es gilt nun B
supp( L
3
( ~
A
1
, ~
A
2
, ~
A
3
|
1
,
0
), bzw. 186.6732 > B, 112.0039 > B,
67.2023 > B, 40.3214 > B und B > 24.1928 > A, B > 14.5157 > A, B > 8.7094 > A,
B > 5.2257 > A. Es ist
card
0.8
0.7
0.5
0.2
40.3214
67.2023
112.0039
186.6732
= 0.8 + 0.7 + 0.5 + 0.2 = 2.2
< card
0.5
0.6
0.8
1
5.2257
8.7094
14.5157
24.1928
= 0.5 + 0.6 + 0.8 + 1 = 2.9.
Daher ist
s3
( ~
A
1
, ~
A
2
, ~
A
3
) =
(0,0.8]
s3
( ~
A
1
, ~
A
2
, ~
A
3
) = 1.
(N.8.26)

384
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Die ¨
ubrigen Abbruchregeln f¨
uhren noch nicht zum Abbruch des Verfahrens, und es
ussen die Flutwellen eine weitere Periode lang gemessen werden. In Stoppzeiten aus-
gedr¨
uckt heißt dies
T s
=
(0,0.8)T s
= 3,
(0.8,1]T s
,
T s
,
s
,
(0,1]
T s
,
T s
,
T s(card)
> 3.
(N.8.27)
Auf den Stufen 1 und 2 sind keine Testentscheidungen f¨
ur den Fuzzy-SPRT definiert.
Auf der Stufe 3 lautet die (subnormale) Fuzzy-Testentscheidung
3
= ( ~
A
1
, ~
A
2
, ~
A
3
) =
0.8
1
(N.8.28)
Als Folge von dreiwertigen Fuzzy-Testentscheidungen wird der Sachverhalt wie folgt
dargestellt:
1
( ~
A
1
) =?
2
( ~
A
1
, ~
A
2
) =?
3
( ~
A
1
, ~
A
2
, ~
A
3
) =
0.8
1
1
?
(N.8.29)

Kapitel 9
Zusammenfassung und Ausblick
9.1
Zusammenfassung
Mit der vorliegenden Arbeit ist es gelungen, Verfahren der klassischen Statistik, der
Bayes-Statistik und Sequentialanalyse auf die Einbeziehung von unscharfen Beobach-
tungen zu erweitern. Allen Verfahren wurde dabei ein einheitliches Konzept zur Be-
schreibung von Sachverhalten, in welchen Unsch¨
arfe und Zufall eine Rolle spielen, zu-
grunde gelegt. Unsch¨
arfe wurde mit Hilfe von Fuzzy-Mengen bzw. Fuzzy-Zahlen mo-
delliert. Es konnten dabei einige neue Resultate erzielt werden. Dar¨
uber hinaus wurde
versucht, einen umfassenden ¨
Uberblick ¨
uber die Literatur zur unscharfen Statistik zu
geben.
Zur Demonstration der unscharfen statistischen Methoden wurde ein Beispiel aus
der Naturkatastrophenforschung gew¨
ahlt. Die H¨
ohe einer Flutwelle ist klarerweise un-
scharf, und somit ist auch ihre Einstufung als kritisch, welche durch die Erreichung
eines kritischen Punktes beschrieben wird, unscharf. Werden die unscharfen Erreichun-
gen des kritischen Punktes in einer Beobachtungsperiode aufsummiert, so erh¨
alt man
die unscharfe Anzahl der Flutwellen unscharf kritischer H¨
ohe innerhalb der Periode,
welche eine Fuzzy-Menge ¨
uber der Menge der nichtnegativen ganzen Zahlen darstellt.
Da die Anzahl der Flutwellen kritischer H¨
ohe eine stochastische Gr¨
oße ist, ist die
unscharfe Anzahl der Flutwellen unscharf kritischer H¨
ohe eine Fuzzy-Zufallsvariable.
Werden mehrere Perioden nacheinander betrachtet, so erh¨
alt man einen unscharfen
stochastischen Prozess. Unter der Annahme, dass die Anzahl der Flutwellen kritischer
ohe in den einzelnen Perioden ¨
uber die Zeit hinweg konstant ist, liegt ein unscharfer
Poisson-Prozess vor. Es wurde erstmalig somit ein unscharfer Poisson-Prozess konstru-
iert, bei dem das Eintreten der einzelnen Ereignisse unscharf ist.
Der Sachverhalt wurde mit Hilfe von Fuzzy-Zufallsvariablen modelliert. In dem
gew¨
ahlten Konzept werden Fuzzy-Zufallsvariablen als unscharfe Mengen von Zufallsva-
riablen, genannt Origninale, verstanden. Die unscharfe Verteilung einer Fuzzy-Zufalls-
variablen kann als Fuzzy-Menge von Wahrscheinlichkeitsvereilungen aufgefasst werden,
welche durch eine unscharfe Schar von Wahrscheinlichkeits- bzw. Dichtefunktionen be-
schrieben wird. Im einfachen Fall, dass sich die einzelnen klassischen Zufallsvariablen,
welche die Originale der Fuzzy-Zufallsvariablen darstellen, nur durch ihren Vertei-
lungsparameter unterscheiden, l¨
asst sich die unscharfe Schar von Wahrscheinlichkeits-
funktionen durch ihren unscharfen Verteilungsparameter vollst¨
andig beschreiben. Je-
385

386
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
der Wahrscheinlichkeitsfunktion wird als Zugeh¨
origkeitsgrad zur unscharfen Schar der
Zugeh¨
origkeitsgrad des entsprechenden Parameters zum Fuzzy-Parameter zugeordnet.
Daraus k¨
onnen unscharfe Wahrscheinlichkeiten f¨
ur einzelne Ereignisse des Stichpro-
benraums abgeleitet werden. Im Beispiel der vorliegenden Arbeit wurde eine unscharfe
Poisson-Verteilung mit unscharfem Verteilungsparameter modelliert.
Die Verfahren der klassischen schließenden Statistik, d.h. Punktsch¨
atzverfahren,
Intervallsch¨
atzverfahren und Testverfahren, wurden auf eine unscharfe Stichprobe von
einigen Beobachtungsperioden angewendet. Im Wesentlichen wurden dabei etablierte
Modelle der Fuzzy-Statistik anhand einer unscharfen Poisson-Verteilung demonstriert.
Insbesondere gelang es jedoch auch, einen unscharfen p-Wert f¨
ur Tests auf Basis des
gew¨
ahlten Konzepts von Fuzzy-Zufallsvariablen zu konstruieren: f¨
ur jedes der Origi-
nale der Fuzzy-Zufallsvariablen wurde ein p-Wert bestimmt und diesem wurde der
Zugeh¨
origkeitsgrad des Originals zur Fuzzy-Zufallsvariablen zugeordnet.
Bei der Bayes'schen Analyse wurde die unscharfe Stichprobeninformation mit klas-
sischer oder unscharfer A-priori-Information, gegeben durch eine klassische oder un-
scharfe A-priori-Verteilung, zu einer unscharfen A-posteriori-Verteilung kombiniert. Es
gelang hier, f¨
ur den Fall des Vorliegens einer parametrischen Stichprobenverteilung und
der Existenz einer konjugierten parametrischen Verteilung ein besonders einfaches Kon-
zept zu konstruieren. Die unscharfe Stichprobeninformation wird in diesem Fall durch
eine unscharfe suffiziente Statistik repr¨
asentiert. Liegt eine parametrische A-priori-
Verteilung vor, so wird deren Unsch¨
arfe durch ihre(n) unscharfen Verteilungsparameter
beschrieben. Geh¨
ort die A-priori-Verteilung einer zur Stichprobenverteilung konjugier-
ten Verteilungsfamilie an, so gen¨
ugt es, die unscharfe suffiziente Statistik der unschar-
fen Stichprobe mit dem (unscharfen) Parameter der (unscharfen) A-priori-Verteilung
unter Anwendung des Erweiterungsprinzips f¨
ur unscharfe Mengen zu komibinieren,
um daraus eine unscharfe Schar von A-posteriori-Dichtefunktionen abzuleiten. Im Fall
Poisson-verteilter Zufallsgr¨
oßen ist die Familie der Gamma-Verteilungen eine konju-
gierte Verteilungsfamilie. Aus der unscharfen Stichprobe der unscharf Poisson-verteilten
unscharfen Anzahlen von Flutwellen kritischer H¨
ohe in den Beobachtungsperioden kann
somit bei Vorliegen einer (klassischen oder unscharfen) Gamma-Verteilung, welche die
A-priori-Information wiedergibt, durch Anwendung des Erweiterungsprinzips auf die
Kombinationsregel f¨
ur die Parameter eine unscharfe A-posteriori-Gamma-Verteilung
konstruiert werden.
Aus der unscharfen A-posteriori-Gamma-Verteilung wurde eine unscharfe Pr¨
adik-
tivdichte, insbesondere eine unscharfe Negativbinomial-Verteilung abgeleitet. Weiters
wurden auf Basis der unscharfen A-posteriori-Gamma-Verteilung unscharfer Bayes-
Sch¨
atzer, unscharfes HPD-Intervall und unscharfe A-posteriori-Hypothesenwahrschein-
lichkeit bestimmt.
Bereits in Abschnitt 2.1 wurde erw¨
ahnt, dass extreme Naturereignisse erst dann
zu Katastrophen werden, wenn damit Verluste verbunden sind. Es ist also wichtig,
statistische Entscheidungen darauf auszurichten, dass die zu erwartenden Verluste auf-
grund von Fehlern in den Entscheidungen am geringsten sind. Entscheidungen in der
Bayes-Statistik sind das geeignete Instrument daf¨
ur. Es konnte gezeigt werden, dass
die unscharfen Erweiterungen von Bayes'schen Entscheidungsfunktionen, welche im Fall
exakter Daten verlustoptimale Entscheidungen liefern, im Fall unscharfer Daten die zu
erwartenden unscharfen Verluste unscharf minimieren. Es wurden unscharfe Bayes'sche

KAPITEL 9 ZUSAMMENFASSUNG UND AUSBBLICK
387
Punkt- und Intervallsch¨
atzungen ebenso wie Bayes-Tests f¨
ur verschiedene Arten von
Verlustfunktionen durchgef¨
uhrt.
In der vorliegenden Arbeit wurden nur scharfe Verlustfunktionen ber¨
ucksichtigt,
die Unsch¨
arfe der Verlusterwartungswerte ist einzig auf die unscharfe Stichprobenin-
formation zur¨
uckzuf¨
uhren. Auf eine Analyse aufgrund von vagen Verlusteinsch¨
atzungen
wurde in der vorliegenden Arbeit verzichtet.
1
Neuland wurde beschritten bei der Frage, ¨
uber wie viele Perioden die unscharfe
Anzahl von Flutwellen kritischer H¨
ohe beobachtet werden soll, um statistische Ent-
scheidungen zu treffen. In der vorliegenden Arbeit wurden erstmals Methoden ent-
wickelt, die f¨
ur Folgen von Fuzzy-Zufallsvariablen sequentielle statistische Entschei-
dungen erm¨
oglichen. Nach jeder Beobachtung f¨
uhren Teile der unscharfen Stichpro-
beninformation zum Abbruch und andere Teile sprechen f¨
ur eine Fortsetzung. Somit
uhrt die konsquente Anwendung des Prinzips der unscharfen Erweiterung auf die Re-
chenregeln der Sequentialanalyse zu unscharfen Abbruchentscheidungen bzw. unschar-
fen Stichprobenumf¨
angen, die nicht sinnvoll interpretiert werden k¨
onnen. Die in der
Fuzzy-Logik ¨
ublichen Defuzzifikationsmethoden f¨
uhren nicht zum gew¨
unschten Ergeb-
nis, daher wurde nach alternativen Methoden f¨
ur scharfe Abbruchentscheidungen auf
Basis unscharfer Beobachtungen gesucht.
In der Bayes'schen Sequentialanalyse werden nach jeder Beobachtung, basierend
auf Beobachtungskosten und Verlusterwartungswert f¨
ur Fehlentscheidungen, Abbruch-
risiko und Fortsetzungsrisiko verglichen und dabei wird ¨
uber Fortsetzung oder Ab-
bruch des Verfahrens entschieden. Unscharfe Stichprobeninformationen f¨
uhren zu un-
scharfen Abbruch- und Fortsetzungsrisiken. Zur L¨
osung des Problems werden unter-
schiedliche Methoden vorgeschlagen. Eine Klasse von L¨
osungsvorschl¨
agen beruht auf
dem Vergleich der -Schnitte der unscharfen Risiken. F¨
ur ein zuvor anzugebendes -
Niveau wird bei -Niveau-Tangential-Methoden das Verfahren abgebrochen, sobald die
-Schnitte der beiden Risiken wenigstens einen gemeinsamen Wert aufweisen. Bei -
Niveau-Inklusionsmethoden wird das Verfahren so lange fortgesetzt, bis die -Schnitte
der beiden Risiken f¨
ur das gew¨
ahlte ¨
ubereinstimmen. Der Nachteil dieser Verfah-
ren liegt darin, dass vorab ¨
uber das zu w¨
ahlende Niveau und ¨
uber Ber¨
uhrung oder
Einschließung der Niveaus entschieden werden muss, allerdings wird der Unsch¨
arfe der
Entscheidung dabei Rechnung getragen. Die zweite Klasse von scharfen Abbruchent-
scheidungen beinhaltet die Kardinalit¨
atsmethode. Hier wird das Verfahren abgebro-
chen, wenn der Teil der unscharfen Stichprobeninformation, die zum Abbruch f¨
uhrt,
zumindest gleich groß ist wie der Teil der Stichprobeninformation, der zu einer Fort-
setzung des Verfahrens f¨
uhren w¨
urde.
Die vorgeschlagenen Methoden zur Bestimmung einer exakten Stopzeit auf Basis
unscharfer Stichprobeninformationen wurden anhand von verk¨
urzten Bayes-Verfahren
und vorausschauenden Bayes-Verfahren mit gew¨
ohnlicher und mit modifizierter Ver-
lustfunktion und anhand des Sequential Probablility Ratio Tests demonstriert.
1
Vgl. dazu Abschnitt 9.2.2.

388
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
9.2
Ausblick
In j¨
ungerer Zeit werden unscharfe Methoden und unscharfe stochastische Methoden in
der Literatur immer h¨
aufiger zur Beschreibung von Naturrisiken verwendet.
2
Die vor-
liegende Arbeit wurde auf rein theoretischem Niveau entwickelt. Um eine praktische
Anwendung der hier vorgeschlagenen Verfahren im Naturrisikomanagement mit realen
Daten
3
zu erm¨
oglichen muss das Modell vor allem in zwei Richtungen erweitert werden.
Einerseits soll die restriktive Verteilungsannahme, dass die durchschnittliche Anzahl
der Flutwellen kritischer H¨
ohe pro Periode ¨
uber die Zeit weg konstant sei, gelockert
werden, sodass auch die Einbeziehung von Trends in die Sch¨
atzung des unscharfen Ka-
tastrophenrisikos erm¨
oglicht wird.
4
Andererseits soll m¨
oglich werden, Unsch¨
arfe auch
bei den Angaben ¨
uber die Sch¨
aden aufgrund von ¨
Uberflutungen in Form von unscharfen
Verlustfunktionen in das Modell einzubeziehen.
5
9.2.1
Trends und Verteilungsmodelle f¨
ur Naturkatastrophen
Bei der Aufstellung des stochastischen Modells in Abschnitt 2.2 wurde die Annahme
getroffen, die durchschnittliche Anzahl der Flutwellen kritischer H¨
ohe in der Beobach-
tungsperiode w¨
are konstant. Ausgehend von dieser Annahme wurde deren Wahrschein-
lichkeitsverteilung als Poisson-Verteilung modelliert. Bevor versucht werden kann das
Modell auf empirische Daten anzuwenden, muss die Frage beantwortet werden, ob die-
se Annahme der konstanten Intensit¨
at des zugrundeliegenden stochastischen Prozesses
aufrechterhalten werden kann. Andernfalls muss die Verteilungsannahme modifiziert
werden.
Nach Untersuchungen in Deutschland hat sich die H¨
aufigkeit großer Naturkatastro-
phen dort in den letzten vier Jahrzehnten verdreifacht,
6
wie auch aus der Abbildung
9.1,
7
welche die Anzahl der großen Naturkatastrophen in Deutschland von 1950-2000
zeigt, ersichtlich ist. Allgemein kann angesichts dieses Bildes nicht von einer konstan-
ten Anzahl der Naturkatastrophen in gleich langen Zeitr¨
aumen ausgegangen werden.
Eher zeigt eine Betrachtung der Entwicklung der Naturkatastrophen in den letzten
Jahrzehnten, dass deren Anzahl zugenommen hat. Als Ursache daf¨
ur ist vor allem die
sich abzeichnende, nicht zuletzt anthropogene, Klimaver¨
anderung anzusehen. Durch
den Anstieg des Meeresspiegels infolge der nachweisbaren Erderw¨
armung
8
wird nach
Prognosen die ¨
Uberschwemmungsh¨
aufigkeit zunehmen.
9
Somit wird eine differenzier-
tere Betrachtung des Problems erforderlich, bevor zur wahrscheinlichkeitstheoretischen
Modellierung des Problems ¨
ubergegangen werden kann.
Um zum Ausgangsproblem zur¨
uckzukehren, muss die Betrachtung der zeitlichen
2
Etwa Esogbue (1996), Wang / Cheng (1999), Oberguggenberger (2000), Ehret / B´
ardossy (2002),
Tran / Knight et al. (2002), Huang (2002), Wagner (2002), Wagner (2003), Blazkova / Beven (2004),
Vernieuwe / Georgieva et. al. (2005), Dixon (2005), B´
ardossy / Filiz (2005), Rao / Srinivas (2006).
3
Etwa bei Dartmouth Flood Observatory: http://www.dartmouth.edu/
floods/
4
Vgl. Comploj (2004), S. 41 ff.
5
Vgl. Comploj (2004), S. 6 ff.
6
Vgl. Berz (2002), S. 253.
7
Quelle: Berz (2002), S. 262.
8
Vgl. Berz (2002), S. 254.
9
Vgl. Nussbaumer (1998), S. 171, Mertsch (2004), S. 16 ff.

KAPITEL 9 ZUSAMMENFASSUNG UND AUSBBLICK
389
Abbildung 9.1: Anzahl großer Naturkatastrophen in Deutschland
Entwicklung auf die Katastrophenart ¨
Uberschwemmung eingeschr¨
ankt werden. Die
Abbildung 9.2 zeigt die Entwicklung der Anzahl der weltweiten Flutkatastrophen pro
Jahrzent in den 100 Jahren zwischen 1896 und 1995.
10
Es l¨
asst sich klar ablesen, dass
die Anzahl der Flutkatastrophen weltweit im Betrachtungszeitraum zugenommen hat.
Die Annahme der konstanten durchschnittlichen Anzahl der Flutwellen kann auf-
grund der empirischen Ergebnisse somit nicht gehalten werden. Eine Poisson-Verteilung
kann f¨
ur die Anzahl der Fluten kritischen Ausmaßes also nicht angenommen werden.
Es empfiehlt sich daher, andere Verteilungsannahmen zu treffen.
Zur Modellierung der Verteilung der Wiederkehrperioden von Flut- oder Sturmkata-
strophen in einem Gebiet werden meist Weibull-Verteilungen, Log-Normalverteilungen,
Pareto-Verteilungen oder Gumbel-Verteilungen verwendet,
11
welche die Ber¨
ucksichti-
gung eines Trends im Modell erm¨
oglichen. Wagner empfiehlt, f¨
ur die unscharfe Model-
lierung nicht nur Verteilungen eines Typs mit unscharfen Parametern heranzuziehen,
sondern eine unscharfe Schar von Verteilungen unterschiedlicher Verteilungstypen im
Modell anzusetzten.
12
9.2.2
Unscharfe Verluste
Bisher wurde dem Ph¨
anomen der Unsch¨
arfe nur im naturwissenschaftlich-technischen
Teilsegment der Analyse des Katastrophenrisikos, der Gef¨
ahrdungsanalyse, Rechnung
getragen. Zur Findung des optimalen Paketes aus Hochwasserschutzmaßnahmen muss
aber auch eine Vulnerabilt¨
atsanalyse durchgef¨
uhrt werden, die dem sozio-¨
okonomischen
10
Daten: Nussbaumer / Winkler (1996), S. 3.
11
Vgl. M¨
uller-Navarra (2002), S.40 f., Wagner (2002), S. 245, Wagner (2003), S. 44 ff.
12
Vgl. Wagner (2002), S. 245 f., Wagner (2003), S. 43 ff.

390
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Abbildung 9.2: Anzahl der Flutkatastrophen weltweit
Aspekt der Katastrophenrisikoanalyse Rechnung tr¨
agt und der Ermittlung der erwar-
teten Sch¨
aden bei bestimmten extremen Naturereignissen dient.
13
Es lassen sich drei Kategorien von Sch¨
aden unterscheiden
14
:
- Personensch¨
aden als zusammenfassender Begriff f¨
ur Todesopfer und Verletzte
- Verm¨
ogenssch¨
aden, also Sch¨
aden an Sachwerten
- ¨
Okologische Sch¨
aden
Am leichtesten einzusch¨
atzen sind Sachsch¨
aden. Bei der Analyse des Risikos der
¨
Uberschwemmungsgefahr gliedert sich die Vulnerabilit¨
atsanalyse in zwei Schritte: die
Wertermittlung, welche der Schadenspotenzialermittlung dient und im Allgemeinen
mittels einer Rasterkarte der Werteverteilung durchgef¨
uhrt wird, und die Schadens-
analyse, welche den Sch¨
adigungsgrad bei bestimmten ¨
Uberflutungszust¨
anden auf Basis
von Szenarioanalysen zu bestimmen sucht. Eine genauere Betrachtung legt auch bei
diesen Teilbereichen des Modells wieder Unsch¨
arfen dar. Betrachtet man etwa exempla-
risch die Rasterkarte der Verteilung der Werte in der Gemeinde Timmendorfer Strand
an der Westk¨
uste Schleswig-Holsteins
15
, so zeigt sich dieses als unscharfes Grautonbild
mit fließenden ¨
Uberg¨
angen ohne scharfe Abgrenzungen. Die eingezeichneten Rasterqua-
drate wirken realit¨
atsfremd, es sollte also versucht werden, die unscharfen ¨
Uberg¨
ange
zwischen den einzelnen Regionen besser abzubilden. Die Bewertung des sch¨
adigbaren
Verm¨
ogens ist unter hohem Zeitaufand mit Einschr¨
ankungen m¨
oglich,
16
allerdings sind
13
Vgl. Markau / Reese (2002), S. 80 ff., Mertsch (2004), S. 38 ff.
14
Vgl. Nussbaumer (1998), S. 15.
15
Quelle: Markau / Reese (2002), S. 83.
16
Vgl. Liebermann / Mai (2002), S. 88.

KAPITEL 9 ZUSAMMENFASSUNG UND AUSBBLICK
391
auch hier Unsch¨
arfen zu erwarten, man denke etwa an die Abweichungen mehrerer Gut-
achten ¨
uber den Wert ein und desselben Gegenstandes oder subjektive Wertsch¨
atzun-
gen.
Abbildung 9.3: Rasterkarte der Werteverteilung in der Gemeinde Timmendorfer Strand
Bei der Bayes'schen Analyse werden nicht nur Sch¨
aden aus der Untersch¨
atzung von
Risiken betrachtet, sondern auch Sch¨
aden aus einer ¨
Ubersch¨
atzung. Der ¨
okonomische
Schaden einer ¨
Ubersch¨
atzung des Flutrisikos besteht vor allem in den volkswirtschaft-
lichen Kosten ¨
uberfl¨
ussiger Sicherungsmaßnahmen
17
und darin, dass der Bev¨
olkerung
ein falsches Signal und ein falsches Gef¨
uhl der Sicherheit vermittelt wird, so dass rie-
sige Schadenspotentiale angesiedelt werden, welche im Fall einer unvorhergesehenen
17
Vgl. Karl (2002), S. 59.

392
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Katastrophe bei Versagen der Schutzmaßnahmen immense Sch¨
aden zur Folge haben.
18
In der Bewertung dieses Schadenspotentials einer Risiko¨
ubersch¨
atzung ergeben sich
ebenfalls große Bewertungsunsicherheiten.
Ein h¨
aufig zur Einstufung von Katastrophen verwendetes Kriterium ist die An-
zahl der Todesopfer.
19
Eine Methode zur Einsch¨
atzung des Risikos f¨
ur den Verlust
an Menschenleben bei ¨
Uberschwemmungskatastrophen ist die Sch¨
atzung aufgrund von
Dokumentationen vergangener ¨
Uberflutungen. Allerdings ergeben sich zu den einzelnen
¨
Uberschwemmungen, sofern mehrere Quellen zur Verf¨
ugung stehen, h¨
ochst unterschied-
liche Zahlenwerte.
20
Die Angaben zu den Todesopfern sind also unscharf. Außerdem ist
die monet¨
are Bewertung des Verlusts von Menschenleben nicht zuletzt aus ethischen
Gr¨
unden fragw¨
urdig.
21
Die dritte Schadenskategorie stellen ¨
okologische Sch¨
aden dar. Im Gegensatz zu den
beiden anderen Schadenskategorien k¨
onnen ¨
okologische Sch¨
aden in gleicher Weise aus
einer Untersch¨
atzung und aus einer ¨
Ubersch¨
atzung der Gefahr resultieren. Einerseits
werden bei einer ¨
Uberschwemmung Tiere get¨
otet, Pflanzen vernichtet und fruchtba-
res Erdreich weggesp¨
ult. Andererseits wird durch Hochwasserschutzmaßnahmen in die
nat¨
urliche Umwelt stark eingegriffen: durch D¨
amme wird eine Austrocknung von ur-
spr¨
unglich in der ¨
Uberflutungszone gelegenem Land verursacht, durch die Verdr¨
angung
der Flut aus einem bestimmten zu sch¨
utzenden Gebiet kann anderswo eine ¨
Uber-
schwemmung verursacht werden.
Die Bewertung von Umweltsch¨
aden erweist sich allgemein als sehr schwierig,
22
sie
werden bisweilen auch als nicht monetarisierbare Sch¨
aden bezeichnet, da Biodiversifi-
zit¨
at, Tier- und Pflanzenarten kaum monet¨
ar bewertet werden k¨
onnen.
23
Mit anderen
Worten kann die Quantifizierung und Bewertung von Umweltsch¨
aden als h¨
ochst un-
scharf bezeichnet werden.
Sollen zu diesem Zweck alle drei Schadensarten in einer einzigen Bewertungsfunk-
tion aggregiert werden, um Sch¨
aden aus Fehleinsch¨
atzungen der Gefahr einheitlich
angebbar zu machen, so ergeben sich weitere Probleme.
9.2.3
Implikationen f¨
ur weitere Forschungsarbeit
Aus den beiden genannten Problemkreisen l¨
asst sich klar ablesen, in welche Richtungen
weitere Forschungsarbeit zu gehen hat.
Einerseits verkompliziert sich bei Aufgabe der Annahme einer konstanten Anzahl
von Flutwellen kritischer H¨
ohe das wahrscheinlichkeitstheoretische Modell, welches zu
fuzzifizieren ist, wesentlich. Etwa bei Annahme eines Weibull-Prozesses
24
kann die
Bayes'sche A-posteriori-Verteilung nicht mehr mit Hilfe einer konjugierten Verteilung
bestimmt werden. Ein m¨
oglicher Weg um diesem Problem zu begegnen ist es sich mit
rein numerischen L¨
osungsverfahren zufrieden zu geben. Wird doch eine analytische
18
Vgl. Ehret / B´
ardossy (2003), S. 55, Karl (2002), S. 62.
19
Nussbaumer / Winkler (1996), S. 1 f., bezeichnet dieses Kriterium als das "einfachste und ver-
mutlich zuverl¨
assigste".
20
Vgl. Nussbaumer / Winkler (1996), S. 8 f., Nussbaumer (1998), S. 19 ff.
21
Vgl. Karl (2002), S. 60, Liebermann / Mai (2002), S. 90.
22
Vgl. Liebermann / Mai (2002), S. 88.
23
Vgl. Karl (2002), S. 60.
24
Vgl. etwa Franz (1999), 135 ff., Franz / Abdel-Aty (2003), S. 209 ff., Franz (2005).

KAPITEL 9 ZUSAMMENFASSUNG UND AUSBBLICK
393
osung gew¨
unscht, so m¨
ussen charakteristische Funktionen von Verteilungen
25
auf un-
scharfe Verteilungen erweitert werden. Dies bedeutet, dass die Fuzzy-Theorie auch in
der Funktionentheorie
26
und somit in einem weiteren Gebiet der Mathematik Einzug
haben muss.
Andererseits m¨
ussen Konzepte gefunden werden, die Bayes'sche Entscheidungen
auch f¨
ur unscharfe Verlustfunktionen erlauben. Diese Fragestellung f¨
uhrt zur¨
uck auf
das viel diskutierte Problem einer Rangordnung von reellen Fuzzy-Mengen.
27
Mit dem
Problem einer Rangordnung unscharfer Nutzenwerte besch¨
aftigt sich auch die Frage-
stellung der unscharfen Optimierung.
28
. Die beiden in Abschnitt 3.2.6 beschriebenen
oglichkeiten scheinen hier L¨
osungsm¨
oglichkeiten zu bieten.
Eine M¨
oglichkeit besteht in der Bestimmung von Kenngr¨
oßen, inwiefern bei Paar-
vergleichen von unscharfen Zahlen die eine jeweils gr¨
oßer bzw. kleiner ist als die andere.
Dieser Weg wurde zwar bereits vorgeschlagen,
29
aber ein Nachteil dieser Methode be-
steht darin, dass nur eine Rangordnung von h¨
ochstens abz¨
ahlbar vielen unscharfen
unscharfen Zahlen durch Paarvergleiche gebildet werden kann.
Der in der sp¨
arlichen Literatur zu diesem Thema eher praktizierte L¨
osungsweg
beruht auf Defuzzifikation. Auf die defuzzifizierten Verlusterwartungswerte soll die
Bayes'sche Entscheidungsregel angewendet und daraus optimale scharfe oder unscharfe
Entscheidungen abgeleitet werden.
30
Allerdings ist dabei zu beachten, dass durch die
Defuzzifikation ein wesentlicher Teil der zus¨
atzlichen Information, die durch die Ber¨
uck-
sichtigung der Unsch¨
arfe im Modell dazu gewonnen wurde, wieder verloren geht. Der
Unterschied zur klassischen Modellbildung mit scharfen Zahlen besteht dann nur noch
darin, dass die Defuzzifikation nicht sofort bei der Messung noch vor dem Einfließen
ins Modell sondern erst auf einer sp¨
ateren Stufe erfolgt. Das Risiko einer Fehlentschei-
dung bei einem defuzzifizierten Modell wurde in dem Kommentar von Comploj zu einer
Arbeit von Huang aufgezeigt.
31
Noch eine dritte Methode erscheint gangbar. Diese lehnt sich an die von Wagner
32
vorgschlagene Methode zur Bestimmung von unscharfen Sch¨
atzern f¨
ur unscharfe Ver-
teilungen, die aus mehreren Verteilungstypen bestehen, an. F¨
ur mehrere klassische Ver-
lustfunktionen sind zuerst unscharfe Bayes'sche Entscheidungen zu ermitteln, welche
anschließend zu einer unscharfen Gesamtl¨
osung des unscharfen Problems zu aggregieren
sind.
33
Weitere Forschungsarbeit tut not!
25
Vgl. etwa Viertl (2003), S. 89 ff.
26
Vgl. etwa Fischer / Lieb (1992), Freitag / Busam (1995).
27
Vgl. Viertl (2002a), S. 113, Viertl / Hareter (2006), S. 97 ff., Hryniewicz (2003), S. 5.
28
Vgl etwa Rommelfanger (1992), S. 158 ff., Hauke (1998), S. 75 ff., Wagner (2003), S. 73 ff.
29
Vgl. Hryniewicz (2003), S. 5 f.
30
Vgl. Gil / L´
opez-D´iaz (1996), S. 203 ff., Viertl /Hareter (2004b), S. 12 f., Viertl / Hareter (2006),
S. 99 f., Hryniewicz (2003), S. 5, Huang (2002), S. 46 ff.
31
Vgl. Comploj (2004), S. 51 ff., bzw. Huang (2002), S. 49 ff.
32
Vgl. Wagner (2003), S. 43 ff., bzw. die Ausf¨
uhrungen am Ende von Abschnitt 5.3.
33
Ein Ansatz dazu findet sich bei Comploj (2004), S. 30 ff.


Literaturverzeichnis
Adamo, J.M. (1980), Fuzzy Decision Trees, Fuzzy Sets and Systems 4, S. 207-219.
Albrecht, M. / N¨
ather, W.(1990), Random Closed Fuzzy Sets - An Attempt to Define a
Fuzzy Boolean Model, in: Bandemer, H. [Ed.], Applications of Fuzzy Set Theory
in Data Analysis, Freiberger Forschungshefte D197: Wirtschaftswissenschaften,
VEB Deutscher Verlag f¨
ur Grundstoffindustrie, Leipzig, S. 78-95.
Alonso, M.C. / Brezmes, T. / Lubiano, M.A. / Bertoluzza, C. (2001), A Generalized
Real-Valued Measure of the Inequality Associated with a Fuzzy Random Variable,
International Journal of Approximate Reasoning 26, S. 47-66.
Arnold, B.F. / Gerke, O. (2003), Testing Fuzzy Linear Hypotheses in Linear Regres-
sion Models, Metrika 57, S. 81-95.
Arrow, K.J. / Blackwell, D. / Girshick, M.A. (1949), Bayes and Minimax Solutions
of Sequential Decision Problems, Econometrica 17, S. 213-244.
Artstein, Z. / Vitale, R.A. (1975), A Strong Law of Large Numbers for Random
Compact Sets, The Annals of Probability 3, S. 879-882.
Augusti, G. / Schueller, G.I. / Ciampoli, M. [Eds.] (2005), Safety and Reliability of
Engineering Systems and Structures. Proceedings of the 9th International Confe-
rence on Structural Safety and Reliability, Rome, Italy, June 19-23, 2005, Rome,
Italy (ICOSSAR'05), Millpress, Rotterdam.
Aumann, R.J. (1965), Integrals of Set-Valued Functions, Journal of Mathematical
Analysis and Applications 12, S. 1-12.
Baas, S.M. / Kwakernaak, H. (1977), Rating and Ranking of Multiple-Aspect Alter-
natives using Fuzzy-Sets, Automatica 13, S. 47-58.
Bahadur, R.R. (1958), A Note on the Fundamental Identity of Sequential Analysis,
Annals of Mathematical Statistics 29, S. 534-543.
Bandemer, H. [Ed.] (1988), Applications of Fuzzy Set Theory in Data Analysis, Frei-
berger Forschungshefte D187: Wirtschaftswissenschaften, VEB Deutscher Verlag
ur Grundstoffindustrie, Leipzig.
VII

VIII
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Bandemer, H. (1990), Specification and Use of Neighbourhoods in Fuzzy Knowledge
Bases, in: Bandemer, H. [Ed.], Applications of Fuzzy Set Theory in Data Analy-
sis, Freiberger Forschungshefte D197: Wirtschaftswissenschaften, VEB Deutscher
Verlag f¨
ur Grundstoffindustrie, Leipzig, S. 112-125.
Bandemer, H. [Ed.] (1990), Applications of Fuzzy Set Theory in Data Analysis, Frei-
berger Forschungshefte D197: Wirtschaftswissenschaften, VEB Deutscher Verlag
ur Grundstoffindustrie, Leipzig.
Bandemer, H. (1992), Specification of Fuzzy Data, in: Bandemer, H. [Ed.], Modelling
Uncertain Data, Mathematical Research, Vol. 68, Akademie Verlag, Berlin, S.
93-104.
Bandemer, H. [Ed.] (1992), Modelling Uncertain Data, Mathematical Research, Vol.
68, Akademie Verlag, Berlin.
Bandemer, H. (1996), Spezifying Fuzzy Data from Grey-tone Pictures for Pattern
Recognition, Pattern Recognition Letters 17, S. 585-592.
Bandemer, H. (1999), Unscharfe Analyse unscharfer Daten, in: Seising, R. [Ed.], Fuzzy
Theorie und Stochastik, Vieweg, Braunschweig / Wiesbaden, S. 251-267.
Bandemer, H. / Gottwald, S. (1993), Einf¨
uhrung in Fuzzy-Methoden, 4. Aufl., Aka-
demie Verlag, Berlin.
Bandemer, H. / Kraut, A. (1990), On Fuzzy Shape Factors of Fuzzy Shapes, in:
Bandemer, H. [Ed.], Applications of Fuzzy Set Theory in Data Analysis, Freiber-
ger Forschungshefte D197: Wirtschaftswissenschaften, VEB Deutscher Verlag f¨
ur
Grundstoffindustrie, Leipzig, S. 9-26.
Bandemer, H. / Kraut, A. / Vogt, F. (1988), Evaluation of Hardness Curves at Thin
Surface Layers. A Case Study on Using Fuzzy Observations, in: Bandemer, H.
[Ed.], Applications of Fuzzy Set Theory in Data Analysis, Freiberger Forschungs-
hefte D187: Wirtschaftswissenschaften, VEB Deutscher Verlag f¨
ur Grundstoffin-
dustrie, Leipzig, S. 9-26.
Bandemer, H. / Kudra, M. (1988), Some Methods of Evaluating of Functional Relati-
onships from Fuzzy Observations, in: Bandemer, H. [Ed.], Applications of Fuzzy
Set Theory in Data Analysis, Freiberger Forschungshefte D187: Wirtschaftswis-
senschaften, VEB Deutscher Verlag f¨
ur Grundstoffindustrie, Leipzig, S. 46-61.
Bandemer H. / Lorenz, M. (1998), Evaluating a Functional Relationship from Picture
Data of a Chemical Diffusion Process - A Case Study, Fuzzy Sets and Systems
93, S. 29-35.
Bandemer, H. / N¨
ather, W. (1988), Fuzzy Analogues to Partial-Least-Squares Techni-
ques in Multivariate Data Analysis, in: Bandemer, H. [Ed.], Applications of Fuzzy
Set Theory in Data Analysis, Freiberger Forschungshefte D187: Wirtschaftswis-
senschaften, VEB Deutscher Verlag f¨
ur Grundstoffindustrie, Leipzig, S. 62-77.

LITERATURVERZEICHNIS
IX
Bandemer, H. / N¨
ather, W. (1992), Fuzzy Data Analysis, Series B: Mathematical and
Statistical Methods, Kluwer Academic Publishers, Dordrecht.
Bandemer, H. / Otto, M. (1988), Methods to Compare Functions and some Appli-
cations in Analytical Chemistry, in: Bandemer, H. [Ed.], Applications of Fuzzy
Set Theory in Data Analysis, Freiberger Forschungshefte D187: Wirtschaftswis-
senschaften, VEB Deutscher Verlag f¨
ur Grundstoffindustrie, Leipzig, S. 27-38.
ardossy, A. / Filiz, F. (2005), Identification of Flood Producing Atmospheric Circu-
lation Patterns, Journal of Hydrology 313, S. 48-57.
Barnett, V. (1982), Comparative Statistical Inference, 2nd ed., Wiley series in proba-
bility and mathematical statistics, Wiley, Chichester / New York [u.a.].
Bauch, H. (1992), Self-Validating Algorithms and Imprecise Data. Structures for Ordi-
nary Initial Value and Boundary Value Problems, in: Bandemer, H. [Ed.], Model-
ling Uncertain Data, Mathematical Research, Vol. 68, Akademie Verlag, Berlin,
S. 46-52.
Beck, J.B. / Kreinovich, V. / Wu, B. (2004), Interval-Valued and Fuzzy-Valued Ran-
dom Variables: From Computing Sample Variances to Computing Sample Cova-
riances, University of Texas at El Paso, Department of Computer Science.
(http://www.cs.utep.edu/vladik/2004/tr04-03a.pdf)
Beer, M. / Spanos, P.D. (2005), Simulation Based Structural Reliability Assessment
Involving Imprecise Data, in: Augusti, G. / Schueller, G.I. / Ciampoli, M. [Eds.],
Safety and Reliability of Engineering Systems and Structures. Proceedings of the
9th International Conference on Structural Safety and Reliability (ICOSSAR'05),
Millpress, Rotterdam, S. 1725-1732.
Berger, J.O. (1985), Statistical Decision Theory and Bayesian Analysis, 2nd ed., Sprin-
ger, New York [u.a.].
Bernardo, J.M. / Smith, A.F.M. (1994), Bayesian Theory, Wiley series in probability
and mathematical statistics, Wiley, Chichester [u.a.].
Bertoluzza, C. / Gil, M.A. / Ralescu, D.A. [Eds.] (2002), Statistical Modeling, Ana-
lysis and Management of Fuzzy Data, Studies in Fuzziness and Soft Computing,
Vol. 87, Physica Verlag, Heidelberg.
Berz, G. (2002), Naturkatastrophen im 21. Jahrhundert - Trends und Schadenpoten-
tiale, in: DKKV, Extreme Naturereignisse, Sonderver¨
offentlichung (www.dkkv.org),
Bonn / Leipzig, S. 253-264.
Bezdek, J.C. [Ed.] (1987), Analysis of Fuzzy Information, CRC Press, Boca Raton,
Florida.
Bhandari, D. / Pal, N.R. (1993), Some New Information Measures for Fuzzy Sets,
Information Sciences, 67, S. 209-228.

X
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Biethahn, J. / H¨
onerloh, A. / Kuhl, J. / Nissen, V. [Eds.] (1997), Fuzzy-Set-Theorie
in betriebswirtschaftlichen Anwendungen, Vahlen, M¨
unchen.
Biethahn, J. / H¨
onerloh, A. / Kuhl, J. / Leisewitz, M.C. / Nissen, V. / Tietze, M.
[Eds.] (1998), Betriebswirtschaftliche Anwendungen des Soft Computing. Neuro-
nale Netze, Fuzzy-Systeme und evolution¨
are Algorithmen, Vieweg, Braunschweig.
Biswas, R. (1991), Fuzzy Inner Product Spaces and Fuzzy Norm Functions, Informa-
tion Sciences 53, S. 185-190.
Blazkova, S. / Beven, K. (2004), Flood Frequency Estimation by Continuous Simula-
tion of Subcatchment Rainfalls and Discharges with the Aim of Improving Dam
Safety Assessment in a Large Basin in the Czech Republic, Journal of Hydrology
292, S. 153-172.
Bodjanova, S. (2003), Alpha-Bounds of Fuzzy Numbers, Information Sciences 152, S.
237-266.
ohme, G. (1993), Fuzzy-Logik. Einf¨
uhrung in die algebraischen und logischen Grund-
lagen, Springer, Berlin / Heidelberg.
Borgelt, C. / Gebhardt, J. / Kruse, R. (1999), Fuzzy Methoden in der Datenanaly-
se, in: Seising, R. [Ed.], Fuzzy Theorie und Stochastik, Vieweg, Braunschweig /
Wiesbaden, S. 370-386.
Borgelt, C. / Kruse, R. (2002), Graphical Models. Methods for Data Analysis and
Mining, Wiley, New York / Weinheim [u.a.].
Borowkow, A.A. (1976), Wahrscheinlichkeitstheorie. Eine Einf¨
uhrung, in deutscher
Sprache hg. v. Franken, P., Mathematische Reihe, Akademie-Verlag Berlin und
Birkh¨
auser Verlag, Basel / Stuttgart (Russische Ausgabe Verlag Nauka, Moskau).
Bosch, K. (1993), Statistik-Taschenbuch, 2. Aufl., Oldenbourg Verlag, M¨
unchen /
Wien.
Bose, B.K. / Mukherjee, S.P. / Ramamurthy, K.G. [Eds.] (1989), Quality for Progress
and Development, Wiley Eastern, New Dehli.
Boswell, S.B. / Taylor, M.S. (1987), A Central Limit Theorem for Fuzzy Random
Variables, Fuzzy Sets and Systems 24, S. 331-344.
Bouchon, B. / Saitta, L. / Yager, R.R. [Eds.] (1988), Uncertainty and Intelligent Sy-
stems. Proceedings of the 2nd International Conference on Information Proces-
sing and Management of Uncertainty in Knowledge Based Systems (IPMU'88),
Urbino, Italy, July 4-7, 1988, Lecture Notes in Computer Science, Vol. 313, Sprin-
ger, Berlin / Heidelberg.
Buckley, J.J. (2004), Uncertain Probabilities III: The Continous Case, Soft Computing
8, S. 200-206.

LITERATURVERZEICHNIS
XI
Buckley, J.J. (2005), Fuzzy Statistics: Hypothesis Testing, Soft Computing 9, S. 512-
518.
Buckley, J.J. / Eslami, E. (2002), Fuzzy Markov Chains: Uncertain Probabilities,
Mathware and Soft Computing 9, S. 33-41.
Buckley, J.J. / Eslami, E. (2003), Uncertain Probabilities I: The Discrete Case, Soft
Computing 7, S. 500-505.
Buckley, J.J. / Eslami, E. (2004), Uncertain Probabilities II: The Continuous Case,
Soft Computing 8, S. 193-199.
Buckley, J.J. / Feuring, T. (2000), Linear and Non-linear Fuzzy Regression: Evolutio-
nary Algorithm Solutions, Fuzzy Sets and Systems 112, S. 381-394.
Butnariu, D. (1978), Fuzzy Games. A Description of the Concept, Fuzzy Sets and
Systems 1, S. 181-192.
Campos, L.M. / Gonz´
alez, A. (1989), A Subjective Approach for Ranking Fuzzy
Numbers, Fuzzy Sets and Systems 29, S. 145-153.
Carlin, B.P. / Louis, T.A. (1996), Bayes and Empirical Bayes Methods For Data
Analysis, Chapman & Hall, London.
Carosio, A. / Kutterer, H. [Eds.] (2001), Proceedings to the First International Sym-
posium on Robust Statistics and Fuzzy Techniques in Geodesy and GIS, Z¨
urich,
Switzerland, March 12-16, 2001, organized by the IAG-SSG 4.190 "Non-Probabilistic
Assessment in Geodetic Data Analysis", Institute of Geodesy and Photogram-
metry - ETH Z¨
urich, Report No. 295.
(http://www.dgfi.badw.de/ssg4.190/ssg zurich main.html)
Casals, M.R. (1993), Bayesian Testing of Fuzzy Parametric Hypotheses from Fuzzy
Information, RAIRO Operations Research 27, S. 189-199.
Casals, M.R. / Gil, M.A. (1989), A Note on the Operativeness of Neymann-Pearson
Tests with Fuzzy Information, Fuzzy Sets and Systems 30, S. 215-220.
Casals, M.R. / Gil, M.A. / Gil, P. (1986a), On the Use of Zadeh's Probabilistic
Definition for Testing Statistical Hypotheses from Fuzzy Information, Fuzzy Sets
and Systems 20, S. 175-190.
Casals, M.R. / Gil, M.A. / Gil, P. (1986b), The Fuzzy Decision Problem: An Ap-
proach to the Problem of Testing Statistical Hypotheses with Fuzzy Information,
European Journal of Operational Research 27, S. 371-382.
Casals, M.R. / Gil, P. (1994), Bayesian Sequential Test for Fuzzy Parametric Hypo-
theses from Fuzzy Information, Information Sciences 80, S. 283-298.
Casals, M.R. / Salas, A. (1988), Sequential Bayesian Test from Fuzzy Experimental
Information, in: Bouchon, B. et al. [Eds.] (1988), Uncertainty and Intelligent
Systems, Springer, Berlin / Heidelberg, S. 314-321.

XII
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Chanas, S. / Delgado, M. / Verdegay, J.L. / Vila, M.A. (1993), Ranking Fuzzy Num-
bers in the Setting of Random Sets, Information Sciences 69, S. 201-217.
Chanas, S. / Zieli´
nski, P. (1999), Ranking Fuzzy Interval Numbers in the Setting of
Random Sets - Further Results, Information Sciences 117, S. 191-200.
Chang, C.L. / Lo, S.L. / Yu, S.L. (2005), Applying Fuzzy Theory and Genetic Algo-
rithm to Interpolate Precipitation, Journal of Hydrology 314, S. 92-104.
Chang, P.T. / Lee, E.S. (1996), A Generalized Fuzzy Weighted Least-Squares Regres-
sion, Fuzzy Sets and Systems 89, S. 289-298.
Chaudhuri, B.B. / Rosenfeld, A. (1999), A modified Hausdorff Distsance Between
Fuzzy Sets, Information Sciences 118, S. 159-171.
Chen-Wei, X. (1992), On Convexity of Fuzzy Sets and Fuzzy Relations, Information
Sciences 59, S. 91-102.
Colubi, A. / Dom´inguez-Menchero J.S., /L´
opez-D´iaz, M. / Ralescu, D.A. (2001), On
the Formalization of Fuzzy Random Variables, Information Sciences 133, S. 3-6.
Comploj, P. (1994), Modellierung von unscharfen Daten f¨
ur statistische Analyse, Di-
plomarbeit aus Mathematik, eingereicht bei Univ.-Prof. Dr. Norbert Netzer, In-
stitut f¨
ur Mathematik, Universit¨
at Innsbruck.
Comploj, P. (1996), Die Bedeutung des Ansatzes von Heinen in der Betriebswirt-
schaftslehre, Seminararbeit, Institut f¨
ur Industrie und Fertigungswirtschaft, Uni-
versit¨
at Innsbruck.
Comploj, P. (2002), Unscharfe Daten bei risikobehafteten Unternehmensentscheidun-
gen, Diplomarbeit aus Betriebswirtschaftslehre, eingereicht bei Univ.-Prof. Dr.
Gilg Seeber, Institut f¨
ur Statistik, Universit¨
at Innsbruck.
Comploj, P. (2003), Wahrscheinlichkeit einer Kopf-an-Kopf-Situation im Wahlkampf.
Bayes'sche Analyse f¨
ur Umfragedaten, Seminararbeit, Institut f¨
ur Statistik, Uni-
verstit¨
at Innsbruck.
Comploj, P. (2004), Flutkatastrophenrisikoeinsch¨
atzung mit Fuzzy-Bayes-Statistik,
Seminararbeit, Institut f¨
ur Wirschaftstheorie, Wirschaftspolititk und Wirtschafts-
geschichte, Universit¨
at Innsbruck.
Cooman, G. de / Fine, T. / Seidenfeld, T. [Eds.] (2001), Proceedings of the Second In-
ternational Symposium on Imprecise Probabilities and Their Applications (ISIP-
TA'01), Ithaca, NY, USA, June 26-29, 2001, Shaker Publishing BV, Maastricht.
Corral, N. / Gil, M.A. (1984), The Minimum Accuracy Fuzzy Estimation: an Exten-
sion of the Maximum Likelihood Principle, Stochastica 8, S. 63-81.
Corral, N. / Gil, M.A. (1988), A Note on Interval Estimation with Fuzzy Data, Fuzzy
Sets and Systems 28, S. 209-215.

LITERATURVERZEICHNIS
XIII
Couso, I. / Montes, S. / Gil, P, (2002), Second Order Possibility Measure Induced by
a Fuzzy Random Variable, in: Bertoluzza, C. / Gil, M.A. / Ralescu, D.A. [Eds.],
Statistical Modeling, Analysis and Management of Fuzzy Data, Physica Verlag,
Heidelberg, S. 127-144.
Dai, Y. / Zong, W. / Tang, Y. (2002), A Quantitative Research on the Classification
of Coronal Mass Ejections, Chinese Astronomy and Astrophysics 26, S. 183-188.
Delgado, M. / Verdegay, J.L. / Vila, M.A. (1985), Testing Fuzzy Hypotheses - a
Bayesian Approach, in: Gupta, M.M. et al. [Eds.] (1985), Approximate Reasoning
in Expert Systems, North Holland Publishing Co., Amsterdam, S. 307-316.
Demant, B. (1993), Fuzzy-Theorie oder die Faszination des Vagen, Vieweg, Braun-
schweig / Wiesbaden.
Dempster, A.P. (1967), Upper and Lower Probabilities Induced by a Multivalued
Mapping, Annals of Mathematical Statistics 38, S. 325-339.
Deutsche Gesellschaft f¨
ur Operations Research [Ed.] (1988), Proceedings in Operati-
ons Research, Springer, Berlin / Heidelberg / Frankfurt am Main.
Deutsches Komitee f¨
ur Katastrophenvorsorge e.V. (DKKV) (2002), Extreme Natur-
ereignisse - Folgen, Vorsorge, Werkzeuge. Tagungsband des Zweiten Forum Ka-
tastrophenvorsorge, 24. 26. September 2001, herausgegeben von Tetzlaff, G. /
Trautmann, T. / Radtke, K.S., Institut f¨
ur Meteorologie der Universit¨
at Leipzig,
Sonderver¨
offentlichung (http://www.dkkv.org/DE/publications/sonderberichte.asp),
Bonn / Leipzig.
Diamond, P. (1988), Fuzzy Least Squares, Information Sciences 46, S. 141-157.
Diamond, P. / K¨
orner, R. (1997), Extended Fuzzy Linear Models and Least Squares
Estimates, Computers & Mathematics with Applications 33, No. 9, S. 15-32.
Dixon, B. (2005), Applicability of Neuro-Fuzzy Techniques in Predicting Ground-
Water Vulnerability: a GIS-based Sensitivity Analysis, Journal of Hydrology 309,
S. 17-38.
Dozzi, M. / Merzbach, E. / Schmidt, V. (2001), Limit Theorems for Sums of Random
Fuzzy Sets, Journal of Mathematical Analysis and Applications 259, S. 554-565.
Drossos, C.A. / Theodoropoulos, P.L. (1996), IB-fuzzy Probabilities, Fuzzy Sets and
Systems 78, S. 355-369.
Dubois, D. / Prade, H. (1983), Ranking Fuzzy Numbers in the Setting of Possibility
Theory, Information Sciences 30, S. 183-224.
Dubois, D. / Prade, H. (1992a), Fuzzy Sets and Systems. Theory and Applications,
Mathematics in Science and Engineering 144, Academic Press, New York / Lon-
don / Toronto / Sydney / San Francisco, Nachdruck.

XIV
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Dubois, D. / Prade, H. (1992b), Upper and Lower Images of a Fuzzy Set Induced
by a Fuzzy Relation: Applications to Fuzzy Inference and Diagnosis, Information
Sciences 64, S. 203-232.
Ehret, U. / Bardossy, A. (2003), Hochwasser - Staatsfeind Nr. 1, in: Wechselwirkungen -
Jahrbuch 2002 aus Lehre und Forschung der Universit¨
at Stuttgart.
(http://www.uni-stuttgart.de/wechselwirkungen/ww2002/ehret.pdf)
Eisenreich, G. / Sube, R. (1982), W¨
orterbuch Mathematik A-Z, englisch / deutsch /
franz¨
osisch / russisch, Langenscheidts Fachw¨
orterb¨
ucher, Thun / Frankfurt am
Main.
Esogbue, A.O. (1996), Fuzzy Sets Modeling and Optimization for Disaster Control
Systems Planning, Fuzzy Sets and Systems 81, S. 169-183.
Feller, W. (1971), An Introduction to Probability Theory and its Applications, 2.
Aufl., 10. Druck., Wiley publications in statistics: Mathematical statistics, Wiley,
New York [u.a.].
Feng, Y. (2000), Gaussian Fuzzy Random Variables, Fuzzy Sets and Systems 111, S.
325-330.
Feng, Y. (2001), Sums of Independent Fuzzy Random Variables, Fuzzy Sets and Sy-
stems 123, S. 11-18.
Feng, Y. / Hu, L. / Shu, H. (2001), The Variance and Covariance of Fuzzy Random
Variables and their Applications, Fuzzy Sets and Systems 120, 487-497.
Feng, Y. (2002), An Approach to Generalize Laws of Large Numbers for Fuzzy Ran-
dom Variables, Fuzzy Sets and Systems 128, S. 237-245.
Ferguson, T.S. (1967), Mathematical Statistics. A Decision Theoretic Approach, Pro-
bability and mathematical statistics 1, Academic Press, New York [u.a.].
Fetz, T. (1997), Finite element method with fuzzy parameters, in: Troch, I. / Brei-
tenecker F. [Eds.], Proceedings of IMACS 2nd Symposium on Mathematical Mo-
delling (MATHMOD'97), ARGESIM Report 11, S. 81-86.
Fetz, T. / Hofmeister, M. /Hunger, G. / J¨
ager, G.J. / Lessmann, H. / Oberguggen-
berger, M. / Rieser, A. / Stark, R.F. (1997), Tunnelberechnung - Fuzzy?, Der
Bauingenieur 72, S. 33-40.
Fetz, T. / J¨
ager, J. / K¨
oll, D. / Krenn, G. / Lessmann, H. / Oberguggenberger, M. /
Stark, R.F. (1999), Fuzzy Models in Geotechnical Engineering and Construction
Management, Computer-Aided Civil and Infrastructure Engineering 14, S. 93-
106.
Fetz, T. / Oberguggenberger, M. / Pittschmann, S. (2000), Applications of Possibility
and Evidence Theory in Civil Engineering, International Journal of Uncertainty,
Fuzziness and Knowledge-Based Systems 8, S. 295-309.

LITERATURVERZEICHNIS
XV
Filzmoser, P. / Viertl, R. (2004), Testing Hypotheses with Fuzzy Data: The Fuzzy
p-Value, Metrika 59, S. 21-29.
Fischer, W. / Lieb , I. (1992), Funktionentheorie, 6. Aufl., Vieweg, Braunschweig /
Wiesbaden.
Franz, J. (1999), On Repair Models and Estimators of Wearout Limits, Economic
Quality Control 14, No. 3/4, S. 135-151.
Franz, J. (2005), Parameter Estimation and Prediction in Polya Repair Models, Ma-
nuskript.
Franz, J. / Abdel-Aty, Y. (2003), Bayes Inference Problems in Failure-Repair Proces-
ses, Economic Quality Control 18, No. 2, S. 209-222.
Freitag, E. / Busam, R. (1995), Funktionentheorie - mit L¨
osungshinweisen zu 420
Aufgaben, 2. Aufl., Springer, Berlin [u.a.].
Garcia, J.N. / Kutalik, Z. / Cho, K.H. / Wolkenhauer, O. (2003), Level Sets and
Minimum Volume Sets of Probability Density Functions, International Journal
of Approximate Reasoning 34, S. 25-47.
Garc´ia, D. / Lubiano, M.A. / Alonso, M.C. (2001), Estimating The Expected Va-
lue of Fuzzy Random Variables in the Stratified Random Sampling from Finite
Populations, Information Sciences 138, S. 165-184.
Gebhardt, J. (1992), On the Epistemic View of Fuzzy Statistics, in: Bandemer, H.
[Ed.], Modelling Uncertain Data, Mathematical Research, Vol. 68, Akademie Ver-
lag, Berlin, S. 136-141.
Gelman, A. / Carlin, J.B. / Stern, H.S. / Rubin, D.B. (1995), Bayesian Data Analysis,
Chapman & Hall, London.
Gertner, G.Z. / Zhu., H. (1996), Bayesian Estimation in Forest Surveys when Samples
or Prior Information are Fuzzy, Fuzzy Sets and Systems 77, S. 277-290.
Geyer, C.J. / Meeden, G.D. (2002), Fuzzy Confidence Intervals and p-Values, Univer-
sity of Minnesota, School of Statistics.
(http://www.stat.umn.edu/geyer/fuzz/fuzz.pdf)
Geyer, C.J. / Meeden, G.D. (2004), Fuzzy and Randomized Confidence Intervals and
p-Values, University of Minnesota, School of Statistics, to appear in Statistical
Science.
(http://www.stat.umn.edu/geyer/fuzz/fuzz4.pdf)
Ghosh, B.K. (1970), Sequential Tests of Statistical Hypotheses, Addison-Wesley, Rea-
ding, Mass.
Gil, M.A. (1992), A Note on the Connection Between Fuzzy Numbers and Random
Intervals, Statistics & Probability Letters 13, S. 311-319.

XVI
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Gil, M.A. (2001), Fuzzy Random Variables (Guest Editorial), Information Sciences
133, S. 1-2.
Gil, M.A. (1993), Statistical Management of Fuzzy Elements in Random Experiments.
Part 1: A Discussion on Treating Fuzziness as a Kind of Randomness, Information
Sciences 69, S. 229-242.
Gil, M.A. / L´
opez, M.T. (1993), Statistical Management of Fuzzy Elements in Random
Experiments. Part 2: The Fisher Information Associated with a Fuzzy Informa-
tion System, Information Sciences 69, S. 243-257.
Gil, M.A. / Corral, N. / Gil, P. (1985), The Fuzzy Decision Problem: an Approach
to the Point Estimation Problem with Fuzzy Information, European Journal of
Operational Research 22, S. 26-34.
Gil, M.A. / Corral, N. / Gil, P. (1988), The Minimum Inaccuracy Estimates in
2
tests
for Goodness of Fit with Fuzzy Observations, Journal of Statistical Planning and
Inference 19, S. 95-115.
Gil, M.A. / L´
opez-D´iaz, M. (1996), Fundamentals and Bayesian Analyses of Decisi-
on Problems with Fuzzy-Valued Utilities, International Journal of Approximate
Reasoning 15, S. 203-224.
Goguen, J.A. (1967), L-Fuzzy Sets, Journal of Mathematical Analysis and Applicati-
ons 18, S. 145-174.
Goodman, I.R. (1984), Some New Results Concerning Random Sets and Fuzzy Sets,
Information Sciences 34, S. 93-113.
Goodman, I.R. / Nguyen, H.T. (2002), Fuzziness and Randomness, in: Bertoluzza, C. /
Gil, M.A. / Ralescu, D.A. [Eds.], Statistical Modeling, Analysis and Management
of Fuzzy Data, Physica Verlag, Heidelberg, S. 3-21.
Gottwald, S. (1993), Fuzzy Sets and Fuzzy Logic. Foundations of Application - From
a Mathematical Point of View, Vieweg, Wiesbaden.
Gottwald, S. (1999), Mehrwertige Logik und unscharfe Mengen, in: Seising, R. [Ed.],
Fuzzy Theorie und Stochastik, Vieweg, Braunschweig / Wiesbaden, S. 183-204.
Grimmett, G.R. / Stirzaker, D.R. (1992), Probability and Random Processes, 2nd
ed., Clarendon Press, Oxford.
Grzegorzewski, P. (1998), Metrics and Orders in Space of Fuzzy Numbers, Fuzzy Sets
and Systems 97, S. 83-94.
Grzegorzewski, P. (2000), Testing Statistical Hypotheses with Vague Data, Fuzzy Sets
and Systems 112, S. 501-510.
Grzegorzewski, P. (2002), Testing Fuzzy Hypotheses with Vague Data, in: Bertoluz-
za, C. / Gil, M.A. / Ralescu, D.A. [Eds.], Statistical Modeling, Analysis and
Management of Fuzzy Data, Physica Verlag, Heidelberg, S. 213-225.

LITERATURVERZEICHNIS
XVII
Grzegorzewski, P. / Hryniewicz, O. (1997), Testing Hypotheses in Fuzzy Environment,
Mathware and Soft Computing 4, S. 203-217.
Grzegorzewski, P. / Hryniewicz, O. (2001), Soft Methods in Hypotheses Testing, in:
Ruan, D. / Kacprzyk, J. / Fedrizzi, M. [Eds.], Soft Computing for Risk Evaluation
and Management, Physica Verlag, Heidelberg, S. 55-72.
Gudder, S. (2000), What is Fuzzy Probability Theory, Foundations of Physics 30, S.
1663-1678.
Gupta, M.M. / Ragade, R.K. / Yager, R.R. [Eds.] (1979), Advances in Fuzzy Set
Theory and Applications, Kluwer Academic Publishers, Amsterdam.
Gupta, M.M. / Ragade, R.K. / Yager, R.R. [Eds.] (1985), Approximate Reasoning in
Expert Systems, North Holland Publishing Co., Amsterdam.
Guttorp, P. (1995), Stochastic modeling of scientific data, Chapman & Hall, London
[u.a].
Habil, E.D. / Nasr, T.Z. (2002), On Fuzzy Probability Theory, International Journal
of Theoretical Physics, 41, S. 791-810.
Hafner, R. (1989), Wahrscheinlichkeitsrechnung und Statistik, Springer, Wien / New
York.
Hauke, W. (1998), Fuzzy-Modelle in der Unternehmensplanung, Physica-Schriften zur
Betriebswirtschaft, Physica Verlag, Heidelberg.
Hoeffding, W. (1960), Upper Bounds for the Expected Sample Size and Average Risk
of a Sequential Procedure, Annals of Mathematical Statistics 31, S. 352-368.
Homagk, P. (2002), Verl¨
assliche Hochwasservorhersagen zur Vermeidung von Sch¨
aden
durch rechtzeitige Vorsorgemaßnahmen, in: DKKV, Extreme Naturereignisse,
Sonderver¨
offentlichung (www.dkkv.org), Bonn - Leipzig, S. 16-28.
Hryniewicz, O. (2002), Possibilistic Interpretation of Fuzzy Statistical Tests, in: Ber-
toluzza, C. / Gil, M.A. / Ralescu, D.A. [Eds.], Statistical Modeling, Analysis and
Management of Fuzzy Data, Physica Verlag, Heidelberg, S. 226-238.
Hryniewicz, O. (2003), Possibilistic Approach to Bayes Decisions, Journal of Telecom-
munications and Information Technology 3, S. 3-8.
Hryniewicsz, O. (2006), Merging Fuzzy Statistical Data with Imprecise Prior Infor-
mation, Journal of Systems Science and Systems Engineering 15, S. 70-82.
Hu, L. / Wu, R. / Shao, S. (2002), Analysis of Dynamical Systems whose Inputs are
Fuzzy Stochastic Processes, Fuzzy Sets and Systems 129, S. 111-118.
Huang, C.F. (2002), An Application of Calculated Fuzzy Risk, Information Sciences
142, S. 37-56.

XVIII
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Huang, N.J. (1999), Random Generalized Nonlinear Variational Inclusions for Ran-
dom Fuzzy Mappings, Fuzzy Sets and Systems 105, S. 437-444.
Hwang, C.M. (2000), A Theorem of Renewal Process for Fuzzy Random Variables
and its Application, Fuzzy Sets and Systems 116, S. 237-244.
Hwang, C.M. / Yao, J.S. (1996), Independent Fuzzy Random Variables and their
Application, Fuzzy Sets an Systems 82, S. 335-350.
Inoue, H. (1995), Randomly Weighted Sums for Exchangeable Fuzzy Random Varia-
bles, Fuzzy Sets and Systems 69, S. 347-354.
Inoue, H. (2001), Exchangeability and Convergence for Random Sets, Information
Sciences 133, S. 23-37.
Inuiguchi, M. / Ichihashi, H. / Kume, Y. (1993), Modality Constraint Programming
Problems: A Unified Approach to Fuzzy Mathematical Programming Problems
in the Setting of Possibility Theory, Information Sciences 67, S. 93-126.
Irle, A. (1990), Sequentialanalyse. Optimale sequentielle Tests, Teubner-Skripten zur
mathematischen Stochastik, Teubner Verlag, Stuttgart.
Ishizuka, M. / Fu, K.S. / Yao, T.P. (1982), Inference Procedures and Uncertainty for
the Problem Reduction Method, Information Sciences 28, S. 113-122.
Jaanineh, G. / Maijohann, M. (1996), Fuzzy-Logik und Fuzzy-Control, Vogel Verlag,
urzburg.
Jahn, K.U. (1992), Approximation and Manipulation of Imprecise Data by Enclosing
Sets, in: Bandemer, H. [Ed.], Modelling Uncertain Data, Mathematical Research,
Vol. 68, Akademie Verlag, Berlin, S. 56-61.
Jang, L.C. / Kwon, J.S. (1998), A Uniform Strong Law of Large Numbers for Partial
Sum Processes of Fuzzy Random Variables Indexed by Sets, Fuzzy Sets and
Systems 99, S. 97-103.
Jiang, H. / Eastman, J.R. (2000), Application of Fuzzy Measures in Multi-Criteria
Evaluation in GIS, International Journal of Geographical Information Science 14,
S. 173-184.
Joo, S.Y. / Kim, Y.K. (2001), Kolmogorov's Strong Law of Large Numbers for Fuzzy
Random Variables, Fuzzy Sets and Systems 120, 499-503.
Kacprzyk, J. / Fedrizzi, M. [Eds.] (1988), Combining Fuzzy Imprecision with Proba-
bilistic Uncertainty in Decision Making, Lecture Notes in Economics and Mathe-
matical Systems, Vol. 310, Springer, Berlin / Heidelberg / New York.
Kacprzyk, J/Fedrizzi, M. [Eds.] (1992), Fuzzy regression analysis, Studies in Fuzzines
1, Physica Verlag, Heidelberg und Omnitech Press, Warschau.

LITERATURVERZEICHNIS
XIX
Kahlert, J. / Frank, H. (1993), Fuzzy-Logik und Fuzzy-Control. Eine anwendungsori-
entierte Einf¨
uhrung mit Begleitsoftware, Vieweg, Braunschweig / Wiesbaden.
Kandel, A. (1979), On Fuzzy Statistics, Advances in Fuzzy Set Theory and Applica-
tions 1, S. 181-199.
Kandel, A. (1988), Theory and Applications of fuzzy statistics, in: Kacprzyk, J. /
Fedrizzi, M. [Eds.], Combining Fuzzy Imprecision with Probabilistic Uncertainty
in Decision Making, Lecture Notes in Economics and Mathematical Systems, Vol.
310, Springer, Berlin / Heidelberg / New York, S. 89-112.
Karl, H. (2002), Rationales raumorientiertes Risikomanagement und Vorsorge ge-
gen¨
uber extremen Naturereignissen, in: DKKV, Extreme Naturereignisse, Son-
derver¨
offentlichung (www.dkkv.org), Bonn / Leipzig, S. 58-64.
Katsaras, A.K. / Liu, D.B. (1977), Vector Spaces and Fuzzy Topological Vector
Spaces, Journal of Mathematical Analysis and Applications 58, S. 135-146.
Kaufmann, A. / Gupta, M.M. (1991), Introduction to Fuzzy Arithemetic. Theory and
Applications, Nostrand Reinhold Company, New York.
Kendall, M.G. / Stuart, A. / Ord, J.K. (1987), Kendall's Advanced Theory of Stati-
stics, Vol. 1: Distribution Theory, 5th ed., Griffin, London [u.a.].
Kendall, M.G. / Stuart, A. / Ord, J.K. (1991), Kendall's Advanced Theory of Stati-
stics, Vol. 2: Classical Inference and Relationship, 5th ed., Griffin, London [u.a.].
Kendall, M.G. / Stuart, A. / Ord, J.K. (1994), Kendall's Advanced Theory of Stati-
stics, Vol. 2B: Bayesian Inference, 1st ed., Griffin, London [u.a.].
Kim, Y.K. (2000), A Strong Law of Large Numbers for Fuzzy Random Variables,
Fuzzy Sets and Systems 111, S. 319-323.
Kinney, J.J. (1997), Probability. An Introduction with Statistical Applications, Wiley,
New York [u.a.].
Kiureghian, A. Der / Madanat, S. / Pestana, J.M. [Eds.] (2003), Proceedings of the 9th
Int. Conference on Applications of Statistics and Probability in Civil Engineering,
San Francisco, USA, July 6-9, 2003(ICASP9), Millpress, Rotterdam.
Klement, E.P. (1982), Some Remarks on a Paper of R. R. Yager, Information Sciences
27, S. 211-220.
Klement, E.P. / Puri, M.L. / Ralescu, D.A. (1986), Limit Theorems for Fuzzy Random
Variables. Proceedings of the Royla Society of London, Series A, Vol. 870, S. 171-
182.
Klement, E.P. / Mesiar, R. / Pap, E. (1999), Bausteine der Fuzzy-Logik: t-Normen
- Eigenschaften und Darstellungss¨
atze, in: Seising, R. [Ed.], Fuzzy Theorie und
Stochastik, Vieweg, Braunschweig / Wiesbaden, S. 205-225.

XX
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Klement, E.P. / Mesiar, R. / Pap, E. (2000), Triangular norms, Trends in logic 8,
Kluwer Academic Publishers, Dordrecht [u.a.].
Knopfmacher, J. (1975), On Measures of Fuzziness, Journal of Mathematical Analysis
and Applications 49, S. 529-534.
Kosko, B. (1986), Fuzzy Entropy and Conditioning, Information Sciences 40, S. 165-
174.
orner, R. (1997), On the Variance of Fuzzy Random Variables, Fuzzy Sets and
Systems 92, S. 83-93.
orner, R. (2000), An Asymptotic -Test for the Expectation of Fuzzy Random Va-
riables, Journal of Statistical Planning and Inference 83, S. 331-346.
orner, R. / N¨
ather, W. (1998), Linear Regression with Random Fuzzy Variables:
Extended Classical Estimates, Best Linear Estimates, Least Squares Estimates,
Information Sciences 109, S. 95-118.
orner, R. / N¨
ather, W. (2002), On the Variance of Random Fuzzy Variables, in:
Bertoluzza, C. / Gil, M.A. / Ralescu, D.A. [Eds.], Statistical Modeling, Analysis
and Management of Fuzzy Data, Physica Verlag, Heidelberg, S. 25- 42.
Kr¨
atschmer, V. (2001), Unified Approach to Fuzzy Random Variables, Fuzzy Sets and
Systems 123, S. 1-9.
Kr¨
atschmer, V. (2002), Limit Theorems for Fuzzy Random Variables, Fuzzy Sets and
Systems 126, S. 253-263.
Kraut, A. (1992), On Fuzzy Data Analysis of Grey-tone Pictures, in: Bandemer, H.
[Ed.], Modelling Uncertain Data, Mathematical Research, Vol. 68, Akademie-
Verlag, Berlin, S. 115-119.
Krengel, U. (1991), Einf¨
uhrung in die Wahrscheinlichkeitstheorie und Statistik, Vieweg-
Studium 59: Aufbaukurs Mathematik, 3. Aufl., Vieweg, Braunschweig / Wiesba-
den.
Kromrey, H. (1998), Empirische Sozialforschung. Modelle und Methoden der Datener-
hebung und Datenauswertung, 8. Aufl., UTB f¨
ur Wissenschaft: Uni-Taschenb¨
ucher
1040: Sozialwissenschaften, Verlag Leske u. Budrich, Opladen.
Kruse, R. (1982), The Strong Law of Large Numbers for Fuzzy Random Variables,
Information Sciences 28, S. 233-241.
Kruse, R. (1984), Statistical Estimation with Linguistic Data, Information Sciences
33, S. 197-207.
Kruse, R. (1986), Characteristics of Linguistic Random Variables, in: Nola, A. di /
Ventre, A.G.S. [Eds.], The Mathematics of Fuzzy Systems, T ¨
UV Rheinland, K¨
oln,
S. 219-230.

LITERATURVERZEICHNIS
XXI
Kruse, R. (1987), On the Variance of Random Sets, Journal of Mathematical Analysis
and Applications 122, S. 469-473.
Kruse, R. (1992), On the Semantic Foundations of Fuzzy Probability Theory and Fuz-
zy Statistics, in: Bandemer, H. [Ed.], Modelling Uncertain Data, Mathematical
Research, Vol. 68, Akademie Verlag, Berlin, S. 131-135.
Kruse, R. / Gebhardt, J. (1988), Statistische Untersuchungen anhand von vagen Da-
ten, in: Deutsche Gesellschaft f¨
ur Operations Research, ed., Proceedings in Ope-
rations Research, Springer, Berlin / Heidelberg / Frankfurt/Main, S. 355-360.
Kruse, R. / Gebhardt, J. / Klawonn, F. (1993), Fuzzy Systeme, Teubner Verlag,
Stuttgart.
Kruse, R. / Meyer, K.D. (1987), Statistics with Vague Data, Theory and Decision
Library, Series B: Mathematical and Statistical Methods, D. Reidel Publishing
Company, Dordrecht.
Kruse, R. / Meyer, K.D. (1988), Confidence Intervals for the Parameters of a Linguistic
Variable, in: Kacprzyk, J. / Fedrizzi, M. [Eds.], Combining Fuzzy Imprecision
with Probabilistic Uncertainty in Decision Making, Lecture Notes in Economics
and Mathematical Systems, Vol. 310, Springer, Berlin / Heidelberg / New York,
S. 113-123.
Kudra, M. (1990), Comparison of Methods to Evaluate Fuzzy Parameters in Expli-
cit Functional Relationships, in: Bandemer, H. [Ed.], Applications of Fuzzy Set
Theory in Data Analysis, Freiberger Forschungshefte D197: Wirtschaftswissen-
schaften, VEB Deutscher Verlag f¨
ur Grundstoffindustrie, Leipzig, S. 43-58.
Kurano, M. / Yasuda, M. / Nakagmi, J. / Yoshida, Y. (2002), An Approach to Stop-
ping Problems of a Dynamic Fuzzy System, Fuzzy Sets and Systems 131, S.
225-233.
Kutterer, H. (2002), Joint Treatment of Random Variability and Imprecision in GPS
Data Analysis, Journal of Global Positioning Systems 1, S. 96-105.
Kwakernaak, H. (1978), Fuzzy Random Variables, I: Definitions and Theorems, In-
formation Sciences 15, S. 1-29.
Kwakernaak, H. (1979), Fuzzy Random Variables, II: Algorithms and Examples for
the Discrete Case, Information Sciences, 17, S. 253-278.
Last, M. / Schenker, A. / Kandel, A. (1999), Applying Fuzzy Hypothesis Testing to
Medical Data, in: Zhong, N. / Skowron, A. / Setsuo Ohsuga, S. [Eds.] (1999), New
Directions in Rough Sets, Data Mining, and Granular-Soft Computing, Lecture
Notes in Computer Science, Vol. 1711, Springer, Berlin / Heidelberg, S. 221-229.
Lessmann, H. / M¨
uhl¨
ogger, J. / Oberguggenberger, M. (1994), Netzplantechnik mit
unscharfen Methoden, Der Bauingenieur 69, S. 469-478.

XXII
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Li, L. (1995), Random Fuzzy Sets and Fuzzy Martingales, Fuzzy Sets and Systems
69, S. 181-192.
Li, Q.D. (1997), The Random Set and the Cutting of Random Fuzzy Sets, Fuzzy Sets
and Systems 86, S. 223-234.
Li, Q.D. / Lee, E.S. (1995), On Random -Cuts, Journal of Mathematical Analysis
and Applications 190, S. 546-558.
Li, S. / Ogura, Y., Nguyen H.T. (2001), Gaussian Processes and Martingales for Fuzzy
Valued Random Variables with Continuous Parameter, Information Sciences 133,
S. 7-21.
Liebermann, N. von/Mai, S. (2002), Sturmflutrisiko im K¨
ustenraum - ein Entschei-
dungskriterium in der Raumplanung, in: DKKV, Extreme Naturereignisse, Son-
derver¨
offentlichung (www.dkkv.org), Bonn / Leipzig, S. 85-92.
Liu, B. (2001a), Fuzzy Random Chance-Constraint Programming, IEEE Transactions
on Fuzzy Systems 9, No. 5, S. 713-720.
Liu, B. (2001b), Fuzzy Random Dependent-Chance Programming, IEEE Transactions
on Fuzzy Systems 9, No. 5, S. 721-726.
Liu, B. (2002a), Theory and practice of uncertain programming, Studies in fuzziness
and soft computing 102, Physica Verlag, Heidelberg [u.a.].
Liu, B. (2002b), Random Fuzzy Dependent-Chance Programming and its Hybrid In-
telligent Algorithm, Information Sciences 141, S. 259271.
Liu, B. (2004), Uncertainty Theory. An Introduction to its Axiomatic Foundations,
Studies in fuzziness and soft computing 154, Springer, Berlin [u.a.].
Liu, B. / Liu, Y.K. (2002a), Expected Value of Fuzzy Variable and Fuzzy Expected
Value Models, IEEE Transactions on Fuzzy Systems 10, No. 4, S. 445-450.
Liu, Y.K. / Liu, B. (2002b), Random Fuzzy Programming with Chance Measures
Defined by Fuzzy Integrals, Mathematical and Computer Modelling 36, S. 509-
524.
Liu, Y.K. / Liu, B. (2003a), Expected Value Operator of Random Fuzzy Variable and
Random Fuzzy Expected Value Models, International Journal of Uncertainty,
Fuzziness and Knowledge-Based Systems 11, No. 2, S. 195-215.
Liu, Y.K. / Liu, B. (2003b), A Class of Fuzzy Random Optimization: Expected Value
Models, Information Sciences 155, S. 89-102.
Liu, Y.K. / Liu, B. (2003c), Fuzzy Random Variables: A Scalar Expected Value Ope-
rator, Fuzzy Optimization and Decision Making 2, S. 143-160.
Lowen, R. (1976), Fuzzy Topological Spaces and Fuzzy Compactness, Journal of Ma-
thematical Analysis and Applications 56, S. 621-633.

LITERATURVERZEICHNIS
XXIII
opez-D´iaz, M. / Gil, M.A. (1997), Constructive Definitions of Fuzzy Random Varia-
bles, Statistics & Probability Letters 36, S. 135-143.
opez-D´iaz, M. / Gil, M.A. (1998), Reversing the Order of Integration in Iterated
Expectations of Fuzzy Random Variables, and Statistical Applications, Journal
of Statistical Planning and Inference 74, S. 11-29.
opez-D´iaz, M. / Gil, M.A. (1999), An Extension of Fubini's Theorem to Fuzzy Ran-
dom Variables, Information Sciences 115, S. 29-41.
Lowen, R. (1996), Fuzzy Set Theory. Basic Concepts, Techniques and Bibliography,
Kluwer Academic Publishers, Dordrecht.
Lubiano, M.A. / Gil, M.A. (2002), f -Inequality Indices for Fuzzy Random Varia-
bles, in: Bertoluzza, C. / Gil, M.A. / Ralescu, D.A. [Eds.], Statistical Modeling,
Analysis and Management of Fuzzy Data, Physica Verlag, Heidelberg, S. 43-63.
Mang, H.A. / Rammerstorfer, F.G. / Eberhardsteiner, J. [Eds.] (2002), Proceedings
of the 5th Word Congress Computational Mechanics, Vienna, Austria, July 7-12,
2002 (WCCM V), Online Publication, Vienna University of Technology, Wien.
(http://wccm.tuwien.ac.at/)
Manton, K.G. (1994), Statistical Applications Using Fuzzy Sets, Wiley series in pro-
bability and mathematical statistics, Wiley, New York [u.a.].
Marinell, G. (1987), Statistik. Entscheidungsorientierte Einf¨
uhrung, 2. Aufl., Olden-
bourg Verlag, M¨
unchen / Wien.
Marinell, G. / Seeber, G. (1993), Angewandte Statistik. Entscheidungsorientierte Me-
thoden mit PC-Programm, 3. Aufl., Oldenbourg Verlag, M¨
unchen / Wien.
Markau, H.J. / Reese, S. (2002), Naturgefahr und Risikobetrachtung: Sturmflutgef¨
ahr-
dung in den K¨
ustenniederungen Schleswig-Holsteins, in: DKKV, Extreme Natur-
ereignisse, Sonderver¨
offentlichung (www.dkkv.org), Bonn / Leipzig, S. 78-84.
Matheron, G. (1975), Random Sets and Integral Geometry, Wiley Series in Probability
and Mathematical Statistics, Wiley, New York.
Mayntz, R. / Holm, K. / H¨
ubner, P. (1978), Einf¨
uhrung in die Methoden der empi-
rischen Soziologie, 5. Aufl., Westdeutscher Verlag, Opladen.
Men´
endez, M.L. (1998), The Minimum -Divergence Estimates with Fuzzy Observa-
tions: Statistical Applications, Fuzzy Sets and Systems 96, S. 101-109.
Menger, K. (1951), Ensembles flous et fonctions al´
eatoires, Comptes Rendus de l'Aca-
emie de Sciences Paris 232, S. 2001-2003.
Mertsch, S. (2004), Risikomanagement als Konzept zur Risikominderung am Beispiel
der ¨
uberflutungsgef¨
ahrdeten R¨
aume Schleswig-Holsteins, Sonderver¨
offentlichung
des DKKV, Universit¨
at Karlsruhe.
(http://www.dkkv.org/DE/publications/ressource.asp?ID=86)

XXIV
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Mignotte, M. / Collet, C. / P´
erez, P. / Bouthemy, P. (2000), Markov Random Field
and Fuzzy Logic Modeling in Sonar Imagery: Application to the Classification of
Underwater Floor, Computer Vision and Image Understanding 79, S. 424.
Mißler-Behr, M. / Lechner, W. (1996), Grundelemente der Fuzzy-Set-Theorie, Arbeits-
papiere zur mathematischen Wirtschaftsforschung, Heft 148, hg. v. Institut f¨
ur
Statistik und Mathematische Wirtschaftstheorie, Universit¨
at Augsburg.
Miyakoshi, M. / Shimbo, M. (1984), A Strong Law of Large Numbers for Fuzzy
Random Variables, Fuzzy Sets and Systems 12, S. 133-142.
Mock, R. (2001), Moderne Methoden zur Risikobewertung komplexer Systeme, DISP
- Interdisziplin¨
are Plaungszeitschrift des Netzwerks Stadt und Landschaft an der
ETH Z¨
urich - Vol. 144, S. 39-44.
(http://www.nsl.ethz.ch/index.php/content/download/365/2315/file/)
oller, B. (2004), Fuzzy Randomness - a Contribution to Imprecise Probability, Zeit-
schrift f¨
ur Angewandte Mathematik und Mechanik 84, No. 10-11, S. 754-764.
oller, B. / Beer, M. (2004), Fuzzy Randomness. Uncertainty in Civil Engineering
and Computational Mechanics, Springer, Berlin / Heidlberg / New York.
oller, B. / Beer, M. / Graf, W. / Sickert, J.U. (2006), Time-Dependent Reliability of
Textile-Strengthened RC Structures under Consideration of Fuzzy Randomness,
Computers and Structures 84, S. 585-603.
oller, B. / Graf, W. / Beer, M. (2003), Safety Assessment of Structures in View of
Fuzzy Randomness, Computers and Structures 81, S. 1567-1582.
oller, B. / Graf, W. / Beer, M. / Sickert, J.U. (2001), Fuzzy Probabilistic Method
and its Application for the Saftey Assessment of Structures, Contribution to the
European Conference on Computational Mechanics, Cracow, Poland, June 26-29,
2001 (ECCM-2001).
(http://www.gtsav.gatech.edu/rec/shortcourses/moeller/Fuzzy%20Randomness-
%20Safety%20Assessment.pdf)
oller, B. / Graf, W. / Beer, M. / Sickert, J.U. (2002), Fuzzy Randomess - To-
wards a New Modeling of Uncertainty, in: Mang, H.A. / Rammerstorfer, F.G. /
Eberhardsteiner, J. [Eds.], Proceedings of the 5th Word Congress Computational
Mechanics (WCCM V), Online Publication, Vienna University of Technology,
Wien. (http://wccm.tuwien.ac.at/publications/Papers/fp80170.pdf)
Montenegro, M. / Casals, M.R. / Lubiano, M.A. / Gil, M.A. (2001), Two-Sample
Hypothesis Tests of Means of a Fuzzy Random Variable, Information Sciences
133, S. 89-100.
Montenegro, M. / Colubi, A. / Casals, M.R. / Gil, M.A. (2004), Asymptotic and Boot-
strap Techniques for Testing the Expected Value of a Fuzzy Random Variable,
Metrika 59, S. 31-49.

LITERATURVERZEICHNIS
XXV
Mudelsee, M. / B¨
orngen, M. / Tetzlaff, G. / Feck-Yao, W. (2002), Towards Predic-
ting Catastrophic Flood Events: an Analysis of Historical Data of Rivers Elbe and
Oder, in: DKKV, Extreme Naturereignisse, Sonderver¨
offentlichung (www.dkkv.org),
Bonn / Leipzig, S. 103-111.
uller, P.H. [Ed.](1991), Wahrscheinlichkeitsrechnung und mathematische Statistik -
Lexikon der Stochastik, 5. Aufl., Akademie Verlag, Berlin.
uller-Navarra, S. (2002), Zur Vorhersage schwerer Sturmfluten an der deutschen
Nordseek¨
uste, in: DKKV, Extreme Naturereignisse, Sonderver¨
offentlichung
(www.dkkv.org), Bonn / Leipzig, S. 34-42.
Nahmias, S. (1979), Fuzzy Variables in a Random Environment, in: Gupta, M.M. et
al. [Eds.], Advances in Fuzzy Set Theory and Applications, Kluwer Academic
Publishers, Amsterdam, S. 165-180.
ather, W. (1990), Inference on a Class of Decomposable Measures, in: Bandemer, H.
[Ed.], Applications of Fuzzy Set Theory in Data Analysis, Freiberger Forschungs-
hefte D197: Wirtschaftswissenschaften, VEB Deutscher Verlag f¨
ur Grundstoffin-
dustrie, Leipzig, S. 69-77.
ather, W. (2000), On Random Fuzzy Variables of Second Order and their Applica-
tion to Linear Statistical Inference with Fuzzy Data, Metrika 51, S. 201-221.
ather, W. (2001), Random Fuzzy Variables of Second Order and Applications to
Statistical Inference, Information Sciences 133, S. 69-88.
ather, W. / Albrecht, M. (1988), Fuzzy Model Fitting Based on the Truth of the
Model, in: Bandemer, H. [Ed.], Applications of Fuzzy Set Theory in Data Analy-
sis, Freiberger Forschungshefte D187: Wirtschaftswissenschaften, VEB Deutscher
Verlag f¨
ur Grundstoffindustrie, Leipzig, S. 78-97.
ather, W. / Welle, B. (1990), Linear Operations with Fuzzy Vectors, in: Bandemer,
H. [Ed.], Applications of Fuzzy Set Theory in Data Analysis, Freiberger For-
schungshefte D197: Wirtschaftswissenschaften, VEB Deutscher Verlag f¨
ur Grund-
stoffindustrie, Leipzig, S. 59-68.
Niculescu, S.P. / Viertl, R. (1992a), A Comparison between Two Fuzzy Estimators
for the Mean, Fuzzy Sets and Systems 48, S. 342-350.
Niculescu, S.P. / Viertl, R. (1992b), A Fuzzy Extension of Bernoulli's Law of Large
Numbers, Fuzzy Sets and Systems 50, S. 167-173.
Nguyen, H.T. / Rogers, G.S. (1989a), Fundamentals of mathematical statistics, Vol
I: Probability for statistics, Springer texts in statistics, Springer, New York /
Berlin.
Nguyen, H.T. / Rogers, G.S. (1989b), Fundamentals of mathematical statistics, Vol
II: Statistical inference, Springer texts in statistics, Springer, New York / Berlin.

XXVI
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Nola, A. di / Ventre, A.G.S. [Eds.] (1986), The Mathematics of Fuzzy Systems, T ¨
UV
Rheinland, K¨
oln.
Nov´
ak, V. (1989), Fuzzy Sets and their Applications, aus dem Tschechischen ins
Englische ¨
ubersetzt, Hilger, Bristol / Philadelphia.
Nussbaumer, J. (1998), Die Gewalt der Natur. Eine Chronik der Naturkatastrophen
von 1500 bis heute, Edition Sandkorn, Gr¨
unbach.
Nussbaumer, J. / Winkler, H. (1996), Wird die Natur gewaltt¨
atiger? Die Bilanz
der letzten hundert Jahre. Empirische Implikationen zur Naturkatastrophenfor-
schung, Institut f¨
ur Wirtschaftstheorie, Wirtschaftspolitik und Wirtschaftsge-
schichte, Universit¨
at Innsbruck, Diskussionsbeitr¨
age.
Oberguggenberger, M. (1997), Fuzzy Differential Equations, in: Troch, I. / Breiten-
ecker F. [Eds.], Proceedings of IMACS 2nd Symposium on Mathematical Model-
ling (MATHMOD'97), ARGESIM Report 11, S. 75-80.
Oberguggenberger, M. (2000), Fuzzy Logik, Statistik, Risiko und Unsch¨
arfe. Kurzre-
ferat zum Workshop Alpine Sicherheit - Naturgefahrenmanagement, Universit¨
at
Innsbruck, Juni 2000, Preprint Series 6-2000, Institut f¨
ur Technische Mathema-
tik, Geometrie und Bauinformatik, Universit¨
at Innsbruck.
(http://techmath.uibk.ac.at/mathematik/publikationen/00-6.doc)
Oberguggenberger, M. (2003a), Fuzzy-Logik - Was ist das?, Preprint Series 5-2003,
Institut f¨
ur Technische Mathematik, Geometrie und Bauinformatik, Universit¨
at
Innsbruck.
(http://techmath.uibk.ac.at/mathematik/publikationen/03-5.pdf)
Oberguggenberger, M. (2003b), Fuzzy and Weak Solutions to Differential Equations,
Preprint Series 7-2003, Institut f¨
ur Technische Mathematik, Geometrie und Bau-
informatik, Universit¨
at Innsbruck.
(http://techmath.uibk.ac.at/mathematik/publikationen/03-7.ps)
Oberguggenberger, M. / Pittschman, S. (1999), Differential Equations with Fuzzy
Parameters, Mathematical and Computer Modelling of Dynamical Systems 5, S.
181-202.
Oberguggenberger, M. / Russo, F. (2001), Fuzzy, Probabilistic and Stochastic Model-
ling of an Elastically Bedded Beam, in: Cooman, G. de / Fine, T. / Seidenfeld, T.
[Eds.], Proceedings of the Second International Symposium on Imprecise Proba-
bilities and Their Applications (ISIPTA'01), Shaker Publishing BV, Maastricht,
S. 293-300.
Ogura, Y. / Li, S. (2001), Separability for Graph Convergence of Sequences of Fuzzy-
Valued Random Variables, Fuzzy Sets and Systems 123, S. 19-27.
¨
Ozdamar, L. / Demirhan , M. / ¨
Ozpinar, A. (1999), A Comparison of Spatial Inter-
polation Methods and a Fuzzy Areal Evaluation Scheme in Environmental Site
Characterization, Computers, Environment and Urban Systems 23, S. 399-422.

LITERATURVERZEICHNIS
XXVII
Pal, N.R. / Pal, S.K. (1992), Higher Order Fuzzy Entropy and Hybrid Entropy of a
Set, Information Sciences 61, S. 211-213.
Pal, N.R. / Sugeno, M. [Eds.] (2002), Advances in Soft Computing. Proceedings of
the International Conference on Fuzzy Systems (AFSS 2002), Calcutta, India,
February 3-6, 2002, Lecture Notes in Computer Science, Vol. 2275, Springer,
Berlin / Heidelberg.
Peyke, G. / Wolf, W. (1999), Genauere Aussagen in der Geographie durch Betrach-
tung der Unsch¨
arfe - Pl¨
adoyer f¨
ur eine vermehrte Anwendung der Fuzzy-Theorie,
in: Schultz, H.D. [Ed.], Quodlibet Geographicum - Einblicke in unsere Arbeit,
Berliner Geographische Arbeiten 90, Akademie-Verlag, Berlin, S. 159-179.
Pfeifer, A. (1998), Fr¨
uherkennung von Unternehmensinsolvenzen auf Basis handels-
rechtlicher Jahresabschl¨
usse. Ein Beitrag zur Entstehung, Anwendung und Wei-
terentwicklung mathematisch-statistischer Verfahren der Kreditw¨
urdigkeitsana-
lyse, Europ¨
aische Hochschulschriften, Reihe 5: Volks- und Betriebswirtschaft, Bd.
2330, Verlag Lang, Franktfurt am Main.
Popova, E. / Wu, H.C. (1999), Renewal Reward Processes with Fuzzy Rewards and
their Applications to T-age Replacement Policies, European Journal of Opera-
tional Research 117, 606-617.
Pratt, J.W. / Raiffa, H. / Schlaifer, R. (1995), Introduction to statistical decision
theory, MIT Press, Cambridge [u.a.].
Presman, E.L. / Sonin, I.N. (1990), Sequential Control with Incomplete Informati-
on. The Bayesian Approach to Multi-armed Bandit Problems, Academic Press,
London [u.a.].
Proske, F.N. / Puri, M.L. (2002), Strong Law of Large Numbers for Banach Space
Valued Fuzzy Random Variables, Journal of Theoretical Probability 15, S. 543-
551.
Puri, M.L. / Ralescu, D.A. (1986), Fuzzy Random Variables, Journal of Mathematical
Analysis and Applications 114, S. 409-422.
Puyin, L. (1997), Fuzzy-Valued Markov Processes and their Properties, Fuzzy Sets
and Systems 91, S. 45-52.
Ragade, R.K. (1976), Fuzzy Games in the Analysis of Options, Cybernetics 6, S.
213-221.
Ralescu, A.L. / Ralescu, D.A. (1984), Probability and Fuzziness, Information Sciences
34, S. 85-92.
Ram´ik, J. (1992), Inequality Relations Between Fuzzy Data, in: Bandemer, H. [Ed.],
Modelling Uncertain Data, Mathematical Research, Vol. 68, Akademie Verlag,
Berlin, S. 142-152.

XXVIII
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Rao, R.R. / Srinivas, V.V. (2006), Regionalization of Watersheds by Fuzzy Cluster
Analysis, Journal of Hydrology 318, S. 57-79.
Redden, D.T. / Woodall, W.H. (1996), Further Examination of Fuzzy Linear Regres-
sion, Fuzzy Sets and Systems 79, S. 203-211.
Robert, C.P. (2001), The Bayesian Choice. From Decision-Theoretic Foundations to
Computational Implementation, 2nd ed., Springer, New York [u.a.].
Rodr´iguez-Mu~
niz, L.J. (2002), Several Notions of Differentiability for Fuzzy Set Va-
lued Mappings, in: Bertoluzza, C. / Gil, M.A. / Ralescu, D.A. [Eds.], Statistical
Modeling, Analysis and Management of Fuzzy Data, Physica Verlag, Heidelberg,
S. 104-116.
Rommelfanger, H. (1992), Fuzzy-Mathematical Programming. Modelling of Vague
Data by Fuzzy Sets and Solution Procedures, in: Bandemer, H. [Ed.], Modelling
Uncertain Data, Mathematical Research, Vol. 68, Akademie Verlag, Berlin, S.
158-162.
Rommelfanger, H. (1994), Fuzzy Decision Support-Systeme. Entscheiden bei Unsch¨
arfe,
2. Aufl., Springer, Berlin / Heidelberg.
Rommelfanger, H. (1997), Regelbasierte Entscheidungsunterst¨
utzung mit Fuzzy-Logik,
in: Biethahn, J. et al. [Eds.], Fuzzy-Set-Theorie in betriebswirtschaftlichen An-
wendungen, Vahlen, M¨
unchen, S. 175-189.
Rosenfeld, A. (1971), Fuzzy Groups, Journal of Mathematical Analysis and Applica-
tions 35, S. 512-517.
Rosenfeld, A. (1975), Fuzzy Graphs, in: Zadeh, L.A. et al. [Eds.], Fuzzy Sets and their
Applications to Cognitive and Decision Processes, Academic Press, New York /
San Francisco / London, 77-95.
odder, W. / Zimmermann, H. (1977), Analyse, Beschreibung und Optimierung von
unscharf formulierten Problemen, Zeitschrift f¨
ur Operations Research 21, S. 1-18.
omer, C. / Kandel, A. (1995), Statistical Tests for Fuzzy Data, Fuzzy Sets and
Systems 72, S. 1-26.
Ruan, D. / Kacprzyk, J. / Fedrizzi, M. [Eds.] (2001), Soft Computing for Risk Eva-
luation and Management, Applications in Technology, Environment and Finance,
Studies in Fuzziness and Soft Computing, Vol. 76, Physica Verlag, Heidelberg.
Runkler, T.A. (1999), Probabilistische und Fuzzy-Methoden f¨
ur die Clusteranaly-
se, in: Seising, R. [Ed.], Fuzzy Theorie und Stochastik, Vieweg, Braunschweig /
Wiesbaden, S. 355-369.
Sakawa, M. / Yano, H. (1992), Fuzzy Linear Regression Analysis for Fuzzy Input-
Output Data, Information Sciences 63, S. 191-206.

LITERATURVERZEICHNIS
XXIX
Sandbrink, C. (1997), Der Einsatz von Fuzzy-Clusterverfahren im Rahmen der Ent-
wicklung mikrogeographischer Marktsegmentierungssysteme, in: Biethahn, J. et
al. [Eds.], Fuzzy-Set-Theorie in betriebswirtschaftlichen Anwendungen, Vahlen,
unchen, S. 273-285.
Savas, E. (2001), On Statistically Convergent Sequences of Fuzzy Numbers, Informa-
tion Scinces 137, 277-288.
Scheffels, R. (1996), Fuzzy-Logik in der Jahresabschlusspr¨
ufung. Entwicklung eines
wissensbasierten Systems zur Analyse der Verm¨
ogens-, Finanz- und Ertragslage,
Gabler, Wiesbaden.
Schmerling, S. / Bandemer, H. (1990), Estimation of Functional Connections from
Fuzzy Observations, in: Bandemer, H. [Ed.], Applications of Fuzzy Set Theory
in Data Analysis, Freiberger Forschungshefte D197: Wirtschaftswissenschaften,
VEB Deutscher Verlag f¨
ur Grundstoffindustrie, Leipzig, S. 27-42.
Schneeweiß, C. (1991), Planung 1: Systemanalytische und entscheidungstheoretische
Grundlagen, Springer, Berlin.
Schulte, U. (1993), Einf¨
uhrung in Fuzzy-Logik. Fortschritt durch Unsch¨
arfe, Francis',
unchen.
Schultz, H.D. [Ed.] (1999), Quodlibet Geographicum - Einblicke in unsere Arbeit,
Berliner Geographische Arbeiten 90, Akademie-Verlag, Berlin.
Seising, R. [Ed.] (1999), Fuzzy Theorie und Stochastik. Modelle und Anwendungen in
der Diskussion, Vieweg, Braunschweig / Wiesbaden.
Shafer, G. (1976), A Mathematical Theory of Evidence, Princeton University Press,
Princeton / New York.
Shafer, G. (1987), Belief Functions and Possibility Measures, in: Bezdek, J.C. [Ed.],
Analysis of Fuzzy Information, CRC Press, Boca Raton, Florida, S. 52-84.
Sickert, J.U. / Beer, M. / Graf, W. / M¨
oller, B. (2003), Fuzzy Probabilistic Struc-
tural Analysis Considering Fuzzy Random Functions, in: Der Kiureghian, A. /
Madanat, S. / Pestana, J.M. [Eds.], Proceedings of the 9th Int. Conference on Ap-
plications of Statistics and Probability in Civil Engineering (ICASP9), Millpress,
Rotterdam, S. 379-386.
Sickert, J.U. / Graf, W. / Reuter, U. (2005), Application of Fuzzy Randomness to
Time-Dependent Reliability, in: Augusti, G. / Schueller, G.I. / Ciampoli, M.
[Eds.], Safety and Reliability of Engineering Systems and Structures. Procee-
dings of the 9th International Conference on Structural Safety and Reliability
(ICOSSAR'05), Millpress, Rotterdam, S. 1709-1716.
Siegmund, D. (1985), Sequential Analysis. Tests and Confidence Intervals, Springer
series in statistics, Springer, New York [u.a.].

XXX
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Starks, S.A. / Kreinovich, V. / Longpr´
e, L. / Ceberio, M. / Xiang, G. / Araiza, R.
/ Beck, J. / Kandathi, R. / Nayak, A. / Torres, R. (2004), Towards Combining
Probabilistic and Interval Uncertainty in Engineering Calculations, University of
Texas at El Paso, Department of Computer Science.
(http://www.cs.utep.edu/vladik/2004/tr04-20.pdf)
Stein, C. (1945), A Two-Sample Test for a Linear Hypothesis Whose Power is Inde-
pendent of the Variance, Annals of Mathematical Statistics 16, S. 243-258.
Stein, W.E. / Talati, K. (1981), Convex Fuzzy Random Variables, Fuzzy Sets and
Systems 6, S. 271-283.
Stoyan, D. / Kendall, W.S. / Mecke, J. (1987), Stochastic Geometry and its Applica-
tions, Wiley series in probability and mathematical statistics, Wiley, Chichester.
Taheri, S.M. (2003), Trends in Fuzzy Statistics, Austrian Journal of Statistics 32, No.
3, S. 239-257.
Taheri, S.M. / Behboodian, J. (1999), Neyman-Pearson Lemma for Fuzzy Hypotheses
Testing, Metrika 49, S. 3-17.
Taheri, S.M. / Behboodian, J. (2001), A Bayesian Approach to Fuzzy Hypotheses
Testing, Fuzzy Sets and Systems 123, S. 39-48.
Taheri, S.M. / Behboodian, J. (2002), Fuzzy Hypotheses Testing with Fuzzy Data: A
Bayesian Approach, in: Pal, N.R. / Sugeno, M. [Eds.], Advances in Soft Compu-
ting, Springer, Berlin / Heidelberg, S. 527-533.
Tamaki, F. / Kanagawa, A. / Ohta, H. (1998), Identification of Membership Functions
Based on Fuzzy Observation Data, Fuzzy Sets and Systems 93, S. 311-318.
Tao, C.W. (2002), Unsupervised Fuzzy Clustering with Multi-Center Clusters, Fuzzy
Sets and Systems 128, S.305-322.
Taylor, R.L. / Seymour, L. / Chen, Y. (2001), Weak Laws of Large Numbers for Fuzzy
Random Sets, Nonlinear Analysis 47, S. 1245-1256.
Ter´
an, P. / L´
opez-D´iaz, M. (2001), On Bernstein Approximants and the -Variation
of a Fuzzy Random Variable, Information Sciences 133, S. 39-67.
Ter´
an, P. (2006), A Note on Yoshida's Optimal Stopping Model for Option Pricing,
European Journal of Operational Research 170, S. 672-676.
Terveer, I. (1995), Cost-Optimal Multistage Sampling Plans in Statistical Quality
Control, Mathematical Methods of Operations Research 41, S. 359-380.
Tilly, T. (1993), Fuzzy-Logik, 3. Aufl., Francis', M¨
unchen.
Thompson, E.A. / Geyer, C.J. (2005), Fuzzy p-Values in Latent Variable Problems,
University of Washington, Department of Statistics.
(http://www.stat.washington.edu/www/research/reports/2005/tr481.pdf)

LITERATURVERZEICHNIS
XXXI
Torabi, H. / Behboodian, J. (2005), Sequential Probability Ratio Test for Fuzzy Hy-
potheses Testing with Vague Data, Austrian Journal of Statistics 34, No. 1, S.
25-38.
Traeger, D.H. (1993), Einf¨
uhrung in die Fuzzy-Logik, Teubner, Stuttgart.
Tran, L.T. / Duckstein, L. (2002a), Multiobjective Fuzzy Regression with Central
Tendency and Possibilistic Properties, Fuzzy Sets and Systems 130, S. 21-31.
Tran, L.T. / Duckstein, L. (2002b), Comparison of Fuzzy Numbers Using a Fuzzy
Distance Measure, Fuzzy Sets and Systems 130, S. 331-341.
Tran, L.T. / Knight, C.G. / O'Neill, R.V. / Smith, E.R. / Ritters, K.H. / Wickham,
J. (2002), Fuzzy Decision Analysis for Integrated Environmental Vulnerability
Assessment of the Mid-Atlantic Region, Environmental Assessment 29, S. 845-
859.
Troch, I. / Breitenecker, F. [Eds.] (1997), Proceedings of 2nd IMACS Symposium on
Mathematical Modelling, (MATHMOD'97), Vienna, Austria, February 5-7, 1997,
ARGESIM Report 11, Wien.
Universit¨
at Stuttgart [Ed.] (2003), Wechselwirkungen - Jahrbuch 2002 aus Lehre und
Forschung der Universit¨
at Stuttgart.
(http://www.uni-stuttgart.de/wechselwirkungen/ww2002/)
Vernieuwe, H. / Georgieva, O. / Baets, B. De/ Pauwels, V.R.N. / Verhoest, N.E.C.
/ Troch, F.P. De (2005), Comparison of Data-Driven Takagi-Sugeno Models of
Rainfall-Discharge Dynamics, Journal of Hydrology 302, S. 173-186.
Viertl, R. (1987), Is It Necessary to Develop a Fuzzy-Bayesian Inference?, in: Viertl,
R. [Ed.], Probability and Bayesian Statistics, Plenum Press, New York / London,
S. 471-475.
Viertl, R. [Ed.] (1987), Probability and Bayesian Statistics. Based on the Proceedings
of the International Symposium on Probability and Bayesian Statistics, held Sep-
tember 23-26, 1986, in Innsbruck, Austria, Plenum Press, New York / London.
Viertl, R. (1989), Estimation of the Reliability Function using Fuzzy Life Time Data,
in: Bose, B.K. et al. [Eds.], Quality for Progress and Development, Wiley Eastern,
New Dehli, S. 679-682.
Viertl, R. (1992), On Statistical Inference Based on Non-Precise Data, in: Bandemer,
H. [Ed.], Modelling Uncertain Data, Mathematical Research, Vol. 68, Akademie
Verlag, Berlin, S. 121-130.
Viertl, R. (1996), Statistical Methods for Non-Precise Data, CRC-Press, Boca Raton,
Florida, [u.a.].
Viertl, R. (1997), On Statistical Inference for Non-Precise Data, Environmetrics 8, S.
541-568.

XXXII
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Viertl, R. (1999a), On Fuzzy Predictive Densities, Tatra Mountains Mathematical
Publications 16, S. 379-382.
Viertl, R. (1999b), Fuzzy Daten und Stochastik, in: Seising, R. [Ed.], Fuzzy Theorie
und Stochastik, Vieweg, Braunschweig / Wiesbaden, S. 244-250.
Viertl, R. (2001a), Unscharfe Daten als Grundlage f¨
ur Nachhaltigkeitsindikatoren,
Vortrag bei der Statistischen Woche 2001 der Deutschen Statistischen Gesell-
schaft, 24.-27.September 2001, Dortmund.
(http://www.dstatg.de/archiv/StaWo2001 Viertl.pdf)
Viertl, R. (2001b), Description and Analysis of Fuzzy Data, in: Carosio, A. / Kutterer,
H. [Eds.], Robust Statistics and Fuzzy Techniques in Geodesy and GIS, Institut
ur Geod¨
asie und Photogrammetrie, ETH Z¨
urich, S. 19-24.
(http://www.dgfi.badw.de/ssg4.190/zurich papers/chapter 03.ps)
Viertl, R. (2002a), Allgemeine Informationstheorie und Statistik, in: Festschrift 50
Jahre ¨
Osterreichische Statistische Gesellschaft, ¨
OSG, Wien, S. 105-114.
Viertl, R. (2002b), On the Future of Data Analysis, Austrian Journal of Statistics 31,
No. 2&3, S. 241-244.
Viertl, R. (2002c), On the Description and Analysis of Measurements of Continuous
Quantities, Kybernetika 38, No. 3, S. 353-362.
Viertl, R. (2002d), Statistics with One-Dimensional Fuzzy Data, in: Bertoluzza, C. /
Gil, M.A. / Ralescu, D.A. [Eds.], Statistical Modeling, Analysis and Management
of Fuzzy Data, Physica Verlag, Heidelberg, S. 199-212.
Viertl, R. (2003), Einf¨
uhrung in die Stochastik. Mit Elementen der Bayes-Statistik
und der Analyse unscharfer Infromation, 3. Aufl., Springer, Wien / New York.
Viertl, R. (2004), Unscharfe Daten, in: Voß, W. [Ed.], Taschenbuch der Statistik,
Hanser Verlag, M¨
unchen, S. 645-672.
Viertl, R. / Hareter, D. (2004a), Generalized Bayes' Theorem for Non-Precise A-priori
Distribution, Metrika 59, S. 263-273.
Viertl, R. / Hareter, D. (2004b), Fuzzy Information and Stochastics, Iranian Journal
of Fuzzy Sytems 1, No. 1, S. 43-56.
Viertl, R. / Hareter, D. (2004c), Fuzzy Information and Imprecise Probability, Zeit-
schrift f¨
ur Angewandte Mathematik und Mechanik 84, No. 10-11, S. 731-739.
Viertl, R. / Hareter, D. (2006), Beschreibung und Analyse unscharfer Information.
Statistische Methoden f¨
ur unscharfe Daten, Springer, Wien / New York.
Viertl, R. / Hule, H. (1991), On Bayes' Theorem for Fuzzy Data, Statistical Papers
32, S. 115-122.
Vogt, H. (1988), Methoden der statistischen Qualit¨
atskontrolle, Teubner, Stuttgart.

LITERATURVERZEICHNIS
XXXIII
Voß, W. [Ed.] (2004), Taschenbuch der Statistik, Hanser Verlag, 2. Aufl., M¨
unchen.
Wagner, U. (2002), Risikoabsch¨
atzung mit Fuzzy Methoden, in: DKKV, Extreme
Naturereignisse, Sonderver¨
offentlichung (www.dkkv.org), Bonn / Leipzig, S. 242-
247.
Wagner, U. (2003), Entscheidungsfindung mit unscharfen Mengen, Shaker, Aachen.
Wald, A. (1944), On Cumulative Sums of Random Variables, Annals of Mathematical
Statistics 15, S. 283-296.
Wald, A. (1945), Sequential Tests of Statistical Hypotheses, Annals of Mathematical
Statistics 16, S. 117-186.
Wald, A. (1947a), Sequential Analysis, Wiley series in probability and mathematical
statistics , Wiley, New York, 2nd print. 1948.
Wald, A. (1947b), Foundations of a General Theory of Sequential Decision Functions,
Econometrica 15, S. 279-314.
Wald, A. (1948a), Some Improvements in Setting Limits for the Expected Number of
Observations Required by a Sequential Probability Ratio Test, Annals of Mathe-
matical Statistics 17, S. 466-474.
Wald, A. (1948b), Differentiation Under the Expectation Sign in the Fundamental
Identity of Sequential Analysis, Annals of Mathematical Statistics 17, S. 493-
497.
Wald, A. (1950), Statistical Decision Functions, Wiley publications in statistics, Wiley,
New York / London, 3rd print. 1958.
Wald, A. / Wolfowitz, J. (1948), Optimum Character of the Sequential Probabiliy
Ratio Test, Annals of Mathematical Statistics 19, S. 326-339.
Wald, A. / Wolfowitz, J. (1950), Bayes Solutions of Sequential Decision Problems,
Annals of Mathematical Statistics 21, S. 82-99.
Wang, A.P. / Cheng, B.W. (1999), Fuzzy Decision Analysis in Reservoir Operation
during Flood Period, Journal of Chinese Fuzzy Systems Association 5, S. 35-44.
Wang, D. (2004), A Note at the Consistency and Unbiasedness of Point Estimation
with Fuzzy Data, Metrika 60, S. 93-104.
Wang, F. / Hall, G.B. (1996), Fuzzy Representation of Geographical Boundaries in
GIS, Geographical Information Systems 10, S. 573-590.
Wang, H.F. / Tsaur, R.C. (2000), Resolution of Fuzzy Regression Model, European
Journal of Operational Research 128, S. 637-650.
Wang, Z. / Klir, G. (1992), Fuzzy Measure Theory, Plenum Press, New York / London.

XXXIV
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Watanabe, N. / Imaizumi, T. (1993), A Fuzzy Statistical Test of Fuzzy Hypotheses,
Fuzzy Sets and Systems 53, S. 167-178.
Wetherill, G.B. (1975), Sequential Methods in Statistics, 2nd ed., Chapman & Hall,
London [u.a.].
Wolfowitz, J. (1947), The Efficiency of Sequential Estimates and Wald's Equation for
Sequential Processes, Annals of Mathematical Statistics 18, S. 215-230.
Wong, C.K. (1975), Fuzzy Topology, in: Zadeh, L.A. et al. [Eds.], Fuzzy Sets and their
Applications to Cognitive and Decision Processes, Academic Press, New York /
San Francisco / London, S. 171-190.
Wu, H.C. (1997), Intelligent System: Fuzzy Reliability Analysis Based on Closed Fuzzy
Numbers, Information Sciences 103, 135-159.
Wu, H.C. (1998), The Improper Fuzzy Riemann Integral and its Numerical Integra-
tion, Information Sciences 111, S. 109-137.
Wu, H.C. (1999a), Probability Density Functions of Fuzzy Random Variables, Fuzzy
Sets and Systems 105, S. 139-158.
Wu, H.C. (1999b), Central Limit Theorems for Fuzzy Random Variables, Information
Sciences 120, S. 239-256.
Wu, H.C. (2003a), The Fuzzy Estimators of Fuzzy Parameters Based on Fuzzy Ran-
dom Variables, European Journal of Operational Research 146, S. 101-114.
Wu, H.C. (2003b), Fuzzy Estimates of Regression Rarameters in Linear Regression
Models for Imprecise Input and Output Data, Computational Statistics & Data
Analysis 42, S. 203-217.
Wu, H.C. (2003c), Linear Regression Analysis for Fuzzy Input and Output Data
Using the Extension Principle, Computers & Mathematics with Applications 45,
S. 1849-1859.
Wu, H.C. (2004a), Bayesian System Reliability Assessment under Fuzzy Environ-
ments, Reliability Engineering & System Safety 83, S. 277-286.
Wu, H.C. (2004b), Fuzzy Reliability Estimation Using Bayesian Approach, Computers
& Industrial Engineering 46, S. 467-493.
Wu, H.C. (2005), Statistical Hypotheses Testing for Fuzzy Data, Information Sciences
175, S. 30-56.
unsche, A. / N¨
ather, W. (2002), Least-squares Fuzzy Regression with Fuzzy Ran-
dom Variables, Fuzzy Sets and Systems 130, S. 43-50.
Yager, R.R. (1979), A Note on Probabilities of Fuzzy Events, Information Sciences
18, S. 113-122.

LITERATURVERZEICHNIS
XXXV
Yager, R.R. (1981), A Procedure for Ordering Fuzzy Subsets of the Unit Interval,
Information Sciences 24, S. 143-161.
Yager, R.R. (1982), Generalized Probabilities of Fuzzy Events from Fuzzy Belief Struc-
tures, Information Sciences 28, S. 45-62.
Yager, R.R. (1984a), A Representation of the Probability of a Fuzzy Set, Fuzzy Sets
and Systems 13, S. 273-283.
Yager, R.R. (1984b), Probabilities from Fuzzy Observations, Information Sciences 32,
S. 1-31.
Yang, M.S. / Shih, H.M. (2002), Cluster Analysis Based on Fuzzy Relations, Fuzzy
Sets and Systems 120, S. 197-212.
Yao, C.M. / Hwang, J.S. (1996), Point Estimation for the n Sizes of Random Sample
with One Vage Data, Fuzzy Sets and Systems 80, S. 205-215.
Yao, J.S. / Wu, K. (2000), Ranking Fuzzy Numbers Based on Decomposition Principle
and Signed Distance, Fuzzy Sets and Systems 116, S. 275-288.
Yeh, R.T. / Bang, S.Y. (1975), Fuzzy Relations, Fuzzy Graphs and their Applicati-
ons to Clustering Analysis, in: Zadeh, L.A. et al. [Eds.], Fuzzy Sets and Their
Applications to Cognitive and Decision Processes, Academic Press, New York /
San Francisco / London, S. 125-149.
Yen, K.K. / Ghoshray, S. / Roig, G. (1999), A Linear Regression Model Using Trian-
gular Fuzzy Number Coefficients, Fuzzy Sets and Systems 106, S. 167-177.
Yoshida, Y. (1996), An Optimal Stopping Problem in Dynamic Fuzzy Systems with
Fuzzy Rewards, Computers & Mathematics with Applications 32, S. 17-28.
Yoshida, Y. (1999), A Stopping Game in a Stochastic and Fuzzy Environment, Ma-
thematical and Computer Modelling 30, S. 147-158.
Yoshida, Y. (2002), Optimal Stopping Models in a Stochastic and Fuzzy Environment,
Information Sciences 142, S. 89-101.
Yoshida, Y. / Yasuda, M. / Nakagami, J. / Kurano, M. (2000), Optimal Stopping
Problems in a Stochastic and Fuzzy System, Journal of Mathematical Analysis
and Applications 246, S. 135-149.
Zadeh, L.A. (1965), Fuzzy Sets, Information and Control 8, S. 338-353.
Zadeh, L.A. (1968), Probabilility Measures of Fuzzy Events, Journal of Mathematical
Analysis and Applications 23, S. 421-427.
Zadeh, L.A. (1975a), Calculus of Fuzzy Restrictions, in: Zadeh L.A. et al. [Eds.], Fuzzy
Sets and their Applications to Cognitive and Decision Processes, Academic Press,
New York / San Francisco / London, S. 1-39.

XXXVI
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
Zadeh, L.A. (1975b), The Concept of a Linguistic Variable and its Application to
Approximate Reasoning, I: Information Sciences 8, S. 199-249, II: Information
Sciences 8, S. 305-357, III: Information Sciences 9, S. 43-80.
Zadeh, L.A. (1978), Fuzzy sets as a basis for a theory of possibility, Fuzzy Sets and
Systems 1, S. 3-28.
Zadeh, L.A. (1988), Fuzzy Logic. Report - Center for the Study of Language and
Information 116, Stanford, California.
Zadeh, L.A. / Fu, K.S. / Tanaka, K. / Shimura, M. [Eds.] (1975), Fuzzy Sets and their
Applications to Cognitive and Decision Processes, Academic Press, New York /
San Francisco / London.
Zhao, R. / Liu, B. (2003), Renewal Process with Fuzzy Interarrival Times and Re-
wards, International Journal of Uncertainty, Fuzziness and Knowledge-Based Sy-
stems 11, No. 5, S. 573-586.
Zhao, R. / Liu, B. (2004), Redundancy Optimization Problems with Uncertainty of
Combining Randomness and Fuzziness, European Journal of Operational Rese-
arch 157, S. 716735.
Zhao, R. / Tang, W. / Yun, H. (2006), Random fuzzy renewal process, European
Journal of Operational Research 169, S. 189-201.
Zhong, N. / Skowron, A. / Setsuo Ohsuga, S. [Eds.] (1999), New Directions in Rough
Sets, Data Mining, and Granular-Soft Computing. Proceedings of the 7th In-
ternational Workshop, RSFDGrC99, Yamaguchi, Japan, November 9-11, 1999,
Lecture Notes in Computer Science, Vol. 1711, Springer, Berlin / Heidelberg.
Zimmermann, H.J. (1991), Fuzzy Set Theory and its Applications, 2. Aufl., Kluwer
Academic Publishers, Dordrecht / Boston.
Zimmermann, H.J. (1993), Fuzzy Sets, Decision Making and Expert Systems, Inter-
national series in management science and operations research, Kluwer Academic
Publishers, Dordrecht / Boston.
Zimmermann, H.J. (1999), Zur Modellierung von Unsicherheit realer Probleme, in:
Seising, R. [Ed.], Fuzzy Theorie und Stochastik, Vieweg, Braunschweig / Wies-
baden, S. 287-301.
Internetquellen
Dartmouth Flood Observatory:
http://www.dartmouth.edu/
floods/
Deutsches Komitee Katastrophenvorsorge (DKKV), Sonderver¨
offentlichungen:
http://www.dkkv.org/DE/publications/

LITERATURVERZEICHNIS
XXXVII
Deutsche Statistische Gesellschaft, Archiv - Statistische Woche:
http://www.dstatg.de/content/ger/archive.html#stawo
Georgia Tech Savannah Campus, Center for Reliable Engineering Computing:
http://www.gtsav.gatech.edu/rec/bulletin.html
Grade 7 Natural Disasters Project, Tsunami - The Big Wave:
http://www.germantown.k12.il.us/html/tsunami.html
International Association of Geodesy - Special Study Group (IAG-SSG) 4.190 "Non-
Probabilistic Assessment in Geodetic Data Analysis":
http://www.dgfi.badw.de/ssg4.190/
NSL - Netzwerk Stadt und Landschaft an der ETH Z¨
urich, DISP - Online:
http://www.nsl.ethz.ch/index.php/content/view/full/96/
SciFace, Scientific Interfaces, Mathematik im Griff mit MuPAD Pro:
http://www.sciface.com/STATIC/DOC30/eng/stdlib psi.html#psi
http://www.sciface.com/STATIC/DOC30/eng/stdlib math.html#EULER
Technische Universit¨
at Wien, WCCM V, Fifth World Congress on Computational
Mechanics, July 7-12, 2002:
http://wccm.tuwien.ac.at/
Universit¨
at Innsbruck, Arbeitsbereich f¨
ur Technische Mathematik am Institut f¨
ur
Grundlagen der Bauingenieurwissenschaften, Preprint Series:
http://techmath.uibk.ac.at/mathematik/publikationen/
Universit¨
at Stuttgart, Wechselwirkungen - Jahrbuch 2002 aus Lehre und Forschung:
http://www.uni-stuttgart.de/wechselwirkungen/ww2002/
University of Minnnesota, School of Statistics:
http://www.stat.umn.edu/geyer/fuzz/
Universtiy of Texas at El Paso, Department of Computer Science:
http://www.cs.utep.edu/vladik/#AREAS
University of Washington, Department of Statistics:
http://www.stat.washington.edu/www/research/reports/

Symbolverzeichnis
A
Untergrenze f¨
ur Annahmebereich der Nullhypothese beim SPRT
A
gew¨
ohnliche (scharfe) Menge
~
A
unscharfe Menge (Fuzzy-Menge), Fuzzy-Zahl, unscharfer Datenpunkt
A
, A
(gew¨
ohnlicher) -Schnitt der Fuzzy-Menge ~
A
A
>
strikter -Schnitt von ~
A
a
, a
Unter- und Obergrenze des -Schnittes (Intervalls) der Fuzzy-Zahl ~
A
A
-Algebra ¨
uber einer Basismenge
B
Obergrenze f¨
ur Ablehnungsbereich der Nullhypothese beim SPRT
B
Borel'sche -Algebra ¨
uber einer Teilmenge von IR
card( ~
A)
Kardinalit¨
at der Fuzzy-Menge ~
A
co ~
A
konvexe H¨
ulle der Fuzzy-Menge ~
A
c
Beobachtungskostenfunktion beim sequentiellen Verfahren
C
-Algebra ¨
uber den Teilmengen eines Universums U
d
Distanzfunktion, Pseudometrik bzw. Metrik
d
Entscheidung, Element des Entscheidungsraums
D
Entscheidung als Zufallsvariable
~
D
unscharfe Entscheidung, Fuzzy-Menge ¨
uber dem Entscheidungsraum
ID
Menge m¨
oglicher Entscheidungen, Entscheidungsraum
ID
-Algebra ¨
uber der Entscheidungsmenge ID
e
Element aus
{0, 1}
~
E
Fuzzy-Menge ¨
uber
{0, 1}
E(X)
Erwartungswert der Zufallsvariablen X
E
(X)
Erwartungswert der mit Parameter verteilten Zufallsvariablen X
E
(.)
(
)
Erwartungswert des zuf¨
alligen Parameters
bzgl. A-priori-Verteilung (.)
E
~
( ~
X)
Fuzzy-Erwartungswert d. Fuzzy-Zufallsvariablen ~
X bzgl. Fuzzy-Parameter ~
E
~
~
(.)
( ~
)
Fuzzy-Erwartungswert d. Fuzzy-Zufallsparameters ~
bzgl. Fuzzy-Schar ~~(.)
f (.)
(gew¨
ohnliche) Funktion
f (x)
Funktionswert von x
f (.)
Erweiterung einer Funktion auf klassische Mengen oder auf unscharfe
Mengen (Fuzzy-Extension)
~~
f (.)
Fuzzy-Schar von Funktionen
~
f (.)
fuzzifizierende Funktion
f(.)
(klassisch-)mengenwertige Funktion
f
(.), f
(.)
untere und obere -Niveaukurve der fuzzifizierenden Funktion ~
f f¨
ur
(0, 1]
XXXVIII

SYMBOLVERZEICHNIS
XXXIX
f
X
(.)
Dichtefunktion der stetigen Zufallsvariablen X
f
(.) = f (.
|)
Dichtefunktion der stetigen Verteilung mit Parameter
~~
f
~
(.) =
~~
f (.
|~)
Fuzzy-Schar von Dichtefunktionen mit Fuzzy-Parameter ~
~
f
~
(.) = ~
f (.
|~)
fuzzifizierende Dichtefunktion mit Fuzzy-Parameter ~
f
(.
|a, b)
Dichtefunktion der Gammaverteilung mit Parametern a und b
F
X
(.)
Verteilungsfunktion der Zufallsvariablen X
F
(.) = F (.
|)
Verteilungsfunktion der Verteilung mit Parameter
F(U)
Menge aller Fuzzy-Mengen ¨
uber U
F
c
(U)
Menge aller konvexen Fuzzy-Mengen ¨
uber U
F
cc
(U)
Menge aller Vereinigungen von konvexen Fuzzy-Mengen ¨
uber U
F
b
(U)
Menge aller Fuzzy-Mengen ¨
uber U mit beschr¨
anktem Tr¨
ager
F
cb
(U)
Menge aller konvexen Fuzzy-Mengen ¨
uber U mit beschr¨
anktem Tr¨
ager
gray(.)
Abbildung des Intervalls [0, 1] in das Grautonband [weiß, schwarz]
Grau
Fuzzy-Menge, die ein Grautonbild beschreibt
~
H
unscharfer Randpunkt bzw. unscharfe H¨
ohe einer Flutwelle
H
HPD-Intervall
~
H
unscharfes HPD-Intervall
H
statistische Hypothese (Menge von m¨
oglichen Wahrscheinlichkeits-
verteilungen)
H
unscharfe statistische Hypothese (Menge von m¨
oglichen Fuzzy-
Wahrscheinlichkeitsverteilungen)
IH
Menge m¨
oglicher Hypothesen
IH
Fuzzy-Menge ¨
uber der Menge der m¨
oglichen Hypothesen
I
Indexmenge
I
k
(IR)
Menge der kompakten Intervalle auf IR
k(.)
Konfidenzfunktion
K
(scharfes) Konfidenzintervall
~
K
unscharfes Konfidenzintervall
ker( ~
A)
Kern der Fuzzy-Menge ~
A
kr(.)
Zuordnungsfunktion von Flutwellen als kritisch oder unkritisch
(.)
Likelihoodfunktion
L
n
(x
1
,..., x
n
|
1
,
0
) Likelihoodquotient der Parameter
1
und
0
auf der Beobachtungsstufe n
l(.)
(Entscheidungs-)Verlustfunktion (bei Parameter und Entscheidung d)
L
l(.)
Gesamtverlustfunktion (Entscheidungsverlust und Beobachtungskosten)
L
l
(N )
(.)
modifizierte Gesamtverlustfunktion (Beobachtungskosten verschwinden
ab N Beobachtungen)
IL
Menge m¨
oglicher Verluste, Verlustraum
IL
-Algebra ¨
uber der Verlustmenge IL
l
Element der Verlustmenge IL
max
{...}
unscharfes Maximum
min
{...}
unscharfes Minimum
mod((.))
Modus der Verteilung (.)
M
-Algebra ¨
uber einer Menge von Mengen
M
-Algebra ¨
uber einer Menge von Fuzzy-Mengen
IN
Menge der nat¨
urlichen Zahlen

XL
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
N
Partition
N
unscharfe Partition
p
X
(.)
Wahrscheinlichkeitsfunktion der diskreten Zufallsvariablen X
p
(.) = p(.
|)
Wahrscheinlichkeitsfunktion der stetigen Verteilung mit Parameter
~
~
p
~
(.) = ~
~
p(.
|~)
Fuzzy-Schar von Wahrscheinlichkeitsfunktionen mit Fuzzy-Parameter ~
~
p
~
(.) = ~
p(.
|~)
fuzzifizierende Wahrscheinlichkeitsfunktion mit Fuzzy-Parameter ~
p
Po
(.
|)
Wahrscheinlichkeitsfunktion der Poisson-Verteilung mit Parameter
p
Wahrscheinlichkeitswert (p-Wert) (in (0, 1))
~
P
unscharfer Wahrscheinlichkeitswert (in
F((0, 1)))
P
Wahrscheinlichkeit(smaß), Wahrscheinlichkeitsverteilung
~
P
unscharfe Wahrscheinlichkeit(sverteilung)
P(U)
Potenzmenge (Menge aller scharfen Teilmengen) von U
Po
Poisson-Verteilung mit Parameter
pr(.)
Projektion zweidimensionaler Fuzzy-Mengen auf eindimensionale
PrGr
auf eine Dimension projizierte Fuzzy-Menge aus einem Grautonbild
q
Wert der Dichtefunktion (in IR
+
)
Q
Wahrscheinlichkeit(smaß), Wahrscheinlichkeitsverteilung
~
Q
unscharfe Wahrscheinlichkeit(sverteilung)
Q
Menge von Wahrscheinlichkeitsverteilungen
Q
Menge von unscharfen Wahrscheinlichkeitsverteilungen
I
Q
Menge der rationalen Zahlen
r
(.)
((.))
Bayes'sches Risiko der Entscheidungsfunktion
r
(.)
((.))
Bayes'sches Risiko des sequentiellen Verfahrens
r
0
(.
|x
1
,...,x
n
)
(][(.),n) Abbruchrisiko des sequentiellen Verfahrens auf der Stufe n
r
(.
|x
1
,...,x
n
)
(][(.),n) Fortsetzungsrisiko des sequentiellen Verfahrens auf der Stufe n
r
j
(.
|x
1
,...,x
n
)
(][(.),n) Fortsetzungsrisiko des sequentiellen Verfahrens auf der Stufe n um j
Schritte
r
(N )j
(.
|x
1
,...,x
n
)
(][(.),n) Fortsetzungsrisiko des modifizierten sequentiellen Verfahrens auf der
Stufe n um j Schritte
~
r
~
~
(.)
( )(.)
Fuzzy-Bayes-Risiko der Fuzzy-Entscheidungsfunktion
~
r
0
~
~
(.
| ~
A
1
,..., ~
A
n
)
(] [(.),n)Fuzzy-Abbruchrisiko des sequentiellen unscharfen Verfahrens auf Stufe n
~
r
j
~
~
(.
| ~
A
1
,..., ~
A
n
)
(] [(.),n)Fuzzy-Fortsetzungsrisiko des sequentiellen Fuzzy-Verfahrens auf der
Stufe n um j Schritte
~
r
(N )j
~
~
(.
| ~
A
1
,..., ~
A
n
)
(] [,n) Fuzzy-Fortsetzungsrisiko des modifizierten sequentiellen Fuzzy-Verfah-
rens auf der Stufe n um j Schritte
IR, IR
+
, IR
+
0
Menge der reellen, positiven reellen, nichtnegativen reellen Zahlen
~
R
~
>
( ~
A, ~
B)
unscharfe Gr¨
oßer-Kleinergleich-Relation zwischen ~
A und ~
B
~
R
~
<
( ~
A, ~
B)
unscharfe Kleiner-Gr¨
oßergleich-Relation zwischen ~
A und ~
B
s
Verlusteinheit bei falscher statistischer Entscheidung
s(.)
Statistik, Stichprobenfunktion
S
Menge m¨
oglicher Werte einer Statistik
S
-Algebra ¨
uber der Menge der Statistiken S
supp( ~
A)
Tr¨
ager der Fuzzy-Menge ~
A

SYMBOLVERZEICHNIS
XLI
T
Indexmenge eines stochastischen Prozesses, Menge von Zeitpunkten
U
allgemeines Universum (Grundmenge)
U
Produktraum einer Folge von Grundmengen (U
i
)
i
IN
V
Element der -Algebra
M
V
Element der -Algebra
M
x
scharfer Datenpunkt in der Grundmenge U
~
X
unscharfe Variable
X
(scharfe) zuf¨
allige Menge
X
-Schnitt einer unscharfen (Zufalls-)Variablen
~
X
Fuzzy-Zufallsvariable
X
Menge von Zufallsvariablen (messbaren Abbildungen)
ZZ
Menge der ganzen Zahlen
Zugeh¨
origkeitsniveau zu einer Fuzzy-Menge (in (0, 1])
Konfidenzniveau, ¨
Uberdeckungswahrscheinlichkeit
Quantilwert (in (0, 1])
(.)
Euler'sche Gammafunktion
a,b
(.)
Gammaverteilung mit Parametern a und b
(.)
Entscheidungsfunktion
(.)
Bayes'sche Entscheidungsfunktion
n
(.)
Bayes'sche Entscheidungsfunktion auf der Stufe n
]
[(.)
Folge von Bayes'schen Entscheidungsfunktionen (
n
(.))
n
IN
0
Menge von Entscheidungsfunktionen
(.)
sequentielles Entscheidungsverfahren bestehend aus Stoppzeit und Ent-
scheidung
][(.)
sequentielles Entscheidungsverfahren bestehend aus Abbruchregel und
Entscheidung
N
(.)
auf N Stufen verk¨
urztes sequentielles Entscheidungsverfahren
(N )
(.)
modifiziertes auf N Stufen verk¨
urztes sequentielles Entscheidungsverfahren
m
(.)
m Schritte vorausschauendes sequentielles Entscheidungsverfahren
(m)
(.)
modifiziertes m Schritte vorausschauendes sequ. Entscheidungsverfahren
n
(.)
Sch¨
atz(entscheidungs)funktion aus einer Stichprobe vom Umfang n
Verteilungsparameter
~
unscharfer Verteilungsparameter
0
¯
-Schnitt des unscharfen Verteilungsparameters
^
gesch¨
atzter Verteilungsparameter
^
me
Mediansch¨
atzer
^
mo
Modussch¨
atzer
^~
gesch¨
atzter unscharfer Verteilungsparameter
Parameterraum, Menge m¨
oglicher Verteilungsparameter
zuf¨
alliger Verteilungsparameter (als Zufallsvariable)
~
zuf¨
alliger unscharfer Verteilungsparameter (als Fuzzy-Zufallsvariable)
Stichprobeninformation
A-priori-Information
A-posteriori-Information
~
unscharfe A-posteriori-Information

XLII
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
k
-Schnitt der unscharfen A-posteriori-Information
~
A
(.)
Zugeh¨
origkeitsfunktion der Fuzzy-Menge ~
A
~
A
(x)
Zugeh¨
origkeitsgrad des scharfen Elementes x zur Fuzzy-Menge ~
A (in (0, 1])
(.)
Konturfunktion einer zuf¨
alligen Menge
(.)
Dichtefunktion der A-priori-Verteilung
(.
|x
1
, ..., x
n
)
Dichtefunktion der A-posteriori-Verteilung mit den Daten (x
1
, ..., x
n
)
~
~
(.
|~A
1
, ..., ~
A
n
)
Fuzzy-Schar von A-posteriori-Verteilungen mit Fuzzy-Daten ( ~
A
1
, ..., ~
A
n
)
~
(.
|~A
1
, ..., ~
A
n
)
fuzzifizierende A-posteriori-Verteilung mit Fuzzy-Daten ( ~
A
1
, ..., ~
A
n
)
(
{A U})
-Algebra ¨
uber den Teilmengen von U
Wert einer Statistik
(.)
Stoppzeit (als Funktion) beim sequentiellen Verfahren
N
(.)
Stoppzeit des bei N verk¨
urzten Verfahrens (als Funktion)
(N )
(.)
Stoppzeit des modifizierten bei N verk¨
urzten Verfahrens (als Funktion)
m
(.)
Stoppzeit des m Schritte vorausschauenden Verfahrens (als Funktion)
(m)
(.)
Stoppzeit des modifizierten m Schritte vorausschauenden Verfahrens
(als Funktion)
(.)
Stoppzeit(funktion) nach der Tr¨
agertangentialmethode
(.)
Stoppzeit(funktion) nach der Tr¨
agerinklusionsmethode
(.)
Stoppzeit(funktion) nach der Kerntangentialmethode
(.)
Stoppzeit(funktion) nach der Kerninklusionsmethode
(.)
Stoppzeit(funktion) nach der -Niveautangentialmethode
(.)
Stoppzeit(funktion) nach der -Niveauinklusionsmethode
(card)
(.)
Stoppzeit(funktion) nach der Kardinalit¨
atsmethode
s
(.)
Stoppzeit(funktion) nach der vereinfachten Tr¨
agertangentialmethode
s
(.)
Stoppzeit(funktion) nach der vereinfachten Tr¨
agerinklusionsmethode
s
(.)
Stoppzeit(funktion) nach der vereinfachten Kerntangentialmethode
s
(.)
Stoppzeit(funktion) nach der Kerninklusionsmethode
s
(.)
Stoppzeit(funktion) nach der vereinfachten -Niveautangentialmethode
s
(.)
Stoppzeit(funktion) nach der vereinfachten -Niveauinklusionsmethode
s(card)
(.)
Stoppzeit(funktion) nach der vereinfachten Kardinalit¨
atsmethode
T
Stoppzeit (als Wert, Bild der Abbildung) beim sequentiellen Verfahren
T
(Wert der) Stoppzeit nach der Tr¨
agertangentialmethode
T
(Wert der) Stoppzeit nach der Tr¨
agerinklusionsmethode
T
(Wert der) Stoppzeit nach der Kerntangentialmethode
T
(Wert der) Stoppzeit nach der Kerninklusionsmethode
T
(Wert der) Stoppzeit nach der -Niveautangentialmethode
T
(Wert der) Stoppzeit nach der -Niveauinklusionsmethode
T (card)
(Wert der) Stoppzeit nach der Kardinalit¨
atsmethode
T s
(Wert der) Stoppzeit nach der vereinfachten Tr¨
agertangentialmethode
T s
(Wert der) Stoppzeit nach der vereinfachten Tr¨
agerinklusionsmethode
T s
(Wert der) Stoppzeit nach der vereinfachten Kerntangentialmethode
T s
(Wert der) Stoppzeit nach der Kerninklusionsmethode
T s
(Wert der) Stoppzeit nach der vereinfachten -Niveautangentialmethode
T s
(Wert der) Stoppzeit nach der vereinfachten -Niveauinklusionsmethode
T s(card)
(Wert der) Stoppzeit nach der vereinfachten Kardinalit¨
atsmethode

SYMBOLVERZEICHNIS
XLIII
T
Zufallsvariable der Stoppzeit beim sequentiellen Verfahren
-Algebra ¨
uber der Menge der m¨
oglichern Verteilungsparameter
(.)
Test(entscheidungs)funktion
n
(.)
Abbruchentscheidungsfunktion auf der Stufe n beim sequentiellen
Verfahren
][(.)
Abbruchregel beim sequentiellen Verfahren
][(.)
Abbruchregel nach der Tr¨
agertangentialmethode
][(.)
Abbruchregel nach der Tr¨
agerinklusionsmethode
][(.)
Abbruchregel nach der Kerntangentialmethode
][(.)
Abbruchregel nach der Kerninklusionsmethode
]
[(.)
Abbruchregel nach der -Niveautangentialmethode
]
[(.)
Abbruchregel nach der -Niveauinklusionsmethode
]
(card)
[(.)
Abbruchregel nach der Kardinalit¨
atsmethode
]
s
[(.)
Abbruchregel nach der vereinfachten Tr¨
agertangentialmethode
]
s
[(.)
Abbruchregel nach der vereinfachten Tr¨
agerinklusionsmethode
]
s
[(.)
Abbruchregel nach der vereinfachten Kerntangentialmethode
]
s
[(.)
Abbruchregel nach der Kerninklusionsmethode
]
s
[(.)
Abbruchregel nach der vereinfachten -Niveautangentialmethode
]
s
[(.)
Abbruchregel nach der vereinfachten -Niveauinklusionsmethode
]
s(card)
[(.)
Abbruchregel nach der vereinfachten Kardinalit¨
atsmethode
ø
n
Wert der Abbruchregel auf der Stufe n
ø
n
Wert der Abbruchregel nach der Tr¨
agertangentialmethode auf der
Stufe n
ø
n
Wert der Abbruchregel nach der Tr¨
agerinklusionsmethode auf der
Stufe n
ø
n
Wert der Abbruchregel nach der Kerntangentialmethode auf der Stufe n
ø
n
Wert der Abbruchregel nach der Kerninklusionsmethode auf der Stufe n
ø
n
Wert der Abbruchregel nach der -Niveautangentialmethode auf der
Stufe n
ø
n
Wert der Abbruchregel nach der -Niveauinklusionsmethode auf der
Stufe n
ø
(card)n
Wert der Abbruchregel nach der Kardinalit¨
atsmethode auf der Stufe n
ø
sn
Wert der Abbruchregel nach der vereinfachten Tr¨
agertangentialmethode
auf der Stufe n
ø
sn
Wert der Abbruchregel nach der vereinfachten Tr¨
agerinklusionsmethode
auf der Stufe n
ø
s
n
Wert der Abbruchregel nach der vereinfachten Kerntangentialmethode
auf der Stufe n
ø
sn
Wert der Abbruchregel nach der vereinfachten Kerninklusionsmethode
auf der Stufe n
ø
sn
Wert der Abbruchregel nach der vereinfachten -Niveautangential-
methode auf der Stufe n
ø
sn
Wert der Abbruchregel nach der vereinfachten -Niveauinklusions-
methode auf der Stufe n
ø
s(card)n
Wert der Abbruchregel nach der vereinfachten Kardinalit¨
atsmethode

XLIV
UNSCHARFE SEQUENTIELLE BAYES-STATISTIK
auf der Stufe n
Signifikanzniveau, Irrtumswahrscheinlichkeit
(.)
Operationscharakteristik (eines Tests)
(.)
Euler'sche Psi-Funktion
Basismenge eines Wahrscheinlichkeitsraums
Element einer Basismenge
1
A
(.)
Indikatorfunktion (Zugeh¨
origkeitsfunktion) der scharfen Menge A
~
A
~B
Extension der Addition von ~
A und ~
B
~
A
~
B
Extension der Subtraktion von ~
A minus ~
B
~
A
~
B
Extension der Multiplikation von ~
A mal ~
B
~
A
~
B
Extension der Division von ~
A durch ~
B
~
A
~B
Extension des kartesischen Produkts von ~
A und ~
B
~
A
1
× U
2
zylindrische Extension der Fuzzy-Menge ~
A
1
ins Universum U
1
n
i=1
~
A
i
Extension der Summe von ~
A
1
bis ~
A
n
n
i=1
~
A
i
Extension des Produkts von ~
A
1
bis ~
A
n
U
~
f (x)dx
Integration der unscharfen Funktion ~
f (.) ¨
uber U
C
1
C
2
Produkt--Algebra aus
C
1
und
C
2
X
P
Zufallsvariable X verteilt nach Wahrscheinlichkeitsverteilung P
~
X
~
P
Fuzzy-Zufallsvariable ~
X unscharf verteilt nach ~
P

Curriculum Vitae
Petra Comploj
09.04.1966
Geburt in Innsbruck.
1984
Matura (neusprachliches Gymnasium) in Innsbruck und
Immatrikulation an der Leopold-Franzens-Universit¨
at Innsbruck.
1990
Abschluss des Lehramtstudiums der Mathematik und des Diplom-
und Lehramtsstudiums der Klassischen Philologie.
1990-1991
Unterrichtspraktikum Mathematik / Latein in Innsbruck.
1992
Akademikertraining am Institut f¨
ur Statistik an der Leopold-Franzens-
Universit¨
at Innsbruck.
1995
Abschluss des Diplomstudiums der Mathematik.
1995-1997
Vertragsassistentin am Institut f¨
ur Technische Mathematik, Geometrie
und Bauinformatik an der Leopold-Franzens-Universit¨
at Innsbruck.
1998-1999
Programmeriererin bei D. Swarowski & Co., Wattens.
1999-2000
Fachberaterin f¨
ur Navision Financials bei MBS - Modern Business
Systems Informationssysteme GmbH, Linz, Gesch¨
aftsstelle Innsbruck.
2001-2002
Vertragsassistentin am Institut f¨
ur Wirtschaftstheorie, Wirtschaftspolitik
und Wirtschaftsgeschichte an der Leopold-Franzens-Universit¨
at
Innsbruck.
2002-2004
Tutorin am Institut f¨
ur Revisions-, Treuhand und Rechnungswesen an
der Leopold-Franzens-Universit¨
at Innsbruck.
2003
Abschluss des Diplomstudiums der Betriebswirtschaftslehre.
2006
Freiberufliche Trainerin f¨
ur Mathematik bei Ibis Acam - Bildungs-
GmbH, Innsbruck und W¨
orgl.
Seit 2001
Unterst¨
utzung von Studierenden unterschiedlicher Studienrichtungen
bei statistischen Auswertungen f¨
ur Diplomarbeiten und Dissertationen.
Ende der Leseprobe aus 441 Seiten

Details

Titel
Entscheidungen in der Bayes-Statistik und Sequentialanalyse bei unscharfer Information
Untertitel
Am Beispiel unscharfer Stichproben von Poisson-verteilten stochastischen Größen und unscharfer A-posteriori-Gamma-Verteilungen
Hochschule
Leopold-Franzens-Universität Innsbruck  (Institut für Mathematik)
Note
1,0
Autor
Jahr
2006
Seiten
441
Katalognummer
V281045
ISBN (eBook)
9783656744597
ISBN (Buch)
9783656744603
Dateigröße
3512 KB
Sprache
Deutsch
Schlagworte
entscheidungen, bayes-statistik, sequentialanalyse, information, beispiel, stichproben, poisson-verteilten, größen, a-posteriori-gamma-verteilungen
Arbeit zitieren
Petra Comploj (Autor:in), 2006, Entscheidungen in der Bayes-Statistik und Sequentialanalyse bei unscharfer Information, München, GRIN Verlag, https://www.grin.com/document/281045

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Entscheidungen in der Bayes-Statistik und Sequentialanalyse bei unscharfer Information



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden