Entwicklung und Erprobung eines multimedialen Lernprogramms zum Thema "Statistik"


Masterarbeit, 2011

97 Seiten, Note: 1,7


Leseprobe


Inhaltsverzeichnis

1. Einleitung
1.1 Notwendigkeiteines Lernprogramms
1.2 Notwendigkeit einesmultimedialen CBT's
1.3 Vorteile von CBT's gegenüber klassischen Printmedien

2. Theoretische Grundlagen multimedialen Lernens
2.1 Definition Lernen
2.2 Das Arbeitsgedächtnis - Modelle von A. Baddeley & R. Mayer
2.3 Cognitive LoadTheorie
2.4 DidaktischeKonsequenzenfürdieKonzeptioneinesCBT's
2.4.1 ReduktionderintrinsischenBelastung
2.4.2 ReduktionderextrinsischenBelastung
2.4.3 Modalitäts-EffektundandereEffekte
2.4.4 Das Prinzip der zeitlichen und räumlichen Nähe
2.4.5 Mehrwertfürden Lerner durchausgearbeitete Beispiele
2.4.6 FazitderdidaktischenKonsequenzen

3. Theoretische Grundlagen Logik des Signifikanztests
3.1 Vorüberlegungen-Falsifikation
3.2 Deterministischervs.ProbabilistischerZusammenhang
3.3 IdeedesSignifikanztests
3.4 Test-Vor.: Hypothesenbildung von HO und Hl
3.5 Test-Vor.: Transformation verbaler instatistischeHypothesen
3.6 Test-Voraussetzung: gerichtete vs.ungerichteteHypothesen
3.7 Test-Voraussetzung:Kennwerteverteilung bestimmen
3.8 Testdurchführung: Signifikanzniveau abestimmen
3.9 Testdurchführung: a-undß-Fehler
3.10 Testdurchführung: Ermittlung desP-Wertes
3.11 Testdurchführung: Entscheidung für oder gegen HO fällen
3.12 Zusammenfassung - Die einzelnen Schritte in Kurzform
3.13 Fazitund Irrtümer
3.14 EmpirischeBefundezur EffektivitätmitStatistik-CBT's

4. Didaktische Konzeption m. H. des DO-ID-Modells
4.1 Analysen
4.1.1 GrobzielundFeinziele
4.1.2 Problemanalyse
4.1.3 Bedarfsanalyse
4.1.4 Adressatenanalyse
4.1.5 Wissens-undAufgabenanalyse
4.1.6 Ressourcenanalyse
4.1.7 AnalysedesEinsatzkontexts
4.2 Formatentscheidung
4.3 Contentstrukturierung
4.3.1 Deduktivvs. Induktiv
4.3.2 Segmentierung undSequenzierung
4.3.3 Aufgaben-versusDomänenkompetenz
4.4 Multimediadesign
4.4.1 Textverstehen
4.4.2 Audio
4.4.3 FarbenundBilder/Graphiken
4.4.4 Animationen
4.4.5 Simulation
4.5 Interaktionsdesign
4.5.1 Gestaltung der Lerntests mitFeedback
4.5.2 Interaktivität
4.5.3 Adaptivität
4.6 Motivationsdesign
4.6.1 Aufmerksamkeit erlangen - Attention
4.6.2 Relevanzdes Lernstoffs vermitteln - Relevance
4.6.3 Erfolgszuversicht - Confidence
4.6.4 Zufriedenheit - Satisfaction
4.7 Grafikdesign/Layout
4.8 Usability-Testing
4.9 Evaluation
4.10 Zusammenfassung derDesignentscheidungen

5. Usability-Test
5.1 Messung der Usability von "Logik des Signifikanztests"
5.2 Entwicklung eines Interviewfragebogens/ Planung der Testinhalte...
5.3 AuswahlderTestform
5.4 Planung derTestumgebung
5.5 AuswahlderStichprobe undTeilnehmer
5.6 Durchführung
5.7 Ergebnisse
5.8 Diskussion
5.8.1 KonkreteVerbesserungsvorschläge
5.8.2 Zusammenfassung derVerbesserungsvorschläge
5.9 Ausblick

6. Verzeichnisse
6.1 Literaturverzeichnis
6.2 Internetverzeichnis
6.3 Abkürzungsverzeichnis
6.4 Abbildungsverzeichnis
6.5 Tabellenverzeichnis

7. Anhang
7.1 Interviewfragebogenzur Messung derUsability desCBT's

1. Einleitung

Viele Studierende, aber auch Dozenten im Bereich der empirischen Sozialwissen­schaften kennen die korrekte Bedeutung des Signifikanzbegriffs nicht. Zu dieser Erkenntnis kommt Professor Gigerenzer, der hinzufügt, dass dies in Deutschland wie in den USA der Fall sei. Hans Hinkelbein, der sich auf Gigerenzer bezieht, hat im Rahmen einer universitären Untersuchung zehn akademischen Probanden sechs Aussagen zum Thema Signifikanz vorgelegt, die sie mit richtig oder falsch beantworten sollten. Jedoch hatte nur einer dieser zehn Probanden alle sechs Fra­gen richtig beantwortet. Dies zeigt auf, dass die Begrifflichkeit der Signifikanz, die uns so selbstverständlich erscheint, doch nicht selbstverständlich ist. Selbst in den Medien ist oft die Rede von einem signifikanten Ereignis, wenn z. B. die An­zahl der Arbeitslosen im Vergleich zum letzten Jahr "signifikant" gestiegen ist oder die Kosten für die Beitragssätze zur Krankenversicherung sich "signifikant" in den letzten sechs Monaten erhöht haben. Gemeint ist damit, dass es sich um eine starke Erhöhung handelt. Somit wird Signifikanz gleichgesetzt mit gravie­rend bzw. einer großen Differenz von A und B. Doch das hat mit Signifikanz im eigentlichen Sinne nichts zu tun. Da es für Studierende in einem Studiengang der empirischen Sozialwissenschaften unabdingbar ist den Begriff der Signifikanz eindeutig zu verstehen und auch für Akademiker - insbesondere dann, wenn sie eine wissenschaftliche Laufbahn beginnen und eigenhändig empirische Untersu­chungen durchführen - kann es schon mal peinlich werden, wenn sie die Ergebnisse ihrer Untersuchung als signifikant deklarieren, wenn diese es nicht sind. Somit soll im Rahmen dieser Masterarbeit ein Lernprogramm konzipiert werden, das die Begrifflichkeit der Signifikanz verständlich erläutert, die Logik dahinter erklärt und die einzelnen Schritte beim Durchführen eines Signifikanz­tests aufzeigt.

1.1 Notwendigkeit eines Lernprogramms

Die konventionelle Möglichkeit Signifikanz bzw. einen Signifikanztest zu verste­hen, besteht darin, sich ein Statistikbuch zur Hand zu nehmen und es durchzuarbeiten. Diese Bücher sind jedoch meist Fachbücher, von Wissenschaft­lern für Wissenschaftler geschrieben und erschweren aufgrund ihrer mangelnden didaktischen Aufbereitung das grundlegende Verständnis seitens der Studieren­den. Das gilt vor allem dann, wenn wenig Vorwissen vorhanden ist. Lernende mit geringem Vorwissen „... verfügen nicht über themenbezogene Schemata, die sie aus dem Gedächtnis abrufen können und ihre Aufmerksamkeit auf schematarele­vante Information im Lehrmaterial lenken“ (Anderson, Anderson & Spiro, 1978 in Niegemann et al., 2008, S.42). Dadurch ist der Prozess des Wissenerwerbs we­sentlich langfristiger und erfordert mehr kognitive Ressourcen bei der Informationsverarbeitung als bei Statistik-Experten. Nach dem Erwartungs-Wert­Modell von Atkinson (1957) ist zudem die Motivation für eine Aufgabenbewälti­gung nur dann hoch, wenn die Erfolgserwartung entsprechend hoch ist. Da dies aufgrund einer zu komplexen (meist statistischen) Beschreibung der Thematik bei Studienanfängern oft nicht der Fall ist, verlieren viele davon in absehbarer Zeit die Lust sich mit Signifikanztests und den damit verbundenen statistischen Be­rechnungen auseinanderzusetzen. Ein Beispiel für eine für Studienanfänger zu komplexe Erklärung findet sich m. A. in Witte (1980, S.26) wie folgt:

Abbildung in dieser Leseprobe nicht enthalten

Das obige Beispiel zeigt eine für Anfänger sehr unübersichtliche Darstellung des Signifikanztests kombiniert mit statistischen Fachausdrücken und Abkürzungen, die nicht selbsterklärend sind. Ohne entsprechendes Vorwissen ist ein Verstehen nahezu unmöglich. Hinzu kommt, dass viele Statistik-Lehrbücher die Logik des Signifikanztests anhand eines t-Tests erklären. Das ist z. B. auch bei Bortz & Dö- ring (1995) der Fall. Da viele Studienanfänger den t-Test nicht kennen, macht es aus didaktischer Sicht wenig Sinn, die Logik des Signifikanztests anhand dessen zu erklären. Aufgrund dieser Problematik ist es sinnvoll, ein für Studienanfänger angemessenes Lernprogramm zu entwickeln, das sie kognitiv nicht überfordert und das für sie relevante Wissen so aufbereitet, dass sie optimal den Signifikanz­test und die Logik dahinter verstehen.

1.2 Notwendigkeit eines multimedialen computerbasierten Lernprogramms

Es stellt sich weiterhin die Frage, warum man überhaupt ein multimediales Lern­programm zur Logik des Signifikanztests konzipieren sollte. Das Multimediaprinzip besagt, dass Lerner durch eine Kombination von Text und Bil­dern besser lernen, als durch Text allein, (vgl. Mayer, 2005, S. 15). Dies ließe sich durch einen entsprechendes Lehrbuch mit Grafiken und Texten, die diese näher erläutern, genauso realisieren. Multimediales Lernen bedeutet nach Mayer (ebd. S.15), wenn Lernende mentale Repräsentation dieser Texte und Bilder (in ihrem Arbeitsgedächtnis) aufbauen. Das ist mithilfe von Printmedien genauso möglich. Die Konzeption eines multimedialen Lernprogramms ist zudem sehr aufwändig, langfristig, (in der Wirtschaft) mit immensen Kosten verbunden und erfordert im Rahmen eines Projektes eine Vielzahl von Fachkräften, u.a. Informatiker, Lernde­signer, Projektmanager und Experten im jeweiligen Fachgebiet, die in einem Team Zusammenarbeiten. Warum sich die Konzeption einer multimedialen Ler­numgebung am Computer gegenüber einem konventionellen Statistik-Lehrbuch unter Umständen dennoch lohnt, soll nun geklärt werden.

1.3 Vorteile von CBT's gegenüber klassischen Printmedien

Multimediale Lernprogramme am Computer bzw. "Computer based Trainings" (CBT's) bieten diverse Vorteile gegenüber Printmedien. Das beginnt bereits mit der Anzahl der potentiell verwendbaren Medien. Beschränkt sich Multimedia in Büchern auf Bild und Text, können in CBT's zusätzlich Animationen, Simulatio­nen und audio- und videobasierte Leminhalte präsentiert werden. Das ist dann von Vorteil, wenn dynamische Prozesse mit zeitlichen Veränderungen zu verstehen sind (vgl. Niegemann et al., 2008, S.256), bspw. bei der Veränderung des Signifikanzniveaus zwischen einseitigem und zweiseitigem Testen. Zudem kann der Er­werb prozeduralen Wissens durch die Schritt-für-Schrittmodellierung gefördert werden (vgl. ebd.). Auch komplexere Objekte, die eine 3-dimensionale Struktur aufweisen, können so besser verdeutlicht werden. Zusätzlich bieten Simulationen die Möglichkeit mit dem Lehrstoff zu interagieren (vgl. ebd. S. 260). Dadurch wird dem Lernenden zum einen Interaktivität mit dem Lemprogramm ermöglicht und zum anderen ein natürliches Feedback gegeben, indem dieser direkt beobach­tet, wie sich die von ihm vorgenommenen Veränderungen auswirken“ (ebd.). Beim Signifikanztest ist das sinnvoll, wenn die Größe des Signifikanzniveaus ge­ändert wird und man dann beobachtet, welchen Einfluss dies auf die Entscheidung für oder gegen die Nullhypothese hat. Möchte man bei der Darstellung einen möglichst hohen Realitätsgrad erhalten, können auch Videos zur Darstellung der Leminhalte benutzt werden (vgl. ebd. S 265), die für die nähere Erklärung mit ge­sprochenem Text unterlegt werden können. Weiterhin ist es möglich die Leminhalte in CBT's zu verlinken, wenn bspw. Fachbegriffe auftreten, die näher erläutert werden sollen. So gelangt der Nutzer bei Bedarf innerhalb weniger Se­kunden zu der von ihm geforderten Information, während er in einem Lehrbuch längere Zeit mithilfe eines Sachregisters blättern müsste. Auch ist es möglich in ein CBT eine Suchfunktion zu integrieren, sodass bereits die Eingabe weniger Wörter genügt, um zu dem gewünschten Leminhalt zu gelangen. Dadurch weisen Lemprogramme eine wesentlich größere Benutzerfreundlichkeit (Usability) im Gegensatz zu Lehrbüchern auf. Auch der gezielte Einsatz von Hilfefunktionen, pädagogischen Agenten und adaptiven Wissenstests ermöglichen den Lernern ein effektiveres, effizienteres und zufriedenstellenderes Lernen (vgl. ebd. S.421) im Vergleich zu konventionellen Printmedien, da CBT's sich damit gezielt an die Kompetenz und an das Vorwissen der Lernenden anpassen und bei Wissenslücken entsprechende Unterstützung anbieten. Damit jedoch dieses "Mehr" an Multime­dia zu einem tatsächlich besseren Lernergebnis führt, bedarf es einer sorgsamen und didaktisch sinnvollen Verwendung jener Medien. Die didaktische Verwen­dung wiederum orientiert sich an kognitions- und instruktionspsychologischen Lemprinzipien, die ein Lerndesigner zu berücksichtigen und umzusetzen hat. Jene werden im folgenden Abschnitt näher vorgestellt.

2. Theoretische Grundlagen multimedialen Lernens

2.1 Definition Lernen

Bevor die didaktischen Gestaltungsprinzipien aufgegriffen werden, ist es wichtig den Lembegriff zu verstehen. Natürlich kann das Lernen im behaviouristischen Sinne als dauerhafte Verhaltensmodifikation in Form des klassischen bzw. Ope­randen Konditionierens durch positive und aversive Reize (vgl. Steiner in Weidenmann, 2001) aufgefasst werden. Da es bei der vorliegenden Arbeit jedoch um die Entwicklung eines Lernprogramms für universitäre Bildungszwecke geht, wird hierbei der Lembegriff als Wissenserwerb verstanden. In diesem Zusam­menhang ist Lernen ein „... bereichsspezifischer, komplexer und mehrstufiger Prozess, der die Teilprozesse des Verstehens, Speicherns und Abrufens einschließt und der unter der Voraussetzung, dass diese drei genannten Prozesse günstig ver­laufen, auch zum Gebrauch (dem sog. Transfer) des erworbenen Wissens führen kann“ (ebd., S.164). Lernen wird demnach als Aufbau und [...] fortlaufende Modifikation von Wissensrepräsentation definiert“ (ebd.). Die Lernprozesse „...sind im Gegensatz zu denen des Konditionierens selbstreguliert und in hohem Maße selbst verantwortet“ (ebd., S.165) durch eigenhändiges Planen, Überwa­chen und Regulieren.

2.2 Das Arbeitsgedächtnis - Modelle von A. Baddeley & R. Mayer

Im Folgenden gilt es zu klären, wie diese Lerninformationen mental encodiert werden und im Arbeitsgedächtnis repräsentiert sind (vgl. Steiner in Weidenmann, 2001). Diesbezüglich bedarf es einer Analyse, wie das Arbeitsgedächtnis während des Lernprozesses funktioniert und in welchen Lemsituationen es mit der Infor­mationsverarbeitung überlastet sein kann. Dazu gibt es verschiedene Modelle, am ganzheitlichsten ist jedoch die kognitive Theorie multimedialen Lernens, auch CTML (Mayer, 2005b in Niegemann et al., 2008, S.53) bezeichnet.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2.1: Kognitive Theorie multimedialenLernens 'von R.Mayer (2001, S.47)

Die CTML basiert auf der Annahme, dass visuelle und auditive Informationen in zwei separaten Kanälen verarbeitet werden. Diese Systeme sind funktional vonei­nander unabhängig, allerdings können sie interagieren. Das entspricht den Annahmen der dualen Kodierungstheorie von Paivio (1986). Auch Baddeley (1986) erklärt anhand seiner Untersuchungen das Arbeitsgedächtnis als 2- Komponentenmodell, mit einem "visuell-räumlichen Notizblock", in dem Bilder und Grafiken verarbeitet werden und einer "Phonologischen Artikulations­Schleife" (auditiver Speicher mit einer innersprachlichen Wiederholungsschleife, vgl. Baddeley 1997, Kap. 3-5), in die auditiv dargebotene Informationen "eingele­sen" werden. Eine zentrale Exekutive dient zwischen den beiden Systemen als koordinierende Instanz, die die unterschiedliche Informationsverarbeitung steuert, z.B. durch Zuteilung von Aufmerksamkeit und Verarbeitungsstrategien.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2.2: Arbeitsgedächtnis nachA. Baddeley (1986)

Werden also Text-und Bildinformationen während eines Lernprozesses rezipiert, gelangen diese zunächst in das sensorische Gedächtnis, „... wo die Informationen für sehr kurze Zeit präsent gehalten werden, um über den weiteren Verarbei­tungsprozess zu entscheiden“ (Niegemann et al., 2008, S.52). Nun findet ein Prozess der Selektion statt, wenn die entsprechenden Informationen vom Lernen­den als bedeutsam erachtet werden. Diese werden dann im entsprechenden Kanal - bildliche Informationen in visuellen Kanal, auditive Informationen im sprachli­chen Kanal - ins Arbeitsgedächtnis weitergeleitet.

Bei der Verarbeitung visueller Textinformation existieren jedoch unterschiedliche Ansichten. Während bei Mayer's CTML jene Te]xtinformationen zunächst im vi­suellen Kanal verarbeitet werden und anschließend im Arbeitsgedächtnis in den auditiven wechseln, ist Baddeley der Ansicht, dass visueller Text zwar über die Augen wahrgenommen, aber nicht im visuellen Subsystem des Arbeitsgedächtnis­ses gespeichert wird, sondern in der phonologischen Schleife. Diese Informationen unterliegen aufgrund der sog. "Inner Speech" zunächst einem arti- kulatorischen Kontrollprozess und gelangen damit in einem relativ frühen Stadium der Verarbeitung in den auditiven Kanal und erst von dort ins Arbeitsge­dächtnis. Bei der Verarbeitung von Bildinformationen unterscheiden sich die beiden Modelle hingegen nicht.

Das Arbeitsgedächtnis ist der Ort, in dem die relevanten Informationen präsent gehalten und aktiv verarbeitet werden (vgl. ebd. S.52f). Dies charakterisiert sich dadurch, dass die Informationen entsprechend strukturiert bzw. organisiert und anschließend zu einem mentalen Modell zusammengefügt werden. Das entspricht bei Baddeley (1986) der zentralen Exekutive. Über deren exakte Funktion gibt es bis heute nur sehr spärliche Befunde. Im letzten Schritt wirdjeweils aus dem men­talen visuellen Modell und dem mentalen auditiven „...ein gemeinsames Modell konstruiert, ergänzt und verknüpft mit dem aus dem Langzeitgedächtnis abgerufe­nen Vorwissen“ (Niegemann et al., 2008, S.53).

2.3 Cognitive Load Theorie

Das Arbeitsgedächtnis ist zusammengefasst zuständig für die Kontrolle, Regulie­rung sowie die Integration neu erworbener Wissensinformationen in bereits vorhandene Schemata. Diese Schemata sind im Langzeitgedächtnis gespeichert, dessen Kapazität unbegrenzt ist. Hingegen sind die Kapazitäten für die Informati- onsverarbeitung in den beiden Kanälen jeweils sehr beschränkt, da nur kleine In­formationsmengen gleichzeitig verarbeitet werden können (vgl. Chandler/Sweller, 1991 in Niegemann et al., 2008, S. 45). Diese Begrenzung hat sich evolutionär als günstig erwiesen (vgl. Sweller, 2005a in ebd., S.43) und bedeutet konkret, dass die Anzahl der gleichzeitig verarbeitbaren Informationseinheiten im Arbeitsge­dächtnis 7 plus oder minus 2 (vgl. Miller, 1956) beträgt. Befinden sich Informationen in einem bzw. in beiden Kanälen, spricht man von einem "Cogniti­ve Load". Diese Informationen sindjedoch nur temporär präsent. Baddeley (1997) erklärt die Funktionsweise wie folgt: auditive Sprachdarbietung wird direkt in den "Passiven Speicher" eingelesen, nach zwei Sekunden jedoch muss ein innerer Wiederholungsprozess bzw. artikulatorischer Kontrollprozess (auditorial Rehear­sal) erfolgen, damit die sprachlichen Informationen im Speicher präsent bleiben. Der visuelle Subbereich des Arbeitsgedächtnisses ist analog der phonologischen Schleife strukturiert, d.h. visuell wahrgenommene Informationen unterliegen ebenfalls einem inneren Rehearsalmechanismus, wenn Informationen erhalten bzw. kognitiv verfügbar bleiben wollen; andernfalls zerfallen sie. Werden dem Lernenden hingegen zu viele Informationen gleichzeitig präsentiert, ist das Kon­tingent an verarbeitbaren Informationen erschöpft. Man spricht von einem "Cognitive Overload". Ist das der Fall, werden für den Lernprozess wichtige In­formationen nicht verarbeitet und es kann kein neues Wissen mit bereits vorhandenen Schemata ergänzt bzw. kombiniert werden. Gemäß der Cognitive- Load-Theorie können drei verschiedene Quellen kognitiver Belastung im Arbeits­gedächtnis auftreten. Das sind zum einen die intrinsische Belastung, die extrinsische und die germane.

Die intrinsische Belastung hängt von der Schwierigkeit der Aufgabe ab, die der Lernende bei deren Bearbeitung subjektiv wahrnimmt (vgl. ebd. S.45). Ein Lemer mit entsprechendem Vorwissen verfügt bereits über reichhaltige Wissensschemata und ist somit mühelos in der Lage die relevanten Schemata aus dem Langzeitge­dächtnis abzurufen und die neuen Informationen darin einzuordnen. Bei diesem Lemer ist die intrinsische kognitive Belastung relativ gering, während ein Lemer ohne Vorwissen diese Schemata nicht aufweist und diese erst konstruieren muss. Das erfordert dementsprechend eine wesentlich höhere Leistung des Arbeitsge­dächtnisses und erhöht somit diese Art der Belastung enorm.

Die zweite Art der Belastung ist die extrinsische. Deren Intensität hängt ab von der Darbietung des zu lernenden Wissens. Eine ungünstige didaktische Aufberei­tung erfordert vom Lernenden erhöhte kognitive Ressourcen, um den Lernstoff richtig verstehen und einordnen zu können.

Die dritte mögliche Art einer kognitiven Belastung stellt die germane dar. Dabei handelt es sich um Ressourcen, die für den eigentlichen Wissenserwerb benötigt werden, bspw. wenn Schemata im Arbeitsgedächtnis konstruiert werden (vgl. ebd.).

2.4 Didaktische Konsequenzen für die Konzeption eines CBT's

Anhand der Beschaffenheit des Arbeitsgedächtnisses und der damit verbundenen Begrenztheit der Verarbeitungskapazität lassen sich didaktische Konsequenzen für die Gestaltung einer computerbasierten Lemumgebung ableiten. Die oberste Prio­rität gilt der Reduktion der intrinsischen und der extrinsischen kognitiven Belastung, damit genug Ressourcen für den eigentlichen Lernprozess (germane kognitive Belastung) zur Verfügung stehen.

2.4.1 Reduktion der intrinsischen Belastung

Die intrinsische Belastung lässt sich reduzieren, indem der Lem-Designer die kognitiven Lernvoraussetzungen seiner (möglichst homogenen) Zielgruppe kennt, um im Rahmen der didaktischen Reduktion den Lernstoff derart aufzubereiten, dass dieser exakt dem Kompetenzniveau der Zielgruppe entspricht. Eine Alterna­tive, die jedoch den Programmieraufwand wesentlich erhöht und das Programm verteuert, besteht in der adaptiven Gestaltung des Lemprogramms. So könnte die Lernsoftware, wie es auch beim "Quick Placement Test" der Fall ist, zu Beginn dem Lernenden einige Fragen bzw. Aufgaben stellen, anhand derer das Programm die Kompetenz und das Vorwissen des Lemers einstuft und entsprechend dieses Niveaus den Lernstoff präsentiert. Da dies im Rahmen der vorliegenden Arbeit nicht zu realisieren ist, besteht eine weitere Möglichkeit darin, das Lemmaterial instruktional in mehrere kleinere Lerneinheiten zu segmentieren und dem Inhalt entsprechend zu sequenzieren (vgl. Niegemann et al., 2008, S.46).

2.4.2. Reduktion der extrinsischen Belastung

Um die extrinsische kognitive Belastung möglichst gering zu halten, wird das Lemprogramm für ein optimales Lernen während der Entwicklung den multime­dialen Gestaltungsprinzipien des DO-ID- Modells (Kap. 4) unterworfen. Nach Fertigstellung eines Prototyps (des Lernprogramms) folgt ein Usability-Test (Kap. 5), mit dessen Hilfe untersucht werden soll, ob die Nutzer mühelos in der Lage sind mit diesem Programm effektiv, effizient und mit Zufriedenheit zu arbeiten (vgl. ebd. S.421f).

2.4.3 Modalitäts-Effekt und andere Effekte

Wird in einer Lernumgebung Wissen in Form einer Grafik präsentiert, die durch einen erklärenden Text näher erläutert wird, wird nach Mayer's CTML hierbei ausschließlich der visuelle Kanal benutzt. Aufgrund der begrenzten Kapazität ist die Konsequenz eine Überlastung dieses Kanals, was zur Folge hat, dass der Lernprozess beschwerlicher wird. Tinsdall-Ford und Chandler & Sweller (1997 in Niegemann et al., 2008, S. 47) empfehlen zur Lösung dieses Problems den ge­schriebenen Text auditiv zu präsentieren, sodass der visuelle Kanal bei der Informationsaufnahme entlastet wird (Modalitätseffekt). Somit werden beide Ka­näle gleichermaßen benutzt. Kritisch anzumerken ist jedoch, dass Baddeley in seinem Arbeitsgedächtnis-Modell anhand der phonologischen Schleife postuliert, dass visueller Text - wie oben bereits erwähnt - zwar über die Augen wahrge­nommen, aber über den auditiven Kanal weiterverarbeitet wird. Somit besteht der einzige Vorteil des Lernens mit Bild und Ton darin, dass der Lernende nicht stän­dig zwischen Bild und geschriebenen Text "hin- und her-switchen" braucht. Entscheidend ist jedoch, dass die Erklärung des Modalitätseffekts nicht auf eine Überlastung des visuellen Bereichs im Arbeitsgedächtnis zurückgeführt werden kann, da visuell bildliche und visuell sprachliche Informationen in verschiedenen Subsystemen kodiert werden. Somit sind die Verarbeitungsstufen nach Baddeley nicht modalitätsspezifisch, sondern kodalitätsspezifisch (vgl. Rummer et al, 2008, S.101). Das hat zur Folge dass der visuelle Kanal bei der Verarbeitung von Bild und geschriebenen Text nicht wirklich überlastet wird, sondern das Verarbeiten der Informationen nur mehr Zeit in Anspruch nimmt aufgrund geteilter Aufmerk­samkeit. ,,Der Modalitatseffekt ist nach dieser Analyse ein Split-Attention- Effekt, der letztlich auf bei der Text-Bild-Integration auftretende Behältern- bzw. Rekonstruktionsanforderungen zurückgeht. Folglich sollte er nur bei simultaner Präsentation verbaler und piktorialer Information auftreten; bei sequenzieller Präsentation der zu integrierenden Texte und Bilder sollte hingegen kein Un­terschied zwischen auditiv und visuell dargebotenem Text beobachtbar sein...“ (ebd., S.102). Die Konsequenz bei der didaktischen Gestaltung ist, dass der Text zum Bild nur dann auditiv präsentiert werden muss, wenn die Verarbei­tung visueller und auditiver Information zeitgleich erfolgen soll. Wolfgang Schnotz (2005) ergänzt in seinem integrierten Modell des Text- und Bildverste­hens (ITPC), dass es bei der Darbietungsabfolge didaktisch sinnvoller ist, zuerst das Bild zu präsentieren und anschließend den dazugehörigen Text, damit das mentale Modell des Bildes durch die Textinformationen angereichert werden kann“ (Niegemann et al., 2008, S. 60). Diese Darbietungssequenz schont (extrin- sische) kognitive Ressourcen, da ein mentales Modell des Bildes die Textverarbeitung steuert und „...nur noch für das Bildverständnis ergänzende propositionale Präsentationen im Arbeitsgedächtnis erzeugt...“ (ebd., S.60) wer­den müssen und nicht der gesamte Textinhalt. Weiterhin postuliert er, dass das Modalitätsprinzip bei komplexen und umfangreichen Leminhalten nicht greift, da der es Lernende bei auditiver Textpräsentation schwerer hat, die für ihn relevanten Informationen zu selektieren und im Arbeitsgedächtnis zwischenzuspeichem. Der Lemer müsste den Text somit ständig wiederholen, um die entsprechenden Text- und Bildinformationen zu einem kohärenten Modell zusammenzufügen. Dies wiederum ginge zulasten der Prozesskontrolle und würde die extrinsische kogniti­ve Belastung ebenfalls erhöhen (vgl. ebd., S. 60).

Weiterhin kann beim multimedialen Lernen der Redundanzeffekt auftreten. Der von Sweller & Chandler (1991 ebd., S.48) postulierte Effekt zeigt anhand empiri­scher Untersuchungen, dass es ausreicht zu einem Bild einen dazugehörigen Text entweder visuell oder auditiv zu präsentieren. Wird der Text zeitgleich sowohl auditiv, als auch visuell dargeboten, wirkt diese Darbietungsform redundant und erhöht somit die kognitive Belastung, da der Lemer mehr Ressourcen für das Zu­ordnen derjeweiligen Informationen aus dem entsprechenden Kanal verbraucht.

2.4.4 Das Prinzip der zeitlichen und räumlichen Nähe

Der Split-Attention-Effekt lässt sich weitestgehend eingrenzen, wenn zusammen­gehörige visuelle Informationsquellen zeitlich und räumlich nahe beieinander positioniert werden (vgl. Niegemann et al., 2008, S.47). Dadurch verschwendet der Lern er keine kognitiven Ressourcen „...by scanning around the page“ (Ma­yer, 2005, S.189). Moreno & Mayer (1999, Exp. 1) untersuchten dies, indem sie Probanden die Entstehung von Blitzen erklärten, in der ersten Gruppe mit einer Erläuterung nahe der relevanten Grafik und in der zweiten Gruppe separiert da­von. Die Ergebnisse zeigten eindeutig, dass die durchschnittliche Lernleistung in der ersten Gruppe signifikant besser war gegenüber der zweiten. Analog dazu konnten sie in einem weiteren Experiment (ebd., Exp. 2) ebenso bessere Lerner­gebnisse für die zeitlich nah beieinanderliegende Bild- und Textpräsentation finden. Am besten geeignet für die didaktische Konzeption multimedialer Umge­bungen empfiehlt Sweller (1999 in Niegemann et al., 2008, S.47) die "integrierte Präsentationsform", bei der der visuelle Text jeweils genau an den Stellen direkt in die dazugehörige Grafik eingefügt wird, wo es für das Verstehen notwendig ist.

2.4.5 Mehrwert für den Lerner durch ausgearbeitete Beispiele

Ausgearbeitete Beispiele (Worked Examples) unterstützen das Problemverständ­nis des Lernenden effektiver, „...als die selbstständige Suche nach der Problemlösung“ (ebd.), da sich der Lerner primär auf deren Verständnis konzent­rieren kann. Sie ermöglichen somit eine effizientere Schemakonstruktion aufgrund der erhöhten zur Verfügung stehenden Arbeitsgedächtniskapazität (vgl. ebd.).

2.4.6 Fazit der didaktischen Konsequenzen

Der Erwerb neuer Informationen durch Selektion, Organisation und Integration in bereits vorhandene Schemata macht die Essenz des Lernens als Wissenserwerb aus. Das Optimieren der intrinsischen und extrinsischen Belastung ist jedoch nicht das primäre Ziel, sondern nur ein Mittel zum Zweck, um mehr (germane) kogniti­ve Ressourcen bspw. für die Bildung neuer Schemata bereitzustellen. Diese Schemata erleichtern den Erwerb neuer Information. Der Fokus des Instruktionsdesigns sollte folglich stets auf der didaktisch bestmöglichen Art des Schemaer­werbs liegen. Die Methode des fallbasierten Lernens ist bspw. dafür geeignet (vgl. ebd., S.49). Aufgrund dieser Erkenntnisse wird das Lemprogramm "Logik des Signifikanztests" einen Fall enthalten, dessen Inhalt informativ und für den Lern­prozess relevant ist. Bevorjedoch die didaktische Konzeption des Lernprogramms beginnt, sollen die theoretischen Grundlagen des Signifikanztests näher vorge­stellt und die Logik dahinter erklärt werden.

3. Theoretische Grundlagen Logik des Signifikanztests

3.1 Vorüberlegungen - Falsifikation

Zu Beginn einer jeden empirischen Untersuchung existiert ein Theoriekomplex, aus dem für die nähere Untersuchung einzelne Hypothesen abgeleitet werden. Aus kritisch-rationalistischer Sichtweise sind Hypothesen Annahmen über einen be­gründeten Zusammenhang zwischen A und В mit einem empirischen Gehalt, den es anhand spezifischer Kriterien zu überprüfen gilt. Nach Karl Popper, dem Be­gründer moderner Wissenschaftslogik können Hypothesen niemals verifiziert werden. Er veranschaulicht dies anhand seines "Schwan-Beispiels" (Popper in Keuth, 2004). Würde man die Hypothese "Alle Schwäne sind weiß" verifizieren, müsste man alle Schwäne, die jemals gelebt haben, die leben und diejemals leben werden kennen, um zu bestätigen, dass dies tatsächlich der Fall ist. Das istjedoch unmöglich. Analoges gilt dies auch für andere Hypothesen wie z.B. "Jeden Mor­gen geht die Sonne auf" oder "Alle Wale sind Säugetiere". Es ist aus der Sicht moderner Wissenschaftslogik nicht zulässig, anhand einiger beobachteter Bege­benheiten induktiv auf einen Allsatz zu schließen, da dies ein logischer Fehlschluss wäre. Nach Popper gibt es somit keine endgültige, "objektive" Wahr­heit. Nach ihm gilt jede Hypothese nur so lange, bis ihr Gegenteil oder etwas völlig Neues bewiesen wird. In Bezug auf die Hypothese "Alle Schwäne sind weiß" würde man demnach versuchen einen schwarzen Schwan zu finden. Gelingt dies, ist ein mit dem empirischen Gehalt dieser Hypothese unvereinbares Ereignis aufgetreten. Dies hat zur Folge, dass die Hypothese widerlegt ist - sie ist somit falsifiziert. Falsifikation bedeutet also die Suche nach Gegenbeispielen, die die Eingangshypothese widerlegen. Gelingt es nicht diese Gegenbeispiele zu finden, wird diese Eingangshypothese beibehalten, jedoch nur vorläufig bis (möglicher­weise irgendwann in der Zukunft) ein Gegenbeweis erbracht wird. Die Vorgehensweise der Falsifikation entspricht dem Grundprinzip moderner empiri­scher Forschung und bildet somit auch die Grundlage des Signifikanztests.

3.2 Deterministischer vs. Probabilistischer Zusammenhang

Die Hypothese "Alle Schwäne sind weiß" stellt einen deterministischen Zusam­menhang dar, also "Wenn es einen Schwan gibt, dann ist er immer weiß". Es existiert somit ein einhundertprozentiger Zusammenhang (r = 1). In den empiri­schen Sozialwissenschaften ist es jedoch eher selten, dass man diese Art des Zusammenhangs antrifft. Nehmen wir die Hypothese "Arbeiter wählen SPD" bzw. "Wenn jemand ein Arbeiter ist, dann wählt er immer SPD" wird in der Realität nicht der Fall sein. Nach falsifikatorischer Logik würde dies bedeuten, dass wenn nur ein Arbeiter nicht SPD wählt, diese Hypothese widerlegt ist und verworfen wird. Angenommen es wählen 9 von 10 Arbeitern die SPD, entspräche dies einem Anteil von 90 %. Es gäbe somit einen starken Zusammenhang zwischen Arbeitern und SPD, deren Falsifikation die empirische Forschung um wichtige Informatio­nen bringen würde. Deshalb wird aus heutiger wissenschaftlicher Sicht eine Hypothese nicht umgehend falsifiziert, wenn sie keinen deterministischen Zu­sammenhang aufweist, sondern es wird auch ein Zusammenhang in Form von Wahrscheinlichkeiten akzeptiert. Man spricht daher von einem probabilistischen Zusammenhang (vgl. Galtung, 1969, S.309ff & Dreier, 2006). Wie stark dieser Zusammenhang mindestens sein muss, um noch akzeptiert zu werden, hängt von der zu erforschenden Fragestellung ab. Entscheidend ist, dass eine klare Tendenz erkennbar ist.

3.3 Idee des Signifikanztests

Im Süden der USA wurden zwischen I960 und 1980 Klagen vor Gericht einge­reicht, in denen Sachverständige eine Ungleichbehandlung bei der Geschworenenauswahl darlegten. Normativ werden Geschworene zufällig aus dem Wählerverzeichnis ausgewählt. In den fünfziger und sechziger Jahren jedoch waren in den Jurys nur sehr wenige farbige Amerikaner vertreten. Auf einer Liste mit 80 möglichen Geschworenen befanden sich lediglich vier Farbige. Das führte dazu, dass einige Angeklagte die gesprochenen Urteile angefochten. Die Justiz behauptetejedoch eindringlich, dass es sich hierbei um einen Zufall handelt. (Die­ses Beispiel stammt aus Gonick & Smith, 2009, S.146ff). Nun gilt es zu überprüfen, ob es sich hierbei auch tatsächlich um einen Zufall handelt oder ob System dahinter steckt und bewusst mehr Weiße in die Jurys gewählt wurden, als Farbige. Zur Überprüfung dieses Problems wird ein Signifikanztest benutzt. Dies ist ein statistisches Test-Instrument, das anhand statistischer Formeln und Funkti­onen hilft, eine begründete Entscheidung herbeizuführen für die Annahme eines Zufalls oder für die Annahme einer Diskriminierung.

3.4 Test-Voraussetzung: Hypothesenbildung von HO und Hl

Wie oben bereits angedeutet, werden hierbei Annahmen (auch Hypothesen ge­nannt) auf ihre Gültigkeit hin getestet. Dazu bedarf es zunächst der präzisen Formulierungjener Hypothesen. Im obigen Fall lautet die Hypothese:

"Die Zusammensetzung der Geschworenen ist nicht zufällig zustande gekommen".

Dies stellt die Eingangshypothese dar und wird auch als Altemativhypothese (Hl) bezeichnet. Das ist deshalb der Fall, weil „... sie eine Erweiterung oder Al­ternative zum bestehenden Wissen beschreibt. Sie stellt inhaltlich das da, was man vermutet oder finden 'will“ (Nachtigall & Wirtz, 2006, S.124). Das Gegenteil die­ser Alternativhypothese stellt die Nullhypothese (HO) dar. Sie impliziert, dass es keinen systematischen Zusammenhang bezüglich der Geschworenen gibt. In die­sem Fall lautet die Nullhypothese:

"Die Zusammensetzung der Geschworenen ist zufällig zustande gekommen".

Signifikanz bedeutet demnach, es gibt zwischen dem Faktor "Farbige" und deren Anteil bei den Geschworenen einen systematischen Zusammenhang, d.h. dieser Faktor hat tatsächlich einen Einfluss auf die Verteilung der Geschworenen und "nicht signifikant" bedeutet der Faktor "Hautfarbe" hat keinen Einfluss auf die letztliche Verteilung (vgl. Gonick & Smith, 2009).

3.5 Test-Voraussetzung: Transformation verbaler in statistische Hypothesen

Damit die Hypothesen statistisch prüfbar werden, bedürfen sie anhand eines messbaren Kriteriums einer Transformation in eine statistische Schreibweise. Für die Alternativhypothese (Hl) wird der empirische Gehalt durch die Anzahl der weißen und farbigen Geschworenen gemessen. Zur Vereinfachung nehmen wir an, es gibt in Amerika nur weiße und farbige Wahlberechtigte, die zu gleichen Anteilen vorhanden sind. Dadurch beträgt die Wahrscheinlichkeit bei der zufälli­gen Auswahl eines weißen Geschworenen p = V2. Das Komplement, einen Farbigen zufällig zu wählen, beträgt demnach ebenfalls p = V2. Das bedeutet, dass bei einer zufälligen Ziehung von 80 Geschworenen (in etwa) 40 Weiße und 40 Farbige dabei sein müssen. Nehmen wir weiterhin an, das entspricht einem Durchschnittswert. Die tatsächliche Verteilung einer Stichprobe ergab, dass von den 80 Geschworenen 76 weiß sind und nur vier Personen farbig. Anhand dieser Daten können nun die statistischen Hypothesen gebildet werden:

Hl: "Der Anteil farbiger Geschworener in der Stichprobe ist signifikant geringer, als im Durchschnitt." (p < V2)

HO: "Der Anteil farbiger Geschworener in der Stichprobe unterscheidet sich nur zufällig (nicht signifikant) vom Durchschnitt." (p = V2)

Statistische Hypothesen enthalten stets Aussagen über statistische Kennwerte wie Wahrscheinlichkeiten, Mittelwerte, Anteile, Korrelationen, etc. Somit gibt es im­mer mehrere Möglichkeiten, um statistische Hypothesen zu formulieren. Der Durchschnittswert (auch Mittelwert) dient hierbei als Vergleichsbasis und muss vor dem Test eindeutig bekannt sein.

3.6 Test-Voraussetzung: gerichtete vs. ungerichtete Hypothesen

Weiterhin muss im Vorfeld bekannt sein, ob die Altemativhypothese gerichtet o­der ungerichtet ist. Gericht bedeutet, dass der Anteil der Geschworenen in der

Stichprobe im Vergleich zum Durchschnittswert signifikant geringer oder signifi­kant größer ausfällt. In diesem Fall ist der Anteil signifikant geringer und damit handelt es sich um eine gerichtete Hypothese. Im Gegensatz dazu ist bei einer un­gerichteten Hypothese nur bekannt, dass es einen signifikanten Unterschied gibt, jedoch nicht in welcher Art und Weise (größer oder kleiner). Diese Information ist bedeutsam bei der Testdurchführung, da gerichtete Hypothesen einseitig getestet werden und ungerichtete Hypothesen zweiseitig. Was dies konkret bedeutet, wird im Abschnitt "Testdurchführung" weiter unten erläutert. Wichtig dabei ist, dass der zu untersuchende Effekt nur aufgrund theoretischer Vorüberlegungen in diese eine Richtung gehen darf. „Es ist nicht zulässig, sich eventuelle Unterschiede in den Daten anzugucken und daraufhin eine passende gerichtete Hl zu formulie­ren“ (Nachtigall & Wirtz, 2006, S.132). Ein anschließender Test dieser Art wäre unbrauchbar.

3.7 Test-Voraussetzung: Kennwerteverteilung bestimmen

Bevor der Signifikanztest durchlaufen wird, muss analysiert werden, um welche Art der Verteilung es sich handelt. Das ist deshalb wichtig, da jede Verteilung ei­ner anderen statistischen Berechnung bedarf. Ohne diese Klärung kann der Test keine validen Ergebnisse liefern. Da in diesem Fall davon ausgegangen wird, dass es nur zwei Möglichkeiten gibt, entweder ein weißer Geschworener wird in die Jury berufen oder ein farbiger, handelt es sich hierbei um eine Binomialvertei­lung.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 3.1: Graph der Normalverteilungskurve

Aufgrund der großen Anzahl (n > 50) nähert sich die Binomialverteilung einer Normal­verteilung an. Auch zur besseren Veranschaulichung wird in diesem Beispiel der Graph einer Normalverteilung verwen­det, der die Kennwerteverteilung der Nullhypothese repräsentiert. Das bedeutet, die Auftretenswahrscheinlichkeit aller möglichen Ereignisse unter der Annahme, dass tatsächlich die Geschworenen zufällig in die Jurys gewählt werden.

3.8 Testdurchführung: Signifikanzniveau a bestimmen

Die Voraussetzungen sind nun geklärt. Doch bevor die statistischen Berechnun­gen beginnen, ist es zwingend erforderlich, das Signifikanzniveau festzulegen.

Das Signifikanzniveau wird auch als a bezeichnet (vgl. Bortz, 1993) und gibt an, bis zu welchem Kennwert der Sachverständige noch bereit ist zu akzeptieren, dass es sich bei der Art der Zusammensetzung der Geschworenen um einen Zufall handelt und ab wann nicht mehr, weil die Wahrscheinlichkeit eines solchen Er­eignisses zu gering erscheint. Das a ist somit ein spezifisches Grenz-Kriterium, das festlegt, bis wohin der Sachverständigte sich noch für die Nullhypothese (HO) entscheidet und das Ereignis der Zusammensetzung als "zufällig zustande ge­kommen" akzeptiert und ab wann nicht mehr, weil es als zu unwahrscheinlich gilt.

Ist Letzteres der Fall, wird die Nullhypo­these (HO) verworfen und der Sachverständigte kommt im Umkehr­schluss zu der Annahme, dass die Zusammensetzung Willkür ist und es sich

Abbildung in dieser Leseprobe nicht enthalten

Abb. 3.2: Verteilung mit Signifikanzniveau hierbei um Diskriminierung handelt. (Anm.: a=l% wurde zur besseren Veranschaulichung graphisch größer dargestellt)

Bei der Festlegung der Größe von a sind verschiedene Werte möglich, die Kon­vention jedoch beträgt a=5%, a=l% und auch a=0.1% (Bortz, 1993, S.ll). Die Größe des Signifikanzniveaus sollte entsprechend der zu untersuchenden Frage­stellung gewählt werden. Der Sachverständigte legt die Grenze in diesem Fall bei a=l% fest. Das bedeutet: tritt eine Zusammensetzung der Geschworenen von 76 Weißen und vier Farbigen mehr als einmal in 100 Fällen auf, wird dies als zufäl­lig zustandegekommenes Ergebnis angenommen und bei weniger oder gleich einem dieser 100 Fälle nicht mehr. Das a dient somit „... als noch akzeptabler Schwellenwert für die Wahrscheinlichkeit, dass der Effekt statistisch signifikant ist...“ (Gonick & Smith, 2009, S.149). Da in diesem Fall laut Altemativhypothese
einseitig getestet wird, befinden sich die 1% an einem (linken unteren) Ende der Verteilung. Würde hierbei zweiseitig getestet werden, würden sich die 1% zuje 0,5% aufbeiden Enden der Verteilung befinden.

3.9 Testdurchführung: a- und ß-Fehler

Die Tatsache, dass bei weniger als einem Prozent die Nullhypothese verworfen wird, heißt jedoch nicht, dass sie nicht wahr sein kann. Dadurch kann der Sach- verständigte beim Treffen seiner Entscheidung einen Fehler machen und versehentlich die Nullhypothese verwerfen, obwohl sie in Wirklichkeit stimmt. Das ist der a-Fehler bzw. die Irrtumswahrscheinlichkeit (vgl. Nachtigall & Wirtz, 2006), die der Sachverständigte bei seiner Entscheidung in Kauf zu nehmen hat. Umgekehrt kann es auch fälschlicherweise passieren, dass die Nullhypothese bei­behalten wird, obwohl sie falsch ist. Das ist der ß-Fehler. Die unten stehende Tabelle stellt alle Entscheidungsmöglichkeiten bei einem Signifikanztest grafisch dar.

Abbildung in dieser Leseprobe nicht enthalten

Tab. 3.1: Entscheidungsoptionen in Nachtigall & Wirtz, 2006, S.128

3.10 Testdurchführung: Ermittlung des P-Wertes

Die Art der Kennwerteverteilung, die Größe des Signifikanzniveaus und die rele­vanten Wahrscheinlichkeiten sind bekannt. Nun beginnt die eigentliche Berechnung. Damit der Sachverständigte sich für HO oder Hl entscheiden kann, benötigt er die „... Wahrscheinlichkeit für das "Zustandekommen" des gemesse­nen oder eines noch extremeren Ergebnisses bei Gültigkeit der Nullhypothese. Diese bedingte Wahrscheinlichkeit wird als P-Wert bezeichnet“ (Nachtigall & Wirtz, 2006, S.125).

P-Wert = P( 'Vorgefundenes oder noch extremeres Ergebnis | HO gilt )

Die Berechnung für dieses Beispiel lautet:

Abbildung in dieser Leseprobe nicht enthalten

3.11 Testdurchführung: Entscheidung für oder gegen HO fällen

Im letzten Schritt des Signifikanztests muss der Sachverständigte eine begründete Entscheidung für oder gegen die Nullhypothese fällen. Dazu muss der errechnete P-Wert mit der zuvor festgesetzten Grenze a verglichen werden. Der P-Wert in diesem Fall ist geringer als die Wahrscheinlichkeit, „...drei Royal Flushs nachei­nander zu erhalten“ (Gonick & Smith, 2009, S.149). Somit ist der errechnete P- Wert wesentlich kleiner als а (statistisch: P < a). Dadurch ist der Sachverständigte nicht mehr bereit die Zusammensetzung von 4 Farbigen der 80 gesamten Ge­schworenen als Zufall anzunehmen und verwirft die Nullhypothese. Er akzeptiert folglich die Altemativhypothese und kommt zu dem Umkehrschluss, dass die Farbigen bei der Zusammensetzung der Jury diskriminiert worden.

3.12 Zusammenfassung - Die einzelnen Schritte in Kurzform

Nach Nachtigall & Wirtz (2006, S.131) besteht der Signifikanztest aus vier Schrit­ten:

(0) Zunächst gilt es zu überprüfen, ob die Voraussetzungen des Tests erfüllt sind. Das beinhaltet das Bestimmen der relevanten Wahrscheinlichkeiten, Mittelwerte, Art der Kennwerteverteilung, Aufstellen der verbalen Alternativ- und Nullhypo­these und deren Transformation in statistische Hypothesen. Zudem muss spezifiziert werden, ob es sich um gerichtete oder ungerichtete Hypothesen han­delt.

[...]

Ende der Leseprobe aus 97 Seiten

Details

Titel
Entwicklung und Erprobung eines multimedialen Lernprogramms zum Thema "Statistik"
Hochschule
Universität Erfurt
Veranstaltung
Abschlussarbeit
Note
1,7
Autor
Jahr
2011
Seiten
97
Katalognummer
V178033
ISBN (eBook)
9783656001089
ISBN (Buch)
9783656000655
Dateigröße
4039 KB
Sprache
Deutsch
Anmerkungen
Schlagworte
entwicklung, erprobung, lernporgamms, thema, statistik
Arbeit zitieren
Andreas Heidemann (Autor:in), 2011, Entwicklung und Erprobung eines multimedialen Lernprogramms zum Thema "Statistik", München, GRIN Verlag, https://www.grin.com/document/178033

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Entwicklung und Erprobung eines multimedialen Lernprogramms zum Thema "Statistik"



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden