Kognition. Aufmerksamkeit und Bewusstsein, Wissenspräsentation, Problemlösen und Denken


Skript, 1999

25 Seiten


Gratis online lesen

Inhaltsverzeichnis

A Aufmerksamkeit und Bewusstsein

B Wissensrepräsentation

C Problemlösen und Denken

A Aufmerksamkeit und Bewusstsein

Mit Aufmerksamkeit wird in der Psychologie ein Phänomen bezeichnet, mit dem wir die ungeheuer große verfügbare Informationsmenge Filtern können. Dies ist notwendig, da die Kapazität zur Reizaufnahme nur begrenzt ist. Aufmerksamkeit erlaubt es, die beschränkten mentalen Ressourcen richtig einzusetzen. Aufmerksamkeit lenkt kognitive Prozesse, die zu einem bestimmten Zeitpunkt am salientesten sind.

Aufmerksamkeit betrifft das Verarbeiten von Informationen (Empfindungen, Erinnerungen und Gedanken) während Bewusstsein die Reflexion dieser Prozesse betrifft. Wurde früher von der Kongruenz zwischen Aufmerksamkeit und Bewusstsein ausgegangen, ist heute allgemein anerkannt, dass bestimmte kognitive Prozesse ohne bewusste Aufmerksamkeit stattfinden können.

Bewusste Aufmerksamkeit

Bewusste Aufmerksamkeit bietet in folgenden Zusammenhängen Vorteile:

- Kontrolle der Situation: Beobachtung der System-Umwelt- Kommunikation zur Gewährleistung der Anpassung an die Situation
- Konstruktion von Kontinuität: Verbindung der Gegenwart mit der Vergangenheit und damit auch Konstruktion von Identität
- Kontrolle und Planung zukünftiger Handlungen auf der Grundlage der beiden erstgenannten Punkte.

Vorbewusste Verarbeitung

Kognitive Prozesse die dem aktiven willentlichem Bewusstsein nicht zur Verfügung stehen werden vorbewusste Verarbeitung genannt. Bestimmte Stimuli oder Informationen werden mental verarbeitet, ohne dass absichtliches Bewusstsein vorliegt (man wird ihrer nicht gewahr). Eine Klasse von Phänomenen der vorbewussten Verarbeitung wird Priming genannt. Dabei aktivieren bestimmte Stimuli mentale Bahnen, welche die Möglichkeit, nachfolgende Stimuli zu verarbeiten, verstärken. Priming Stimulus und der nachfolgende Stimulus sind auf irgendeine Art miteinander verbunden. Das Auftreten des Ereignisses A erhöht also das Auftreten des Ereignisses B. Folgende Beispiele gehören zum Priming- Phänomen:

Anthony Marcel führte dazu folgenden Versuch durch (Sternberg S. 71): Er gab den Vpn ein zweideutiges Wort welches als Priming Stimulus diente und ließ sie anschließend weitere Worte zu Oberklassen zuordnen. Der Priming Stimulus hemmte oder beschleunigte die Zuordnung. Das Wort 'Blatt' als Priming Stimulus kann z.B. die Zuordnung anderer Worte zum Wort 'Baum' hemmen und zum Wort 'Buch' erleichtern (oder umgekehrt). Wenn der Priming Stimulus nicht vorhanden ist, werden beide Zuordnungsmöglichkeiten aktiviert.

Subliminale Wahrnehmung: Bei der subliminalen Wahrnehmung werden Reize verarbeitet, ohne dass man sich dessen bewusst wird. So lassen sich zum Beispiel Bilder in einen Film einbauen, die eine bestimmte Botschaft aussenden, ohne dass die Betrachter diese Bilder wahrnehmen. Bei anschliessender Kontrolle lässt sich feststellen, dass die Botschaft dennoch wahrgenommen wurde. Heute ist umstritten, ob die subliminale Wahrnehmung tatsächlich so eine große Bedeutung hat, wie ihr in den fünfziger Jahren zugebilligt wurde.

Tip-of-the-tongue: Über eine Information ist zwar Wissen abrufbar, die Information selber ist jedoch nicht parat. Sie muss daher vorbewusst vorhanden sein.

Bei manchen Hirnschäden lassen sich Phänomene vorbewusster Wahrnehmung beobachten. So können Patienten mit dem Blind-sight Phänomen, obwohl Informationen vorhanden zu sein scheinen, nicht bewusst abgerufen und wahrgenommen werden.Patienten mit neglect scheinen auch mit der vernachlässigten Gehirnhälfte etwas wahrzunehmen, ohne dass es ihnen bewusst wird. So erkennen sie zwar keinen Unterschied zwischen den beiden Häusern im Bild 1, dennoch würden sich die meisten für das untere Haus entscheiden.

Kontrollierte vs. automatische Verarbeitungsprozesse

Automatische Prozesse benötigen keine bewusste absichtliche Kontrolle. Kontrollierte Prozesse hingegen benötigen bewusste Kontrolle. Sie verlaufen seriell und langsam im Vergleich zu automatischen Prozessen. Posner und Snyder definieren automatische Prozesse nach folgenden drei Eigenschaften:

- dem wissentlichen Bewusstsein verborgen
- nicht intentional
- benötigen wenig Aufmerksamkeitsressourcen

Kontrollierte Prozesse lassen sich schwer in gleicher Weise definieren, da sie vielfältiger sind und in verschiedenen Formen vorkommen. Automatische Prozesse können in ihrer Performance durch Bewusstmachung beeinträchtigt werden. Viele Fähigkeiten beruhen ursprünglich auf kontrollierten Prozessen. Durch lernen werden kontrollierte Prozesse automatisiert. Fertigkeiten, die man früh im Leben erlernt hat, sind oft stärker automatisiert als Fertigkeiten, die man später erlernt hat. Der Prozess, der von der kontrollierten Fertigkeit zur Automatisierten Fertigkeit führt, wird Automatisierung oder Prozeduralisierung genannt. Die Grundlage dieses Prozesses ist Übung. Durch Übung werden die verschiedenen einzelnen Schritte eines Prozesses immer stärker zu einem Gesamtprozess integriert. Am Ende wirken die vielen Einzelschritte als ein einziger Prozess. Dadurch werden weniger kognitive Ressourcen benötigt, so dass der Prozess effektiver Ablaufen kann (J. Anderson, LaBerge und Samules).

Die 'instance theory' bietet einen alternativen Erklärungsansatz (Logan). Demnach besteht Automatisierung darin, dass auf bestimmte Reize hin das Wissen zu den korrespondierenden Reaktionen vorhanden ist. So stellt z.B. 2x8 einen Reiz dar, der die Reaktion '16' auslöst. Dieser Ansatz geht nicht von begrenzten Ressourcen aus. Ein eingeübter Algorithmus kann direkt aus dem Gedächtnis abgerufen werden. Es erfolgt eine Assoziierung von Reiz mit einer Reaktion. Logans Theorie lässt sich daher in die assoziazionstheoretischen Ansätze einbetten. Während mit der 'instance theory' die automatisierten Reaktionen auf bestimmte Stimuli besser erklärt werden können, lassen sich generelle Automatisierungen besser über das Übungsmodell erklären.

Lerneffekte für Automatisierungsprozesse ergeben eine negative Beschleunigungskurve. Je stärker die Automatisierung fortgeschritten ist, desto weniger Effekt hat weitere Übung auf zusätzliches Lernen der Automatisierung. Die Möglichkeiten zur Automatisierung hängen von der Schwierigkeit der Aufgabe ab. Unter bestimmten Umständen kann die Automatisierung von Prozessen zu Fehlern im Verhalten führen (Sternberg, S. 77).

Abbildung in dieser Leseprobe nicht enthalten

Eine vertiefte Automatisierung wird Habituierung genannt. Habituierung bedeutet Automatisation unter Routineumständen. Die automatisierte Handlung wird unter gleichen Umständen in der gleichen Situation immer wieder durchgeführt.

Funktionen von Aufmerksamkeit

Selektive Aufmerksamkeit

Selektive Aufmerksamkeit ist die einfachste Form sensorische Informationen zu ordnen. Dabei lassen sich drei Orientierungen unterscheiden:

- Orientierungsreflex: automatische Orientierungsreaktion
- offene Orientierung: beobachtbare oder zumindest messbare Orientierungsreaktion
- verdeckte Orientierung: z.B. Beschattung

Die klassische Situation in der selektive Aufmerksamkeit beobachtet werden kann ist die Cocktail-Party (Colin Cherry). Cherry spielte Vpn zwei unterschiedliche Informationen gleichzeitig vor und bat sie, einer Quelle zu folgen ('shadowing'). Die Informationen wurden einmal binaural und einmal dichotisch präsentiert. Bei dichotischer Präsentation ist das Beschatten möglich, da räumliche Trennung der Reize das shadowing vereinfacht. Sogar Veränderungen im Informationsfluss werden wahrgenommen (spricht eine Frau oder ein Mann etc.). Das Experiment wurde viel variiert, unter anderem auch von Anne Treisman. So war festzustellen, dass es zwar relativ einfach ist, einem zusammenhängenden Text zu folgen, Zufallslisten mit Worten konnten dagegen nicht so einfach 'beschattet' werden. sinnlose Silben zu verfolgen ist das Schwierigste. Vereinfachend wirkten sich auch folgende Faktoren aus:

- verschiedene Tonhöhe der Reize
- verschiedene Lautstärken
- verschiedene Geschwindigkeiten

Auch bei visuellen Prozessen lässt sich selektive Aufmerksamkeit beobachten. Am bekanntesten ist der sogenannte Stroop-Effekt (benannt nach Ridley Stroop). Im folgenden Bild sollen zunächst die Namen der Farben benannt werden, dann die Namen der Balkenfarben und zum Schluss die Namen der Farben, in denen die Farbworte geschrieben sind.

Abbildung in dieser Leseprobe nicht enthalten

Es ist festzustellen, dass die Reaktionszeit bei der letzten Aufgabe am längsten ist. Farbe und Farbname sollen hier selektiv wahrgenommen werden. Dies erfordert hohe Kontrolle der Aufmerksamkeit. Eine alternative Erklärung stammt von MacLeod. Danach interferieren zwei Aktivierungswege. Da Lesen bei den meisten Erwachsenen ein automatisierter Prozess ist, wird das Lesen der Farbworte sofort aktiviert. Man kann nicht nicht lesen.

Viglianz

Viglianz bedeutet 'Wachsamkeit' und beschreibt in der Kognition eine längere Aufmerksamkeit die sich auf die Beobachtung zur Entdeckung eines bekannten Signals bezieht. Diese Situation ist typisch für Berufe, in denen Warnsysteme eine Rolle spielen. Ein Signal taucht selten auf, benötigt dann aber sofortige Aufmerksamkeit. Viglianz wird häufig im Zusammenhang mit der Signalentdeckungstheorie (SDT) betrachtet. Demnach gibt es vier Möglichkeiten beim Versuch, ein Signal zu entdecken:

Abbildung in dieser Leseprobe nicht enthalten

Das klassische Experiment zur SDT stammt von Mackworth. Auf einem Display war ein Zieger zu sehen, der sich schrittweise vorwärtsbewegte. Die Vpn waren aufgefordert eine Taste zu drücken, sobald sie bemerken würden, dass der Zeiger zwei statt einem Schritt vorwärts gegangen war. Nach 30 Minuten wurde die Fehlerquote immer höher. Da die Vpn sensitiv blieben, waren Ermüdungserscheinungen als Erklärung unzureichend. Broadbent und Gregory erkannten, dass vielmehr die Motivation der Vpn sich verändert hatte. Die Vpn trauten ihren Beobachtungen nicht mehr. Sie wollten falschen Alarm verhindern und meldeten so insgesamt weniger zurück.

Müdigkeit verhindert ausreichende Performance bei schwierigen Aufgaben. Training kann jedoch die Aufmerksamkeit verbessern. Posner et al. fanden heraus, dass Aufmerksamkeitsprozesse im Zusammenhang mit der SDT sehr stark von Erwartungen beeinflusst werden. Erwartungen bezüglich der Lokalisation des Stimulus beeinflussen die performance stark, Erwartungen bezüglich der Art des Stimulus hingegen nicht.

Suche

Im Gegensatz zur Wachsamkeit beinhaltet Suche eine aktive Beobachtung und Suche nach einem Stimulus. Die Lokalisation muss dabei nicht an einen bestimmten Ort gebunden sein (z.B. Suche nach einem bestimmten Artikel im Kaufhausregal). Distraktoren stellen dabei Stimuli dar, die unsere Aufmerksamkeit vom Zielstimulus ablenken. Je nach Beschaffenheit des Suchgebietes (display) werden verschiedene Suchstrategien verfolgt. Ausführliche Untersuchungen hierzu stammen vonn Treisman. Sie hat folgende Arten des Suchens klassifiziert. Eigenschaften-Suche (feature search): Damit wird nach Stimuli gesucht, deren eigenschaften klar von den umgebenden Distraktoren abweichen. Wenn die Abweichung nur sehr gering ist, muss der Zielreiz nicht nur auf seine Eigenschaft hin gesucht werden, sondern auf die spezielle Verbindung seiner Eigenschaften, die ihn von anderen Reizen unterscheiden. Dazu wird eine Verbindungs-Suche (conjunction search) durchgeführt *.

Treisman versucht mit Hilfe der Eigenschafts-Integrations-Theorie (feature integration theory) zu erklären, warum die Eigenschaften-Suche leicht fällt, während die Verbindungs-Suche schwerer durchzuführen ist. Dabei geht sie davon aus, dass für jeden möglichen Zielreiz eine mentale Karte vorhanden ist. In dieser Karte sind die Eigeschaften des Reizes präsent ohne dabei zusätzliche mentale Ressourcen zu verbrauchen. Bei der Eigenschaften-Suche wird die entsprechende Karte bei Auftreten der gesuchten Eigenschaft aktiviert. Bei der Verbindungs-Suche werden höhere Ressourcen benötigt, da quasi verschiedene Eigenschaften miteinander mental verbunden werden.

Hubel und Wiesel haben diese Theorie mit neurologischen Ergebnissen unterstützen können. Demnach gibt es spezielle Eigenschafts-Neuronen oder Kantendetektoren, die auf visuelle Reize unterschiedlicher Art differenziert reagieren. Dabei handelt es sich um Ganglienzellen, die durch Unterschiede in den Grauwerten des visuellen Feldes aktiviert werden. So können Sie Kanten durch Intensitätsänderungen entdecken (Johnson-Laird 1996: S. 82).

Alternativ zu Treismans Theorie versteht sich die Ähnlichkeits- Theorie (similarity theory) von Duncan und Humphrey. Demnach nimmt die Schwierigkeit der Suche mit der Ähnlichkeit von Distraktor und Zielreiz zu. Zusätzlich hängt die Schwierigkeit vom Grad der Ähnlichkeit der Distraktoren untereinander ab (hohe Ähnlichkeit erleichtert die Suche). Der Theorie von Treisman widerspricht auch die Entdeckung, dass die Schwierigkeit nicht von der Zahl der zu suchenden Eigenschaften abhängt. Daher haben Cave und Wolfe die Theorie der gelenkten Suche entworfen. Alle Suchprozesse verlaufen laut dieser Theorie in zwei Stufen: parallel und seriell. In der parallelen Stufe werden die mentalen Repräsentationen der möglichen Stimuli aktiviert. In der seriellen Stufe werden die aktivierten Elemente nacheinander untersucht. Das Auffinden hängt dann vom Grad der Aktivierung der mentalen Repräsentationen ab.

Geteilte Aufmerksamkeit

Geteilte Aufmerksamkeit liegt vor, wenn zwei oder mehr verschiedene Aufgaben gleichzeitig gelöst werden müssen. Die ersten Studien zu diesem Problem stammen von Neisser und Becklem. Sie kamen zu den Feststellungen, dass

- durch Training die Leistung bei geteilter Aufmerksamkeit verbessert wird, und
- die Erkennungsleistung auf Fertigkeiten beruht und nicht auf kognitiven Prozessen.

Weitere Versuche (Spelke, Hirst und Neisser) zeigten, dass die Vpn ihre Performance bei gleichzeitigem lösen zweier Aufgaben (Doppelaufgaben) durch Übung beträchtlich verbessern konnten. Zum Schluss einer ausgedehnten Übungsphase konnten Vpn Aufgaben simultan mit der gleichen Geschwindigkeit durchführen, wie sie Anfangs für die einzelnen Aufgaben benötigten. Die Automatisierung der Aufgaben ließ diese Entwicklung zu. Eine Vollautomatisierung lag dennoch nicht vor, denn die Vpn waren weiterhin in der Lage, die Aufgaben wieder kontrolliert auszuüben. Analysiert wurde sowohl die Genauigkeit und die Geschwindigkeitsperformance (speed-accurancy-Analyse). Geteilte Aufmerksamkeit ist einfacher, wenn die Kanäle von unterschiedlichen Modalitäten beansprucht werden.

Aufmerksamkeitstheorien

Die begrenzte Aufnahmekapazität von Informationen beschäftigt die Wissenschaft seit der kognitiven Wende in den fünfziger Jahren. Zunächst entwickelten sich die sogenannten ' Filter Theorien ' zur Erklärung des Informationsflusses von den Sinnesorganen zum Gedächtnis. Diese Theorien bauten auf dem Gedanken auf, dass zuviele sensorische Informationen auf die Sinne eindringen. Diese Informationen müssen demnach gefiltert werden. Broadbent schlug vor, dass ein Auswahlfilter bestimmt, welche Information über einen Kanal von begrenzter Kapazität zur Weiterverarbeitung weitergeleitet wird. Er stellte seine Theorie in einem Flussdiagramm dar, was damals eine neuartige Darstellungsweise war. Wenn auch von seiner Theorie heute nicht mehr viel geblieben ist, so doch zumindest diese Art der Darstellung.

Abbildung in dieser Leseprobe nicht enthalten

Wie der Grafik zu entnehmen ist, wird der Auswahlfilter vom Langzeitgedächtnis gesteuert. Das Verhalten wird so von Erinnerungen an frühere Erfahrungen gesteurert, die abgespeichert sind in Form von Wissen über die bedingte Eintrittswahrscheinlichkeit. Das Kurzzeitgedächtnis speichert eingehende Informationen für einige Sekunden, bis sie gefiltert worden sind. Dieses Modell wurde später mehrmals modifiziert, unter anderem von Anne Treisman. Sie stellte fest, dass sich die Ergebnisse ihrer 'shadowing' Experimente nicht mit dem Modell vereinbaren ließen. Während nach Broadbent andere Reize ausser dem Zielreiz blockiert werden geht Treisman davon aus, dass sie lediglich abgeschwächt werden. Laut Treismanerfolgt selektive Aufmerksamkeit in drei Stufen:

- präattentiv: Analyse der physikalischen Beschaffenheit des Reizes
- Musteranalyse: gibt es ein bestimmtes Muster im Signal (Musik, Sprache)
- Verarbeitung der Reize, die die ersten beiden Stufen geschafft haben

Ulrich Neisser entwickelte später eine Theorie, in der ältere und jüngere Ansätze vereint wurden. Demnach besteht Aufmerksamkeit aus einem vorbewussten automatisierten Prozess und einem aufmerksamenkontrollierten Prozess in dem die parallel aufgenommenen physikalischen Reize kognitiv seriell verarbeitet werden. Dieses Modell scheint eine höhere Erklärungskraft zu besitzen als seine Vorläufer. Der erste Schritt in diesem Modell wird durch automatische Prozesse bestimmt, während der zwiete Schritt kontrollierte Aufmerksamkeit verlangt. Der kontinuierliche Übergang zwischen diesen beiden Zuständen wird hier nicht erklärt.

Die neueste Entwicklung versucht die Filtertheorien durch eine Theorie der Aufmerksamkeitsressourcenverteilung (Attentional-Ressource Theories) zu ergänzen. Aufmerksamkeit ist demnach vor allem ein Prozessbei dem bestimmte Ressourcen verteilt werden. Dabei wird davon ausgegangen, dass die Aufmerksamkeitsressourcen begrenzt sind und durch Signalhemmung und Signalbeachtung entsprechend verteilt werden. Diese Theorie scheint ausser acht zu lassen, dass bestimmte Aufmerksamkeitsressourcen modalitätsspezifisch sind. Während klassische Filtertheorien eher für Aufgaben selektiver oder geteilter Aufmerksamkeit Erklärungsmodelle anbieten, können die Ressourcentheorien eher Aufgaben erklären, in denen es um komplexe Zusammenhänge geht und der Übungseffekt eine Rolle spielt.

B Wissensrepräsentation

Dieses Kapitel beschäftigt sich mit der Frage, wie Wissen und Vorstellungen im Geist repräsentiert sind. Da es keine direkten Methoden zur Erforschung innerer Repräsentationen gibt, müssen diese durch indirekte Methoden beobachtet werden. Von den Beobachtungen muss dann auf mögliche Formen der Repräsentation logisch geschlossen werden. Eine empirische Erforschung dieser Repräsentationen ist nur begrenzt möglich und auch nicht sehr reliabel. Neben den Laborexperimenten stehen heute auch zunehmend neuropsychologische Erkenntnisse zur Verfügung, unter anderem auch durch die Untersuchungen von Patienten mit Hirnschäden.

Eine grundlegende Kategorisierung des Wissens lässt sich nach den Fragestellungen "Wissen was" und "Wissen wie" vornehmen. Dabei wird ersteres deklaratives Wissen und letzteres prozedurales Wissen genannt. Heute kennt man auch die Unterscheidung nach explizitem Gedächtnis und implizitem Gedächtnis, die aber grundsätzlich anhand der gleichen Grenze verläuft.

Analoge Kodierung

Eine der einflussreichsten Theorien über mentale Repräsentation wurde Ende der 1970er Jahre von Allan Paivio ausgearbeitet. In der Theorie der dualen Kodierung wird davon ausgegangen, dass Informationen entweder visuell oder verbal kodiert sind. Alle Informationen sind in einem dieser beiden Kodes erfasst, gespeichert und können so mental bearbeitet werden und später abgerufen werden. Mentale Repräsentationen von Bildern entsprechen analogen Kodes ihrer physikalischen Reize. Wörter werden in symbolischen Kodes repräsentiert. Manche Informationen werden demnach in bildlich analoger Form und andere Informationen in verbal symbolischer Form gespeichert. Hochkonkrete Begriffe können auch in beiden Formen gleichzeitig repräsentiert sein, für andere Begriffe wiederum gibt es keine Kodierungsmöglichkeit in visueller Form. Empirische Unterstützung gab Paivio ein Experiment, in dem die Vpn aufgefordert wurden, eine Reihe von Worten und eine Reihe von Bildern die sie nur sehr kurz zu sehen bekamen zu wiederholen. Zwar fiel es den Vpn leichter, Bilder zu erinnern, dennoch konnten sie die richtige Reihenfolge der Worte besser replizieren. Für Paivio war das ein Hinweis darauf, dass zwei unterschiedliche Verarbeitungssysteme zur Verfügung stehen mussten. Auch Santa unterstütze mit einigen Experimenten diese Vermutung (vgl. Anderson S. 105/106). Von neurologischer Seite wird die Theorie durch die Tatsache unterstützt, dass verbale und visuelle Informationen in unterschiedlichen Hirnarealen und auf unterschiedliche Art verarbeitet werden (Messung der Veränderung der Blutzufuhr, Posner et al.).

Die Vorstellung, dass mentale Repräsentationen analog zu physikalischen Reizen kodiert werden, wird noch von anderen Befunden untermauert. So stellten Shepard et al.fest, dass die Zeit, die benötigt wird, um einen Gegenstand mental rotieren zu lassen eine Funktion des Drehwinkels ist. Die mentale Vorstellung der Rotation scheint demnach analog zur tatsächlichen Rotation zu sein. In einem anderen Versuch hat Stephen Kosslyn Vpn eine Karte vorgelegt, welche diese sich einprägen sollten. Anschließend sollten sie mental die Entfernung zwischen zwei Punkten auf der Karte zurücklegen. Diesen Prozess des mentalen scannens, also dem geistigen Abtasten der Karte, führten die Vpn genauso aus wie auf der physikalischen Karte. So dauerte der Scan bei grossen Entfernungen länger als bei kleinen Entfernungen. Kosslyn argumentierte, dass auf die mentalen Vorstellungen von Objekten, die analog zu ihren physikalischen Reizen kodiert sind, mentale Operationen angewandt werden können die auch analog zu ihren Operationen in der Umwelt sind. Auch das image scaling unterstützt dieses These. Demnach bleibt die Größenrelation zwischen zwei Objekten auch in der Vorstellung erhalten, also entsprechend der Wahrnehmung. Stellt man sich einen Elefanten neben einer Fliege vor und versucht dann Details von der Fliege auszumachen, gelingt dies nicht. Erst wenn man die Fliege auf mental auf Elefantengröße "heranzoomt", können weitere Details beschrieben werden. Diese Experimente weisen zumindest darauf hin, dass visuelle Vorstellungen funktional Äquivalent zu ihrer tatsächlichen Wahrnehmung sind, wenn eine vollständige identität mit der Wahrnehmung auch nicht angenommen werden kann.

Abstrakte Kodierung

Die Idee der analogen Kodierung findet jedoch innerhalb der Wissenschaft nicht unwidersprochene Unterstützung (wie könnte es anders sein...). So untersuchten beispielsweise Chambers und Reisberg die Interpretation von mehrdeutigen Figuren. Diese wurden den Vpn sehr kurz gezeigt, so dass die Vpn gerade eine Interpretation des Bildes aufbauen konnten. Danach wurden sie nach der alternativen Interpretation gefragt. Diese abzurufen müsste möglich sein, wenn Bilder tatsächlich analog repräsentiert sind. Den Vpn gelang es jeoch nicht, sich die Bilder alternativ zu ihrer Interpretation vorzustellen. Reed hat in einem Experiment den Vpn Figuren vorgelegt, die aus einzelnen geometrischen Figuren zusammengesetzt sind. Nach einer kurzen Präsentation fragte er die Vpn, ob einzelne geometrische Figuren (z.B. ein Parallelogramm im Davidstern) in der Figur vorkommen würden. Die Vpn waren meist nicht in der Lage, die Unterfiguren auszumachen. Diese Versuche können als Hinweise die gegen eine analoge Kodierung sprechen verstanden werden.

Einen alternativen Ansatz zur Vorstellung der analogen Kodierung wird mit der Propositionshypothese vertreten. Hauptvertreter dieser Theorie sind J. Anderson und G. Bower. Der Propositionshypothese zufolge ist Wissen nicht analog sondern abstrakt kodiert. Propositionen sind bedeutungshaltige Informationseinheiten. Sie entstehen durch die Beziehungen zwischen verschiedenen Sinnkonzepten. Ein Sinnkonzept besteht aus einer bedeutungshaltigen Einheit (z.B. 'Apfel'). Propositionen bezieht sich auf die Beziehungen zwischen verschiedenen Konzepten. Diese Beziehungen werden in einer dem Gehirn immanenten, nicht explizierbaren Form kodiert. Nicht interne Anordnungen werden rotiert oder gescannt, es findet lediglich eine Manipulation von Symbolketten statt, ähnlich wie der Maschinencode in einem Computer arbeitet (Pylyshyn).

Empirische Untersuchungen zur Unterstützung der Propositionshypothese gingen in die Richtung, die Verarbeitung von Bedeutungen zu untersuchen. Dabei wurde festgestellt, dass Erinnerungen an Details sehr schnell verblassen, der Bedeutungsgehalt einer Information wird hingegen länger behalten. Nachdem von Bildern oder Texten zunächst der Inhalt genau analysiert wird, wird die bedeutungshaltige Struktur eingeprägt. Information scheint im Gedächtnis so repräsentiert zu sein, dass die Bedeutung der elementaren Aussagen, nicht aber die Information über den Wortlaut erhalten bleibt. Dabei wird davon Ausgegangen, dass Informationen in Form von propositionalen Netzwerken organisiert ist. Die Analyse von Bedeutungen in Form von propopsitionalen Netzwerken wurde aus der Linguistik übernommen. Wittgensteinging davon aus, dass Begriffe nicht auf gleichen Elementen beruhen, sondern auf Ähnlichkeiten, die miteinander netzwerkartig verbunden sind. Die Propositionen sind Analysewerkzeug und lassen sich nicht empirisch nachweisen. Es gibt drei Arten, Propositionen und deren Beziehungen darzustellen: die kompakte lineare Darstellung, die Darstellung als Netzwerk zur Hervorhebung der Verbindungen und die hierarchische Darstellung.

Zur Analyse bietet sich die Darstellung von Bedeutungen in einem propositionalem Netzwerk an. In einem solchen Netzwerk sind Konzepte die kleinsten bedeutungshaltigen Einheiten. Die Propositionen bezeichnen die Beziehungen zwischen den verschiedenen Konzepten. Ein semantisches Netzwerk besteht aus einer Menge von Knoten. Diese Knoten sind die Präspositionen, Relationen (Prädikate) und Argumente (Subjekte und Objekte). Die Knoten repräsentieren die Konzepte.

Die erste Beschreibung eines semantischen Netzwerkes stammt von Quillian und Collins. Sie gingen von einer hypothetischen hierarchischen Gedächtnisstruktur auf drei Ebenen aus. Auf den drei Ebenen waren die Knoten nach immer allgemeineren Kriterien geordnet. Dieses Modell wurde bald revidiert, denn es war auf logischen und nicht auf empirischen Annahmen aufgebaut. Die strenge Hierarchie ließ sich nicht aufrecht erhalten. So sollten Vpn bestimmte Sätze durch Tastendruck bestätigen. Dabei stellte sich heraus, dass bestimmte Verbindungen zu Prototypen langsamer abrufbar waren als es auf Grund des theoretischen Netzwerkes hätte sein dürfen. Wenn beispielsweise gefragt wurde, ob ein Rotkelchen ein Vogel sei, kam die Antwort wesentlich schneller als bei der Frage, ob ein Pinguin ein Vogel sei. Pinguin und Rotkehlchen sind jedoch auf der gleichen Ebene und entsprechend gleich weit vom Prototyp Vogel entfernt. Auch die Falsifizierung liefert einen ähnlichen Befund. Die Vpn sollten Aussagen falsifizieren wie: 'Ein Pudel ist ein Fisch' und 'Ein Pudel ist ein Mineral'. Laut Quillian und Collins hätte die Verneinung dieser Aussagen gleich schnell erfolgen müssen. Das konnte empirisch nicht bestätigt werden.

Das Modell wurde daraufhin von Collins und Loftus revidiert. Die strenge Hierarchie wurde aufgegeben und verschiedene Verbindungstypen wurden eingeführt (ISA, HAS, CAN, CANNOT).

Minsky entwarf eine eigene Idee die auf Netzwerken basierte. Die Schemata nannte er dabei Bezugsrahmen. In einem Bezugsrahmen sind Begriffe als Prototypen repräsentiert. Jeder Rahmen enthält drei Informationen: (1) Wie wird der Rahmen benutzt, (2) was kann als nächstes erwartet werden und (3) was passiert, wenn diese Erwartung nicht bestätigt wird? Die Standardwerte eines Prototypen können in Situationen jederzeit überschrieben werden, um speziellem Wissen Raum zu geben und um dieses abzuspeichern.

Produktionssysteme

Produduktionssysteme sind Regelsätze, die sich auf den Output, also auf die Produktion von Handlungen beziehen. Mit den Produktionssystemen wird also zum einen nicht nur Wissensrepräsentation erklärt, sondern auch Problemlösen. Zum anderen können Produktionssysteme innerhalb der Wissensrepräsentation nicht nur die Repräsentation von deklarativem Wissen sondern auch von prozeduralem Wissen erklären. Produktionssysteme müssen als Modelle über die Architektur des Geistes angesehen werden (Johnson-Laird). Das bekannteste Produktionssystem ist der von Newell und Simon konstruierte General Problem Solver. Produktionssysteme beruhen auf der Idee, dass zur Planung von Handlungen das Wissen von allen Operationen notwendig ist, die geeignet sind um ein bestimmtes Problem zu lösen. Außerdem müssen die situativen Beschränkungen bekannt sein, mit denen gerechnet werden kann. Wissen wird laut Newell und Simon durch eine ungeheuren Menge von bedingten Regeln repräsentiert. Diese Regeln oder Produktionen haben die folgenden Form:

Bedingung --> Handlung

Ein Programm, von dem Newell und Simon annahmen, dass es im Arbeitsspeicher abläuft, verarbeitet und nutzt diese Regeln.

Eine ausgearbeitete Theorie, die auf Produktionsregeln beruht ist die ACT Theorie (Adaptive Control of Thought) von J. Anderson. Demnach gibt es ein deklaratives und eine prozedurales Gedächtnis. Ein Langzeitgedächtnis ist also für die Speicherung von Fakten und Erfahrungen und ein anderes für die Speicherung von Fähigkeiten zuständig. Für sämtliches Wissen nimmt Anderson an, dass es in Form von Propositionen vorlieg und in Netzweken organsiert ist. Auch prozedurales Wissen liegt zunächst in dieser Form vor, kann aber in Prozeduren umgewandelt werden. Ein drittes Gedächtnis ist das Arbeitsgedächtnis, welches in seiner Speicherlänge ständig variiert. Der Speicherinhalt aller drei Gedächtnisse kann in seinem Grad der Aktivierung variieren. Aktiviert wird dabei ein Knoten eines Netzwerkes. Die Aktivierung kann aufgrund eines externen oder internen (z.B. Gedanke) Stimulus erfolgen. Die Höhe der Aktivierung hängt vom Übungsgrad und vom zeitlichen Abstand der letzten Aktivierung des Knotens oder der Produktionsregel ab. Die Aktivierung eines Knotens kann weitere Knoten aktivieren oder hemmen (z.B. durch #). Die Aktivierung durch benachbarte Knoten wird als spreading activation bezeichnet. Somit wird der aufsteigende Modus mit dem anschließenden absteigenden Modus der Musterverarbeitung verbunden. Wissen ist nach Anderson in drei Stufen repräsentiert. Diese drei Stufen entsprechen zugleich einer Prozeduralisierung. Demnach erfolgt die Repräsentation zunächst kognitiv, dann assoziativ und schließlich autonom. Auf der letzten Stufe nutzen wir Wissen mit hoher Geschwindigkeit und Genauigkeit und haben ein hohes Maß an Integration und Koordination erreicht.

Parallele Verarbeitung

Eine weitere Theorie über die Beschaffenheit des Geist ist der recht junge Konnektionismus oder auch die Theorie der parallel verteilten Verarbeitung, kurz: PDP. Wie der Name schon ahnen läßt, basiert die Theorie auf der Art, wie bestimmte Einheiten miteinander verbunden sind. Das Gehirn selber ist mit seinen neuronalen Prozessen Vorbild für diese Theorie. Viele Prozesse der Informationsverarbeitung laufen parallel und nicht seriell ab. Solche Prozesse lassen sich in computersimulierten neuronalen Netzwerken modellieren. Das konnektionistische Modell ist allerdings keine direkte Abbildung neuronaler Prozesse. Vorreiter auf diesem Gebiet sind J. McClelland und D. Rumelhart. Grundidee ist die Beobachtung, dass das menschliche Gehirn Prozesse sehr schnell verarbeiten kann, obwohl ein einzelnes Neuron im Vergleich mit dem Computer sehr langsam arbeitet. Kognitive Prozesse werden parallel in verschiedenen Bereichen des Gehirns verarbeitet und netzwerkartig integriert. Alle Formen von Wissen sind nach dem konnektionistischen Modell in Netzwerken repräsentiert. Ähnlich wie in den propositionalen Netzwerken werden auch hier auf fundamentaler Ebene Elemente über Knoten miteinander verbunden. In den Knoten sind die Informationen repräsentiert.

Im Modell von McClelland und Rumelhart ist das Wissen nicht in expliziten Neuronen oder neuronalen Verbänden repräsentiert. Vielmehr sind es die Verbindungen selber, die das Wissen repräsentieren.

Verarbeitungseinheiten rechnen parallel und sind untereinander verbunden. Jede Einheit hat ein bestimmtes Aktivitätsniveau, dass sich jederzeit ändern kann. Abhängig ist dieses Niveau von der Unterstützung, die eine Einheit von anderen Einheiten bekommt. Diese ist wiederum abhängig von dem Gegenstand, den eine Einheit repräsentiert. Einheiten können sich untereinander ignorieren, verstärken oder hemmen. Diese drei Zustände ergeben ein Netz von Verbindungen, welches bestimmte Informationen repräsentiert. So können zwei Einheiten beispielsweise sich widersprechende Möglichkeiten repräsentieren (keine kompletten Informationen, aber Bausteine füe eine Information). Wenn eine dieser Einheiten aktiviert wird, wird sie die andere Einheit entsprechend hemmen.

Johnson-Laird schlägt als mögliche Synthese des konnektionistischen Ansatzes und der Produktionssysteme vor, dass verschiedene Ebenen der Repräsentation postuliert werden. Auf einer höheren Ebene arbeitet der Geist mit expliziten Symbolen wie in Produktionssystemen angenommen wird und auf einer tieferen Ebene werden verteilte symbolische Muster verarbeitet. Analog zu dieser Idee arbeiten Programmiersprachen wie LISP. Sie werden in einer expliziten Regelsprache auf einer hohen Ebene entworfen, die innerhalb des Computers auf niedrigen Maschinencode umgesetzt wird. Das Problem dabei belibt weiterhin, die Ebenen genau zu lokalisieren.

C Problemlösen und Denken

Theorien des Denkens

Verschiedene kognitionspsychologische Theorien lassen sich zu Assoziationstheoretischen Ansätzen zusammenfassen. Auf Aristoteles zurückgehend, besagen di eAssoziationsgesetze, dass Assoziationen durch Kontinuität, Ähnlichkeit und Kontrast gebildet werden. Jegliches Lernen beruht auf Assoziationen in dem Sinne, dass eine Erfahrungs mit einer anderen assoziiert wird. Dabei können extern beobachtete Erfahrungen miteinander assoziiert werden, aber auch eigene Verhaltensweisen mit den Konsequenzen. Assoziationen sind Verbindungen im Gehirn, die von einer Sache zu der nächsten führen.

Zu den assoziationstheoretischen Ansätzen kann der Behaviourismus gezählt werden. Klassische und operante Konditionierung lassen sich durch Assoziationen erklären. Es werden assoziative Verknüpfungen zwischen Reiz und Reaktion hergestellt. Thorndikeunterscheidet drei Elemente des Denkens:

- Stimulus: eine bestimmte Problemlösesituation
- Response: ein Problemlöseverhalten
- Assoziation: die Verbindung zwischen Stimulus und Response

Denken ist demnach eine Assoziation zwischen Stimulus und Response. Lernen erfolgt laut Thorndike nach dem Gesetz der Übung, wird also durch Übung verstärkt, und nach dem Gesetz des Effektes. Das bedeutet, dass Verhaltensweisen die nicht zur Problemlösung beitragen nicht verstärkt werden, frei nach dem Motto: "Erfolg wiederholt man gerne". Problemlösen ist nach Thorndike die Anwendung von Versuch und Irrtum. Wenn Lernen als Assoziationsbildung erfolgt, dann ergibt sich die Schwierigkeit der exklusiven Disjunktion: Ein Tier kann beispielsweise lernen, eine bestimmte Taste zu drücken, wenn eines von zwei Lichtern aufleuchtet oder auch wenn beide Lichter aufleuchten. Lernt das Tier aber, zu reagieren, wenn eines der beiden Lichter aufleuchtet, nicht aber wenn beide Lichter aufleuchten, versagt die Assoziationstheorie. Wenn die Assoziation zwischen Licht und Reaktion stark genug ist, muss sie bei dem erscheinen beider Lichter noch stärker sein. Um ein solches Vorgehen zu lernen, wird eine interne Repräsentation der Bedeutung benötigt.

Die Gestalttheoretiker haben mentalen Vorgängen schon früh eine große Bedeutung innerhalb der Psychologie zugeschrieben. Sie gehen davon aus, dass Denken mehr ist, als nur eine Ansammlung von Assoziationen. Um bei einem Problem zu einer Lösung zu gelangen, muss ein Problem zunächst als Ganzes erfasst werden. Erst mittels Einsichten gelangt man dann zu einer Lösung. Dieses Vorgehen wird als Produktives Denken von reproduktivem Denken unterschieden. Es geht über die bestehenden Assoziationen hinaus und besteht aus einer nichtlinearen Informationsverarbeitung. Eine empirische Grundlage zu dieser Theorie kann nicht entwickelt werden, da sich dass lösen von Problemen durch Einsicht nicht nachmodellieren lässt.

Es gibt allerdings empirische Unterstützung für die Annahme, dass zwischen einfachen linearen Problemen und 'Einsichts'-Problemen unterschieden werden kann. Metcalfefand heraus, dass für linear lösbare well-structured Probleme sehr gute Vorhersagen bezüglich der Problemlösefähigkeit und -zeit von den Vpn über sich selber geben lassen konnten. Bei den ill-structured Problemen trafen diese Vorhersagen überhaupt nicht mehr zu. Vpn schätzten sich sowohl was ihre Fähigkeit ein Problem zu lösen anging falsch ein, als auch bezüglich der Zeit die sie benötigen würden. So sagten einige, dass sie noch weit von der Lösung entfernt wären, und hatten einige Momente später die Lösung plötzlich gefunden. Metcalfe geht davon aus, dass diese Lösungen durch Einsicht gefunden wurden. Die internen Vorgänge zur Lösung solcher Probleme werden damit nicht erklärt.

Um eine Erklärung bemüht sich R. Sternberg mit der Drei-Prozess- Theorie. Die folgenden drei Prozesse sind an der Lösung von Problemen beteiligt:

- selektives Enkodieren: wichtige und irrelevante Informationen werden gefiltert
- selektives Vergleichen: neue und bereits bekannte Informationen werden miteinander verglichen und neue Analogien werden geschaffen
- selektive Kombination: neue Elemente werden miteinander effektiv kombiniert

Diese drei Vorgänge sind grundsätzlich an Denkprozessen beteiligt. Ihre Kombination kann zur Lösung von Einsichtsproblemen führen. Unterstützung kann das Lösen solcher Probleme durch einen Vorgang erfahren, der von verschiedenen Wissenschaftlern Inkubation genannt wird. Zum Problemlösen ist es sinnvoll, wenn das Problem für eine Zeit beiseite gelegt wird. eine solche Pause hat mehrere Effekte:

- unwichtige Details werden von wichtigen Unterschieden und vergessen (B.F. Anderson)
- neuere Erinnerungen werden in bereits bestehende integriert (selektive Kombination, J. Anderson)
- 'mental sets' werden abgeschwächt ( Bastik)
- positiver Transfer wird ermöglicht (Langley und Jones)
- mentale Kapazitäten werden freigesetzt (Luria)

Bei der Lösung von Problemen können folgende Transfereffekte auftreten:

1. positiver Transfer (erleichtert Problemlösen durch die Übertragung bereits vorhandener Modelle)
2. negativer Transfer (behindert Problemlösen durch die Übertragung bereits vorhandener Modelle und mental sets)
3. spezifischer Transfer (Übertragung einiger spezifischer Teilschritte)
4. allgemeiner Transfer (empirisch nicht belegte Übertragung von Fähigkeiten in bestimmten Gebieten auf andere Fähigkeiten)

Mental sets können für die Lösung von Problemen also sowohl hilfreich als auch hinderlich sein. Ein Phänomen, bei dem sich diese Konstruktionen als problematisch heraustellen ist die funktionale Fixierung. Es bezeichnet die Unfähigkeit, eine funktionale Uminterpretation einer Situation oder eines Objekts zu leisten. So kann das 'Zwei-Seile-Problem' (Maier) nur gelöst werden, wenn die am Boden liegenden Werkzeuge als Gewichte uminterpretiert werden und als Pendel benutzt werden. Entwickelt man zum Lösen eines Problems einen mental set und behält diesen bei, kann sich der von Luchin beobachtete Einstellungseffekt ergeben. Luchin gab seinen Vpn ein Problem, bei dem sie viele gleichartige Aufgaben hintereinander lösen mussten. Nach den ersten Aufgaben hatten die Vpn einen Algorithmus zur Lösung entwicklet, den sie auch beibehielten, als die Aufgaben mit einem anderen Algorithmus schneller zu lösen gewesen wären. Gestaltheoretiker verweisen zur Erklärung dieses Effekts auf das Vorhandesein von mental sets, während Assoziationstheoretiker hier Priming zur Erklärung bemühen.

Problemlösen

Probleme lassen sich in die Kategorien well-structured und ill-structured unterteilen. Ill-structured Probleme haben keinen eindeutigen Lösungsweg. Eine Charakterisierung ist aufgrund ihrer Vielgestaltigkeit schwer vorzunehmen. Die Bearbeitung von Problemen dieser Art wurde hauptsächlich unter den Einsichts-Problemen behandelt. Well-structured Probleme sind solche mit einem klaren linearen Lösungsweg, der von den Problemlösern entdeckt werden muss. Der klassische Typ solcher Probleme sind die Aufgaben im Mathematikunterricht. In der Forschung mit künstlicher Intelligenz erforscht man die Gruppe der move-problems. Diese well-structured Probleme verlangen einen klar definierten Lösungsweg. Am bekanntesten ist das Move Problem, bei dem eine Gruppe von Leuten mit einem Boot von einem Ufer zum anderen Ufer möchte. Dummerweise handelt es sich bei der Gruppe um zwei miteinander verfeindete Kategorien von Leuten, in der klassischen Form (nach Newell und Simon) sind es Hobbits und Orks. Nun muss die Gruppe übersetzen, ohne sich dabei umzubringen (ausführlich, siehe Sternberg S. 351ff.). Newell und Simon entwickelten zur Lösung dieses Problem ein Produktionssystem, in dem alle Operationen und Bedinungen formuliert waren. Der GPS plant Handlungsweisen anhand allgemeiner Suchprozeduren, wobei das Gesamtproblem in Unterprobleme zerlegt wird. Newell und Simon definierten zunächst einen Problemraum. Dieser wird durch Ausgangszustand und Ziel begrenzt und umfasst alle möglichen anwendbaren Operationen, die zwischen diesen beiden Zuständen liegen können. Da diese Operationen eine unendlich grosse Menge darstellen können, muss der Problemlöser herausfinden, wie er sich vom Anfangszustand zum Ziel bewegen kann. Dabei wird der Problemraum in viele Unterziele zerlegt. Zur Lösung der Unterprobleme werden Algorithmen entwickelt, die iterativ angewandt werden, bis ein unterziel erfolgreich bewältigt wurde. Da Menschen nicht die Möglichkeit haben, Algorithmen in sekundenschnelle immer wieder abzuarbeiten, schlugen Newell und Simon verschiedene Arten von Heuristken vor, mit dem der beste Weg zwischen Anfangszustand und Ziel ermittelt werden kann. Heuristiken sind ungeplante Vorgehensweisen. Bei der heuristischen means-ends Analyse werden Ist- und Sollzustand immer wieder miteinander verglichen. Das Bemühen der Problemlöser ist darauf ausgerichtet, die Differenz zwischen Anfangs- und Zielzustand zu minimieren. Ein anderes Vorgehen ist das working backward. Dabei startet der Problemlöser am Ziel und arbeitet sich dann zum Anfang vor. Umgekehrt wird die Strategie des working forward angewandt. Als klassisch Heuristisch muss die Methode generate and test angesehen werden. Dabei werden Lösungsmöglichkeiten überlegt und ausprobiert. Wenn sie funktionieren, werden sie weiterverfolgt, wenn sie scheitern, werden neue Lösungsmöglichkeiten überlegt.

Kreativität

Wie lässt sich erklären, dass manche Menschen Probleme auf ungewöhnliche Art lösen? Das Phänomen der Kreativität wird noch nicht lange in der Kognitionswissenschaft behandelt. Laut R. Sternberg wird durch Kreativität etwas geschaffen, was ursprünglich und wervoll ist. Diese Definition berücksichtigt die kuturelle Konstruktion, in dem etwas als ursprünglich und wertvoll angesehen wird überhaupt nicht und ist daher nicht sehr tragfähig.

Die ersten Ansätze haben versucht, Kreativität als messbare Größe zu bestimmen. Hauptvertreter des Psychometrischen Ansatzes sind Guilford und Torrance. Torrance entwarf einen eigenen Test zur Messung von Kreativität der sich auf offene Fragen stützte. Im kognitiven Ansatz wurden kognitive Voraussetzungen der Kreativität gesucht. Langley und Jones fanden, dass amaloges Schlussfolgern und Gedächtnisprozesse wichtig sind. Aus Sicht der Persönlichkeits- und Motivationspsychologie erkannte Barron, dass Offenheit und Aktzeptierende Einstellungen gegenüber anderen Rassen und Kulturen und Intuition * wichtige Voraussetzung für Kreativität sind.

Da Kreativität etwas ist, was auf das Umfeld einwirkt und von diesem wahrgenommen wird und als kreativ anerkannt werden muss, scheint der sozialhistorische Ansatz nach Mihayl Czikszentmihalyi sinnvoll zu sein. Demnach kann Kreativität nicht ausserhalb des sozialen Umfeldes studiert werden. Kreativität ist niemals das Ergebnis eines Individuums, denn es bedarf auch immer der Anerkennung des sozialen Umfeldes, damit Kreativität zu einer solchen wird. In einem Zitat stellt Louis Pasteurtreffend dazu fest: "Der Zufall begünstigt den vorbereiteten Geist." Das entspricht der Auffassung, dass Kreativität nichts eigenartig besonderes ist, sondern nur der vertieften Auseinandersetzung mit dem Wissen seiner Zeit bedarf.

Schlussfolgerung

Was passiert, wenn wir logisch Denken? Logisches Denken erfolgt, wenn zielgerichtet Informationen verarbeitet werden. Wenn dabei semantische Informationen vermehrt werden, wird von Induktion gesprochen, wenn auf Grundlage von allgemeinen Prämissen auf ein spezielles Ziel geschlossen wird, spricht man von Deduktion. Bei der Frage nach den Prozessen, die zur Schlussfolgerung führen, lassen sich zwei Ansätze unterscheiden. Im Formalismus wird davon ausgegangen, dass Menschen gültige Deduktionen aufstellen können, weil sie eine formale Logik im Kopf haben. Diese Logik entspricht der, die in der Philosophie als Prädikatorenlogik entwickelt wurde. Wenn Menschen Schlussfolgern, dann folgen sie mental diesem logischen System.

Deduktives Denken lässt sich nach konditionalem und syllogistischem Folgern unterscheiden. Konditionales Folgern entspricht den Regeln der Prädikatorenlogik. Die beiden wichtigsten Modi dabei sind der modus ponens und der modus tollens. Ein Syllogismus ist ein Vernunftschluss auf Grund von zwei Präsmissen, einer Haupt- und einer Nebenprämisse. Syllogismen lassen sich unterscheiden in:

1. kategoriele Syllogismen:

- Alle A sind B
- Alle B sind C
- Also: Alle A sind C

2. lineare Syllogismen:

- A ist größer als B
- B ist größer als C
- Also: A ist größer als C

3. konditionale Syllogismen:

- Wenn P dann Q
- P ist wahr
- Also: Q ist wahr

Ein Beispiel für den konditionalen Vernunftschluss sind die Auswahlaufgaben von Peter Wason. Vor dem weiterlesen kann diese Aufgabe hier ausprobiert werden -> Wasons selection task Die meisten Menschen entscheiden sich dafür, die Karte mit dem Eumzudrehen und einige wählen zusätzlich die Karte mit der 4 aus (Johnson-Laird, S. 256). Um die Aussage zu falsifizieren, d.h. den modus tollens richtig anzuwenden, muss die Karte mit der 7 umgedreht werden. Der modus ponens wird durch das Umdrehen der 4korrekt angewandt. In der folgenden Tabelle sind die möglichen Tests, die eine Vp in der Wasonaufgabe durchführen kann:

Abbildung in dieser Leseprobe nicht enthalten

Aus Sicht der Kognition ist es interessant, warum Fehler bei der logischen Schlussfolgerung gemacht werden. Staudenmeyer stellte dazu fest, dass die Fehler gemacht werden, weil die logische Prämisse umgekehrt wird: wenn p dann q -> wenn -> q dann -> b. Dieser Fehler wird Bikonditionalität genannt. Bikonditionalität wird sprachlich durch die Aussage 'dann und nur dann wenn' ausgedrückt. Der Fehler besteht darin, dass konditionale Aussagen fälschlicherweise als bikonditionale Aussagen interpretiert werden.

In Wasons Aufgabe wählen die Personen zu folgenden Anteilen die Karten aus:

Abbildung in dieser Leseprobe nicht enthalten

Johnson-Laird stellt fest, dass die Wasonaufgabevon fast allen richtig gelöst wird, wenn sie in einen semantischen Kontext eingebettet wird: "Wenn ein Brief mit einer Briefmarke von weniger als 1 DM versehen ist, darf er nicht versiegelt werden." Diese postalische Version der Aufgabe beeinflusst das logische Denken. Das Ergebnis steht im Widerspruch zu den formalen Schlussregeln, wie sie im Formalismus vertreten werden. Schlussfolgerungen basieren auf dem Kontext in dem das Problem steht. Daher können spezifische Schlussregeln wie sie in einem Expertensystem vorkommen logisches Denken besser erklären. Expertensysteme sind Produktionssysteme die Regelen zur Lösung von spezifischen Problemen enthalten. Als Computerprogramme unterstützen sie heute viele Bereiche in Medizin, Technik und Wissenschaft. Chang und Holyoak gehen davon aus, dass auch der Mensch inhaltsspezifische Schlussregeln nutzt.

Bei Expertensystemen ist das Problem, dass sie immer nur so gut sein können, wie das in ihnen steckende Wissen. Bei den Menschen ist dieses Wissen nicht explizierbar. Auch allgemeine Fähigkeiten zur Lösung von Problemen werden so nicht erklärbar.

Johnson-Laird schlägt daher eine Theorie mentaler Modelle vor, die verschiedene Ansätze integriert. Ausgehend von der Überlegung, dass Menschen auf der Grundlage von Bedeutungen operieren stellt Johnson- Laird fest, dass sie auch bei Prozessen logischen Denkens nicht plötzlich nach rein syntaktischen formalen Regeln arbeiten werden. Vielmehr werden Modelle gebildet, die sich auf allgemeines Wissen und die Bedeutung und nicht auf die syntatkische Form der Prämissen stützen. Aus diesen Modellen werden dann Schlussfolgerungen gezogen, die nicht eindeutig in den Prämissen formuliert sind. Der semantische Gehalt des Modells wird dabei mit berücksichtigt. Wenn so keine alternativen Modelle gefunden werden können, wird die Schlussfolgerung als gültig betrachtet.

Letzte Änderung: 16. August 1999. © by Dubravko Dolic.

Wasons Kartenaufgabe

Überprüfen Sie folgende Aussage:

Wenn auf der einen Seite einer Karte ein Vokal steht, dann steht auf der Rückseite eine gerade Zahl.

Jede Karte hat auf der einen Seite eine Zahl und auf der anderen einen Buchstaben. Drehen Sie zur Überprüfung möglichst wenig Karten um. Durch einen einfachen Klick können Sie die Rückseite betrachten, durch einen Doppelklick drehen Sie die Karte erneut um.

salient: "ins Auge stechend"

Bewusste Aufmerksamkeit: wissentliche, absichtliche Aufmerksamkeit, engl. counciousness. Im Gegensatz zu engl. awareness als Gewahrsein.

subliminale Wahrnehmung: Wahrnehmung "unter der Schwelle"

Blind-sight-Phänomen: Nach Liason des visuellen Kortex erscheint es den Patienten, als wenn sie in einem großen Teil des Gesichtsfeldes blind sind. Untergeordnete visuelle Prozesse funktionieren allerdings nach wie vor, geben aber keine Rückmeldung mehr an das Bewusstsein. Wenn die Patienten gezwungen werden, auf bestimmte Reize zu reagieren, die sie nach eigenen Angaben nicht wahrnehmen, reagieren sie sehr häufig korrekt. Blind-sight scheint ein Phänomen für Reizaufnahme ohne Wahrnehmung zu sein (Weiskrantz, Humphrey).

Neglect: Bei der 'visuellen Vernachlässigung' registrieren Patienten einen Teil des Gesichtsfeldes nicht bewusst. Ihre Augen sind in Ordnung und sie merken nichts von ihrem Problem. So essen sie zum Beispiel das Essen auf der einen Hälfte ihres Tellers und ignorieren das was auf der anderen Hälfte liegt, als wäre es nicht existent.

binaural: 'beidöhrig', Simultane Präsentation eines Reizes für die Ohren.

dichotisch: 'zweiöhrig', getrennte Präsentation zweier Reize für die Ohren.

Bilder zu verschiedenen Sucharten siehe: Sternberg S. 88 ff.

Kognitive Wende: Das Ende des Behaviourismus als beherrschendes Paradigma in der Psychologie wurde in den fünfziger Jahren des 20. Jahrhunderts eingeleitet. Auf einem Kongress im September 1956 trugen verschiedene Psychologen und andere Wissenschaftler Aufsätze vor, in denen sie sich mit mentalen Prozessen beschäftigten. Unter anderem schlug Noam Chomsky hier seine Theorie der natürlichen Grammatik vor mit der er die behaviouristische Auffassung des Spracherwerbs kritisierte. Newell und Simon stellten die Logic Theory Machine vor mit der Newell später den Nobelpreis gewann. Georg Miller präsentierte seine Entdeckung zur 'magischen Zahl sieben'. Damit bezeichnete er die Tatsache, dass Menschen aus einer Menge von Informationseinheiten sieben Stück (+/- 2) gut merken können. Darüber hinaus lässt die Erinnerungsleistung stark nach.

Laut Johnson-Laird "versiegelten George Miller, Eugene Galanter und Karl Pribam 1960 mit der Veröffentlichung ihres Buches Plans and the Structure of Behaviour den Sarg des Behaviourismus". Dieser Prozess in den fünfziger und sechziger Jahren wird im allgemeinen als 'kognitive Wende' angesehen.

Grafik nach Johnson-Laird 1996, S. 167

top-down Verarbeitung: Bei der absteigenden Verarbeitung werden anhand von Prinzipien in den Daten befindliche Details vorhergesagt.

bottom-up Verarbeitung: Bei der aufsteigenden Verarbeitung werden anhand von Prinzipien übergeordnete Strukturen vorhergesagt.

Dieses Skript entstand im Rahmen der Vorlesung und Prüfungsvorbereitung zur Prüfung im Fach Kognition an der Carl von Ossietzky Universität in Oldenburg / Fachbereich Psychologie, Institut für Kognitionsforschung. Als Literatur wurden hauptsächlich das Lehrbuch Cognitive Psychologie von R.J. Sternberg (1996), dass Lehrbuch Kognitive Psychologie von J.R. Anderson (2. Aufl. 1996) und das Buch Der Computer im Kopf von P. Johnson-Laird (1996) benutzt. Darüber hinaus Mitschriften aus den Veranstaltung 'Einführung in die Kognitionspsychologie' vom Wintersemester 1997 und Sommersemester 1998 von PD. Dr. Adele Diedrich.

Analoge Kodierung: Es lassen sich zwei Ansätze unterscheiden, die Aussagen darüber treffen, in welcher Form Bilder und Wissen die als physikalische Reize unser Gehirn erreichen dort gespeichert werden. Bei der analogen Kodierung geht man davon aus, dass die Repräsentation eines Reizes seine gleichartige Entsprechung im Gehirn hat. Die Repräsentation eines Objekts entspricht somit der Ansicht eines Objekts.

Abstrakte Kodierung: Es lassen sich zwei Ansätze unterscheiden, die Aussagen darüber treffen, in welcher Form Bilder und Wissen die als physikalische Reize unser Gehirn erreichen dort gespeichert werden. Bei der abstrakten Kodierung geht man davon aus, dass Wissen in abstrakter Form gespeichert wird. Die genaue Art der Kodierung ist Gehirnimmanent und damit empirisch nicht nachvollziehbar. Nicht das Objekt selber wird kodiert sondern Beziehungen und Verbindugen der grundlegenden Bedeutungen zueinander. Populärste und jüngste Entwicklung dieser Vorstellung sind die Konnektionistischen Modelle.

Propositionen sind kleinste bedeutungshaltige Informationseinheiten. Jede Proposition ist eine Struktur, die aus einer Relation und einer geordneten Menge von Argumenten besteht.

Relationen organisieren die Struktur der Argumente und sind typischerweise Verben, Adjektive und relationale Ausdrücke.

Argumente beziehen sich auf Zeitpunkte, Orte, Personen, Objekte und sind typischerwese Nomen.

mental set: Zum Problemlösen stehen bestimmte Vorerfahrungen und erfolgreiche Modelle zur mentalen Verfügung. Dabei kann es sich auch um eine Strategie handeln, die üblicherweise hilfreich zur Problemlösung führt. Diese Konstellationen werden 'mental set' genannt.

Zwei-Seile-Problem: In einem Raum hängen zwei Seile von der Decke, die miteinander verknotet werden sollen. Der Anstand zwischen ihnen ist grösser als eine Armlänge, so dass man das eine Seil loslassen muss, um das andere zu erreichen. Da in dem Raum gerade gearbeitet wird, liegen auch diverse Werkzeuge (Zange, Pinsel etc.) herum. Wie lassen sich die Seile miteinander verbinden? (üblicherweise wird dieses Problem visuell präsentiert, vgl. Sternberg S. 358)

Algorithmus: Ein Satz linearer Regeln zur Lösung eines Problems. Analogie: 'Kochrezept' (Johnson-Laird).

Induktion: Schluss vom Speziellen auf das Allgemeine. Systematische Vermehrung von Information

Deduktion: Schluss vom Allgemeinen auf das Spezielle. Schlussfolgerung auf Grund von Prämissen.

Kognition: Die Erkenntnis betreffende Prozesse. Mit Kognition werden in der Psychologie zumeist Prozesse des Denkens, Wahrnehmens und Schlussfolgerns bezeichnet.

Falsifizierung: Logische Schlussfolgerung nach modus tollens. Die Gültigkeit einer allgemeinen Aussage wird zu Fall gebracht, wenn sich für eine Schlussfolgerung, die auf dieser Aussage basiert zeigen lässt, dass sie falsch ist.

modus tollens: Wenn p gilt, dann gilt q. Nun gilt q also gilt auch p. Die Aussage 'Alle Schwäne sind weiss' wird durch das Vorhandensein eines schwarzen Schwans widerlegt. (Falsifizierung)

modus ponens: Wenn p gilt, gilt q. Nun gilt p, also gilt auch q. Wenn Menschen vor neun Uhr aufstehen, sind sie wahrscheinlich keine Studenten. Person A steht um acht Uhr auf, also ist Person A wahrscheinlich kein Student. (Verifizierung).

25 von 25 Seiten

Details

Titel
Kognition. Aufmerksamkeit und Bewusstsein, Wissenspräsentation, Problemlösen und Denken
Hochschule
Carl von Ossietzky Universität Oldenburg
Veranstaltung
Abschlussprüfung Magister Psychologie
Autor
Jahr
1999
Seiten
25
Katalognummer
V95924
Dateigröße
453 KB
Sprache
Deutsch
Anmerkungen
zur Prüfungsvorbereitung
Schlagworte
Kognition, Abschlussprüfung, Magister, Psychologie, UniversitätOldenburg
Arbeit zitieren
Dubravko Dolic (Autor), 1999, Kognition. Aufmerksamkeit und Bewusstsein, Wissenspräsentation, Problemlösen und Denken, München, GRIN Verlag, https://www.grin.com/document/95924

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Kognition. Aufmerksamkeit und Bewusstsein, Wissenspräsentation, Problemlösen und Denken



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden