Die pädagogischen Chancen und Probleme des Operanten Konditionieren gemäß Skinner


Dossier / Travail, 2003

34 Pages, Note: 1,3


Extrait


Inhaltsverzeichnis

1. Einleitung

2. Die theoretischen Grundlagen der Operanten Konditionierung nach B.F. SKINNER
2.1 Das Effektgesetz
2.2 Die Operante Konditionierung
2.2.1 Positive und negative Verstärkung
2.2.2 Verstärkerklassen
2.2.3 Bestrafung
2.2.4 Die Operante Löschung
2.3 Verstärkungspläne
2.4 Generalisierung und Diskriminierung

3. Die pädagogischen Aspekte des Operanten Konditionierens
3.1 Unterstützende Erziehungsmaßnahmen
3.1.1 Lob und Belohnung
3.1.2 Lob und Belohnung als negative und positive Verstärker
3.1.3 Pädagogische Probleme bei der Anwendung von Lob und Belohnung als Erziehungsmaßnahmen
3.2 Der Einsatz von Verstärkungsplänen
3.3 Gegenwirkende Erziehungsmaßnahmen
3.3.1 Strafe und Bestrafung in der pädagogischen Praxis
3.3.2 Pädagogische Probleme beim Einsatz von Strafe

4. Die Operante Konditionierung unter dem Blickwinkel der Systemtheorie
4.1 Einführung in die Systemtheorie lebender Systeme
4.2 Lernen und die Möglichkeit der Erziehung aus systemtheoretischer Sicht
4.3 Systemtheoretische Kritik am Schema der Operanten Konditionierung

5. Die Operante Konditionierung am Beispiel eigener Erfahrungen
5.1 Eigene Einschätzung der Vor- und Nachteile des Operanten Konditionierens für die Pädagogik

6. Literaturverzeichnis

1. Einleitung

Ein dreijähriges Kind greift mit der Hand auf eine heiße Herdplatte. Die Vermutung liegt nahe, dass dieses Kind in Zukunft nicht mehr auf heiße Herdplatten fassen wird. Wie lässt sich dieses zukünftige Verhalten, dass ja augenscheinlich eine Art des Lernens sein muss, erklären?

Der Behaviorismus bietet Lösungsmöglichkeiten diese Frage zu beantworten. Unter dem Begriff Behaviorismus werden alle die Forschungsprogramme zusammengefasst, deren Basiseinheiten aus Reiz - Reaktions - Verbindungen bestehen, und die sich der naturwissenschaftlichen, objektiven und experimentellen Methodik verschrieben haben. Während die Arbeiten von Thorndike und Pawlow, der bedeutenden Vorläufer des Behaviorismus, im ersten Jahrzehnt des 20. Jahrhunderts noch relativ sporadisch und auch voneinander isoliert rezipiert wurden, wurde die verbale Selbstidentifizierung der neuen Richtung vor allem in den USA sehr populär. Watson, der Begründer des Behaviorismus, proklamierte die Abkehr von der mentalistischen Psychologie der Psyche und des Bewusstseins, wie sie von der damaligen psychologischen Forschung betrieben wurde.

Grundlage der Sichtweise des Behaviorismus ist, dass der Organismus als eine Art "Maschine" betrachtet wird. Eine Maschine, in die man nicht hineinsehen kann („black box") , sondern deren Funktionsweise nur aus einem Input (Reize) und dem Output (Reaktion) zu erschließen ist. Psychische Vorgänge werden dabei also in Reiz - Reaktions - Verbindungen aufgelöst. Der Behaviorismus wird demnach generell in einer empirisch - analytischen Sichtweise dargestellt. Er ist die umfassende Bezeichnung für alle beobachtbaren Aktivitäten des lebenden Organismus unter Ausschluss physiologischer und psychologischer Variablen.

Einer der wichtigsten Vertreter dieser Theorie war der am 20.03.1904 in Susquehanna, Pennsylvania geborene Burrhus Frederic Skinner. Seine Theorie des deskriptiven Behaviorismus in Form der, von ihm experimentell untersuchten, Operanten Konditionierung soll in dieser Hausarbeit dargelegt werden.

Nach Darstellung der theoretischen Grundlagen im zweiten Kapitel, soll der zentralen Fragestellung, welche Probleme und pädagogischen Chancen erschließen sich dem Erzieher in konkreten Erziehungssituationen, im dritten Kapitel auf den Grund gegangen werden.

Im vierten Kapitel soll die Operante Konditionierung aus systemtheoretischer Sicht betrachtet werden. Etwaige Parallelen oder Unterschiede werden hier aufgezeigt.

Am Ende dieser Arbeit wird anhand einer persönlichen Einschätzung deutlich, ob und in wie weit das Operante Konditionieren für die Erziehung des Menschen geeignet ist, sowie welche Vor- und Nachteile hinsichtlich seiner Verwendung zu erkennen sind.

2. Die theoretischen Grundlagen der Operanten Konditionierung nach B.F. Skinner

Will man das Verhalten des Kindes, welches sich an der Herdplatte die Finger verbrannt hat lerntheoretisch erklären, wird man feststellen das die Theorie des klassischen Konditionierens hier nicht ausreicht. Vielmehr stellt sich die Frage, welcher Zusammenhang zwischen dem negativen Ereignis des "sich die Finger Verbrennens" und dem nachfolgend positivem Verhalten des „in Zukunft nicht mehr auf die Herdplatte Greifens" besteht. Die Theorie des Operanten Konditionierens will im Besonderen hierauf eine Antwort geben.[1]

Diese Art des Lernens wird deshalb als „Operant" bezeichnet, weil hierbei die Reaktion eines Individuums "operativ" für das Auftreten einer Verstärkung ist. Das heißt, dass Verhalten wirkt derart auf die Umwelt ein, dass es zu einer Verstärkung dieser Verhaltensweise kommt. Im Unterschied zu der Lerntheorie des klassischen Konditionierens werden Reaktionen beim Operanten Lernen nicht durch irgendeinen bekannten Reiz ausgelöst, vielmehr werden sie von einem Individuum spontan produziert.

Der Zusammenhang zwischen einen vorausgehenden Reiz und der dadurch ausgelösten Reaktion wie beim klassische Konditionieren ist hier nicht von Interesse, sondern der Zusammenhang zwischen einem spontan gezeigtem Verhalten und der Konsequenz dieses Verhaltens in Form einer Verstärkung für das Individuum. Die Verstärkung als Konsequenz eines Verhaltens ist die entscheidende Variable beim Operanten Lernen.

2.1 Das Effektgesetz

Edward Thorndike führte am Ende des 19. Jahrhunderts Versuche mit Katzen durch. Im Unterschied zu Pawlow, der die Verknüpfung von Reizen untersuchte, befasste er sich mit den Auswirkungen der Konsequenzen von Verhalten. Sperrt man zum Beispiel eine Katze in einen Käfig, aus dem sie nur entweichen kann, wenn sie die Käfigtür aufklinkt, so wird sie viele Arten unterschiedlichen Verhaltens zeigen, um aus dieser Situation zu entkommen bis sie schließlich zufällig die Tür öffnet. Thorndike fand heraus, dass die richtige Verhaltensweise immer früher auftrat, je öfter man die Katze in den Käfig sperrte. Schließlich gelang der Katze die Flucht ohne Zeitverzug.[2] Die Katze hat also nach Versuch und Irrtum gelernt.

Lernen durch Versuch und Irrtum ist ein Suchprozeß, bei dem das zufällig richtige Verhalten durch den Erfolg verstärkt wird und in Zukunft vermehrt auftritt. Deshalb wird die Theorie THORNDIKES auch Lernen am Erfolg genannt.[3]

Aus seine Untersuchungen leitete THORNDIKE das sogenannte Gesetz des Effekts ab. Das Gesetz besagt das ein Verhalten, auf das eine Konsequenz folgt, die für den Organismus eine Befriedigung oder einen Erfolg darstellt, wiederholt wird, während ein Verhalten, auf das keine oder eine unangenehme Konsequenz folgt, abnimmt. Die Konsequenzen eines Verhaltens bestimmen somit dessen künftige Auftretenswahrscheinlichkeit.[4]

2.2 Die Operante Konditionierung

Skinner beschäftigte sich ebenfalls mit der Frage, welche Wirkung eine positive oder negative Konsequenz auf ein Verhalten haben kann. Er entwickelte, aufgrund seiner Untersuchungen das von Thorndike aufgestellte Gesetz des Effekts weiter. Unter anderem schuf er die nach ihm benannte "Skinner-Box“, unter deren Anwendung er seine Theorie des Operanten Konditionierens erforschte.

Skinner sieht die Theorie des klassischen Konditionierens als Erklärungsmöglichkeit für einige Verhaltensweisen, betont aber, dass die Großzahl der von Menschen gezeigten Reaktionen nicht auf klar definierbare Reize erfolgen, und das diese Reize keineswegs das Kernstück einer genauen und brauchbaren Erklärung des Lernens darstellen.[5]

Reaktionen die, wie beim klassischen Konditionieren, durch einen Reiz ausgelöst werden, bezeichnet Skinner als Respondenten, solche die der Organismus einfach zeigt nennt er Operanten. Beim respondenten Verhalten reagiert der Organismus auf seine Umwelt, beim Operanten Verhalten hingegen wirkt er auf die Umwelt ein.

Bei der Operanten Konditionierung wird der Operant so verstärkt, dass eine Reaktion wahrscheinlicher, beziehungsweise häufiger wird. Das heißt, ein aufgetretenes Verhalten wird so verstärkt, dass eben genau dieses Verhalten wieder auftritt. Ein einfaches Beispiel hierfür ist das Aufspannen eines Regenschirms. Wenn jemand das erste mal in seinem Leben einen Regenschirm aufspannt und bemerkt das er dadurch trocken bleibt, wird er dieses wieder tun wenn es regnen sollte.

Wenn einer Reaktion eine Verstärkung folgt, so resultiert daraus eine Erhöhung der Wahrscheinlichkeit, dass diese Reaktion später unter ähnlichen Umständen wieder auftritt. Der Verstärker ist, zusammen mit den bei seiner Darbietung gegebenen Umständen, ein Reiz, der nach mehrmaliger Darbietung die Kontrolle über die Reaktion erlangen kann.

Grundsätzlich kann jedes aufgrund von Verstärkung zustande gekommene Verhalten als ein Beispiel für Operantes Konditionieren angesehen werden.[6]

2.2.1 Positive und Negative Verstärkung

Mit Verstärkung ist der Prozess gemeint, der zu dem Ergebnis einer Erhöhung der Auftretenswahrscheinlichkeit eines Operanten Verhaltens führt. Demnach sind Verstärker die Reize, die die Auftretenswahrscheinlichkeit eines Operanten Verhaltens erhöhen. Skinner schränkt die Erkennbarkeit einer Verstärkung jedoch wie folgt ein: "Wir erzielen einen gewissen Erfolg bei der Einschätzung von verstärkenden Kräften nur deshalb, weil wir uns in gewisser Hinsicht einen groben Überblick verschafft haben; wir haben den verstärkenden Effekt eines Stimulus auf uns selbst abgeschätzt und nehmen den selben Effekt bei anderen an. Wir sind nur dann erfolgreich, wenn wir dem Organismus, der erforscht wird, ähneln, und wenn wir unser eigenes Verhalten richtig beurteilt haben."[7]

Folglich definiert sich eine verstärkende Kraft aus den Informationen die wir in ihr, aufgrund unseren eigenen Empfindens und Wissens, erkennen. Skinner beschreibt verschiedene Arten von Verstärkern.

Positive Verstärker sind die Reize, deren Darbietung dazu führt, dass eine Verhaltensweise vermehrt auftritt. Als Beispiel ist die Belohnung eines Kindes nach

einer sehr guten Deutschklausur in Form einer Schokolade zu nennen. Das Kind wird sich weiterhin anstrengen gute Noten zu schreiben, weil es dann immer eine Tafel Schokolade erwarten kann.

Negative Verstärker hingegen sind die Reize, die durch ihre Entfernung dazu führen, dass eine Verhaltensweise häufiger auftritt. Ein Beispiel hierfür wäre, wenn in der Nacht jemand, um an sein Ziel zu kommen einen Weg wählt der beleuchtet ist, auch wenn dieser länger sein sollte. Dadurch wird eine für die Person unangenehme Folge, nämlich den Weg im Dunkeln zurücklegen zu müssen vermieden. Folglich wird diese Person immer den beleuchteten Weg nutzen.

Während es bei der positiven Verstärkung um die Darbietung eines Reizes geht, will man ihn bei der negativen Verstärkung entfernen.[8] Festzuhalten ist in diesem Zusammenhang, dass eine Verstärkung, egal ob positiv oder negativ, immer eine Erhöhung der Auftretenswahrscheinlichkeit einer Reaktion nach sich zieht.

2.2.2 Verstärkerklassen

Es wird in drei Klassen von Verstärkern unterschieden: primäre, sekundäre und generalisierte Verstärker.

Die Primären Verstärker wirken ohne vorherigen Lernprozess. Die Wirksamkeit eines primären Verstärkers ist abhängig von der gegenwärtigen Konstitution des Organismus. Beispiele hierfür wären Hunger oder Durst. Diese Verstärker befriedigen grundlegende physiologische Bedürfnisse.

Sekundäre Verstärker sind konditionierte Verstärker, die erst durch die häufige gemeinsame Darbietung mit einem primären Verstärker zu Verstärkern werden. Ursprünglich nicht verstärkend wirkende Reize werden mit primären Verstärkern gepaart und so zu verstärkenden Reizen konditioniert. Wenn man zum Beispiel bei

der Fütterung eines Hundes neben der Futtergabe gleichzeitig einen schrillen Ton erzeugt und dies über eine längere Zeit beibehält, so kann man beobachten, dass irgendwann die Darbietung des schrillen Tones allein ausreicht, um den Hund dazu zu bewegen zum Futternapf zu laufen. Der normalerweise unbedeutende Reiz wurde durch Paarung mit einem primären Verstärker, hier Hunger, zu einen sekundären Verstärker konditioniert.

Von generalisierten Verstärkern spricht man, wenn diese Verstärker ihre Wirksamkeit aus der in der Lerngeschichte des Individuums erfolgten Verknüpfung mit mehreren primären und sekundären Verstärkern beziehen.[9] Generalisierte Verstärker wirken auf ein großes Feld von Verhaltensweisen allgemein verstärkend. Geld kann als ein generalisierte Verstärker angesehen werden. Die Möglichkeit an Geld zu kommen bringt beispielsweise sehr unterschiedliche Verhaltensweisen hervor. Die eine Person geht deshalb ihr ganzes Leben lang arbeiten, während die andere auf kriminellem Wege versucht Geld zu erlangen. Das Geld verstärkt in diesem Fall die vielen unterschiedlichen Verhaltensweisen.

2.2.3 Bestrafung

Die Bestrafung von Verhalten wird oft als negative Verstärkung angesehen. Dem ist jedoch nicht so. Zwischen Bestrafung und negativer Verstärkung ist grundsätzlich zu unterscheiden.

Bei einer negativen Verstärkung wird eine negative Situation beseitigt und die Häufigkeit einer Verhaltensweise nimmt dadurch zu. Bei der Bestrafung hingegen folgen dem Verhalten immer unangenehme Konsequenzen und die Häufigkeit des gezeigten Verhaltens nimmt ab.[10] Es soll demnach ein bestimmtes Verhalten unterdrückt werden.

Es gibt zwei Arten der Bestrafung, die man als Bestrafung erster und zweiter Art unterscheidet. Bei der Bestrafung erster Art erfolgt auf ein Verhalten eine unangenehme Konsequenz, die dazu führen soll, dass ein Verhalten in Zukunft weniger häufig auftritt. Wenn eine Mutter ihren Kind einem Klaps gibt, nachdem es etwas Verbotenes getan hat spricht man von Bestrafung erster Art.

Die Bestrafung zweiter Art besteht in einer Konsequenz, die für den Betroffenen einen angenehmen Zustand beendet, oder ihm die Möglichkeit verwehrt, einen solchen zu erreichen.

Dem kleinen Jungen der ungezogen war, wird sein Lieblingsspielzeug für eine bestimmte Zeit weggenommen. Das ist ein Beispiel für eine Bestrafung zweiter Art.

Der Einsatz von Strafe führt jedoch häufig nicht zu einer Verhaltensänderung, sondern lediglich zu einer Unterdrückung des unerwünschten Verhaltens. Bestrafung kann unerwünschtes Verhalten nicht beseitigen, sondern dessen Auftreten lediglich zeitlich verzögern.[11]

[...]


[1] Vgl. HOBMAIR 1996, S. 146.

[2] Vgl. SKINNER 1976, S.64.

[3] Vgl. HOBMAIR 1996, S. 146.

[4] Vgl. HOBMAIR 1996, S. 147.

5 Vgl. LEFRANCOIS 1986, S. 33.

6 Vgl. LEFRACOIS 1986, S. 34

[7] SKINNER 1973, S. 76.

[8] Vgl. HOBMAIR 1996 S. 152.

9 Vgl. SPADA 1990, S. 336.

10 Vgl. LEFRANCOIS 1986, S. 35.

[11] Vgl. HOBMAIR 1996, S. 248.

Fin de l'extrait de 34 pages

Résumé des informations

Titre
Die pädagogischen Chancen und Probleme des Operanten Konditionieren gemäß Skinner
Université
Helmut Schmidt University - University of the Federal Armed Forces Hamburg  (Professur für allgemeine Pädagogik)
Cours
Lehren und Lernen
Note
1,3
Auteur
Année
2003
Pages
34
N° de catalogue
V15757
ISBN (ebook)
9783638207782
ISBN (Livre)
9783656902683
Taille d'un fichier
575 KB
Langue
allemand
Annotations
Es wurde, nach Anweisung meines Dozenten, eine systemtheoretische Komponente mit in die Arbeit aufgenommen.
Mots clés
Chancen, Probleme, Operanten, Konditionieren, Skinner, Lehren, Lernen
Citation du texte
Rene Hoffmann (Auteur), 2003, Die pädagogischen Chancen und Probleme des Operanten Konditionieren gemäß Skinner, Munich, GRIN Verlag, https://www.grin.com/document/15757

Commentaires

  • Pas encore de commentaires.
Lire l'ebook
Titre: Die pädagogischen Chancen und Probleme des Operanten Konditionieren gemäß Skinner



Télécharger textes

Votre devoir / mémoire:

- Publication en tant qu'eBook et livre
- Honoraires élevés sur les ventes
- Pour vous complètement gratuit - avec ISBN
- Cela dure que 5 minutes
- Chaque œuvre trouve des lecteurs

Devenir un auteur