Die Förderung von Schulkindern mit auditiven Verarbeitungs- und Wahrnehmungsstörungen (AVWS)


Examensarbeit, 2006

98 Seiten, Note: 1,0


Leseprobe

Inhalt

1 Einleitung S.

2 Begriffsbestimmung S.
2.1 Auditive Verarbeitung und Wahrnehmung S.
2.1.1 Akustische Signale S.
2.1.2 Der Hörvorgang S.
2.1.3 Entwicklung der auditiven Verarbeitung und Wahrnehmung S.
2.1.4 Teilfunktionen der auditiven Verarbeitung und Wahrnehmung S.
2.2 Störungen der auditiven Verarbeitung und Wahrnehmung S.
2.2.1 Definition der auditiven Verarbeitungs- und Wahrnehmungsstörung (AVWS) S.
2.2.2 Ätiologie und Pathogenese S.
2.2.3 Überblick über ausgewählte diagnostische Verfahren S.

3 Förderung von Schulkindern mit AVWS S.
3.1 Beratung und Elternarbeit S.
3.1.1 Auswirkungen der Störung im persönlichen und schulischen Bereich S.
3.1.2 Interdisziplinarität in der Erkennung und Behandlung von AVWS S.
3.1.3 Konkrete Empfehlungen für Eltern von Schulkindern mit AVWS S.
3.2 Ausgewählte Therapieansätze und ihre Einsetzbarkeit in Schule und Unterricht S.
3.2.1 Übende Therapie mit sprachlichen Übungen S.
3.2.1.1 Therapiekonzept nach ANDREAS BURRE S.
3.2.1.2 Therapiekonzept nach NORINA LAUER S.
3.2.1.3 Therapiekonzept nach DOLORES HEBER und JUTTA BURGER-GARTNER S.
3.2.1.4 Amerikanische Programme S.
3.2.1.5 Psychomotorische Entwicklungsförderung - Auditive Wahrnehmung und Sprache nach INGRID OLBRICH S.
3.2.1.6 Therapie auditiver Wahrnehmungsstörungen nach ERWIN BREITENBACH S.
3.2.1.7 Förderung der phonologischen Bewusstheit nach SANDRA KÜSPERT und WOLFGANG SCHNEIDER S.
3.2.1.8 Hörtraining als Komponente der Förderung bei Lese- Rechtschreib-Störung nach MARIA KLATTE und UTE DINGEL S.
3.2.1.9 Psycholinguistisch orientierte Phonologie Therapie (P. O. P. T.) nach ANETTE V. FOX S.
3.2.1.10 Computergestützte Therapieprogramme S.
3.2.1.10.1 Audio 1 S.
3.2.1.10.2 AudioLog 3, AudioLog Home S.
3.2.1.10.3 Fast ForWord S.
3.2.1.10.4 Earobics Step 1, Earobics Step 2 und Sound Smart S.
3.2.2 Hörtraining/Klangtherapie S.
3.2.2.1 Audio-Psycho-Phonologie nach ALFRED TOMATIS S.
3.2.2.2 Lateraltraining nach FRED WARNKE S.
3.2.2.3 AUDIVA S.
3.2.3 Kompensation durch Technische Hilfsmittel und Raumakustik S.
3.2.4 „Hörerziehung“ im Unterricht S.
3.2.5 Übersicht zu durch die vorgestellten Konzepte abgedeckten Förderbereichen S.

4 Zusammenfassung S.

5 Verzeichnisse S.
5.1 Literaturverzeichnis S.
5.2 Internetquellenverzeichnis S.
5.3 Abbildungsverzeichnis S.
5.4 Tabellenverzeichnis S.

6 Anlagen S.
6.1 Verzeichnis der genannten Therapiematerialien und Software S.
6.2 Spielvorschläge für zu Hause und einige Hinweise für Eltern S.

1 Einleitung

Während eines vierwöchigen Blockpraktikums an einer Lernbehindertenschule lernte ich Johanna kennen. Sie war zu dem Zeitpunkt 8 Jahre und 4 Monate alt und besuchte die Klasse 1.2 der Diagnose- und Förderstufe. Vom Wesen her war Johanna hilfsbereit, freundlich und sowohl anderen Menschen als auch neuen Inhalten im Unterricht gegenüber sehr aufgeschlossen. Im Rechnen mit Rechenmaterial oder mit Hilfe von Bilddarstellungen sowie beim Rechnen vorgegebener Aufgaben auf einem Arbeitsblatt war sie im Vergleich zur Klasse gut und machte schnelle Fortschritte. Auch beim Erarbeiten von Inhalten anderer Fachbereiche im Sitzkreis brachte sie sich gut ein. Schwierigkeiten hatte sie allerdings beim Erwerb der Schriftsprache. Das Schreiben von lauttreuen Wörtern gelang ihr selten fehlerfrei, die Analyse der einzelnen im Wort vorkommenden Laute war ihr nicht möglich. Auch das Erlesen von Wörtern und einfachen Sätzen und die zu Grunde liegende Synthese fielen ihr schwer. Trotz ihres Alters substituierte Johanna noch immer [g] und [k] mit [d] und bei der Aussprache von [z] und [ ] fehlte ihr die notwendige artikulatorische Schärfe. Ihre Stimmlage war ungewöhnlich hoch und nasal gefärbt. Während meiner Beobachtungen in Unterrichtssituationen fiel mir auf, dass Johanna im Morgenkreis, wenn die Klasse regelmäßig auf das Ticken der Klassenzimmeruhr lauschte, um zur Ruhe zu kommen, das Geräusch nahezu immer entweder als letztes von 10 Kindern wahrzunehmen schien oder es gar nicht hörte. In entsprechenden Spielsituationen konnte sie die Richtung, aus der ein Geräusch kam, nicht bestimmen. Während des Spiels „Flüsterpost“ war es Johanna nicht möglich, die gehörten Wörter adäquat wiederzugeben. Wenn die Klasse ein Lied sang, fiel immer wieder auf, dass Johanna sich den Text nicht eingeprägt hatte. In Einzelförderstunden mit Johanna stellte ich außerdem fest, dass sie nicht mehr als drei lautsprachlich vorgegebene Einheiten im Kurzzeitgedächtnis behalten konnte und zum Teil bei der Wiedergabe deren Reihenfolge veränderte. Erklärte ich ihr eine Aufgabe, die ich mit ihr zusammen lösen wollte, so sah sie mich dabei sehr konzentriert an, wobei sie ihr Augenmerk auf meine Lippenbewegungen zu legen schien. Demonstrierte ich ihr eine Beispielaufgabe, so kam es des öfteren vor, dass Johanna, meine Lippen nicht aus den Augen lassend, laut und zeitlich leicht verzögert mitsprach. Während dieses Praktikums begann ich, mit Johanna Übungen aus dem Programm Hören, lauschen, lernen von Sandra KÜSPERT und Wolfgang SCHNEIDER durchzuführen, wodurch sich ihre Analyse- und Synthesefähigkeiten durchaus verbesserten. Nach meinem Praktikum wurde das Programm von einer Lehrerin an der Praktikumsschule weitergeführt.

Bei der Begegnung mit Johanna wurde mir bewusst, wie wenig ich doch über die Wahrnehmung und Verarbeitung von Sprache weiß, obwohl diese doch offensichtlich eine der wichtigsten Basisfähigkeiten im Hinblick auf den Spracherwerb und Schriftspracherwerb ist. Obwohl ich Johanna mit den Übungen tatsächlich fördern konnte, war ich mit meinem Wissensstand zu den theoretischen Hintergründen äußerst unzufrieden und wollte herausfinden, welche anderen Möglichkeiten zur Verfügung gestanden hätten. Im Anschluss an dieses Blockpraktikum absolvierte ich ein weiteres Praktikum in einer logopädischen Praxis. Auch dort traf ich auf mehrere Kinder, die Defizite in der auditiven Verarbeitung und Wahrnehmung aufwiesen und mit Hilfe von unterschiedlichen Therapiematerialien behandelt wurden. Auf die theoretische Grundlegung dieser Behandlung angesprochen, erklärte mir eine der dort beschäftigten

Logopädinnen, dass die Existenz der auditiven Verarbeitungs- und Wahrnehmungsstörungen umstritten sei und in den Behandlungsmöglichkeiten wenige Therapiekonzepte zur Verfügung standen und gab mir die beiden Bücher zum Thema, die sie besaß, Zentral-auditive Verarbeitungsstörungen im Kindesalter von NORINA LAUER und Zentrale Hörwahrnehmungsstörungen von REGINA LEUPOLD. Darin fanden sich zwar interessante Aspekte, aber für meinen Bedarf war das Thema nicht umfassend erschlossen.

Die vorliegende Arbeit befasst sich deshalb mit der Förderung von Schulkindern mit auditiven Verarbeitungs- und Wahrnehmungsstörungen (AVWS).

Zunächst wird der Begriff der auditiven Verarbeitung und Wahrnehmung erläutert. Dabei soll zunächst ein Überblick über die für Kommunikation wohl wichtigsten auditiven Stimuli der Lautsprachproduktion eingegangen werden, bevor die Aufnahme der akustischen Reize und ihre Weiterleitung und Verarbeitung, also der Prozess der auditiven Verarbeitung und Wahrnehmung (AVW), dargestellt wird.

Im Anschluss werden Teilfunktionen der AVW benannt und erklärt sowie kurz ihre Einordung in Modelle der Sprachwahrnehmung und -verarbeitung angerissen. Nach einem Überblick über aktuelle Definitionen der AVWS und bisherigen Erkenntnissen zu Ätiologie und Pathogenese sollen ausgewählte Tabellen einen Überblick über diagnostische Verfahren zur Erfassung verschaffen.

Im Hauptteil der Arbeit schließlich sollen mögliche Zusammenhänge zwischen AVWS und anderen Störungsbildern, die sich ebenfalls auf den schulischen Erfolg betroffener Kinder auswirken können als Grundlage einer beratenden Unterstützung für betroffene Eltern beleuchtet werden. Möglichkeiten und Beispiele der interdisziplinären Zusammenarbeit in der Erfassung und Behandlung von AVWS sollen allgemein dargestellt werden sowie ausgewählte internationale Therapiekonzepte und Fördermaterialien zu unterschiedlichen Bereichen der auditiven Verarbeitung und Wahrnehmung vorgestellt und sowohl im Hinblick auf ihre Wirksamkeit als auch ihrer Einsetzbarkeit im Unterricht oder Gruppen- sowie Einzelförderstunden diskutiert werden. Da die Arbeit ihren Schwerpunkt auf der Förderung von Schulkindern mit AVWS hat, wird sich die Darstellung von Fördermaterialien auf solche beschränken, die für den Altersbereich von der Einschulung bis zur Pubertät, also von ca. 6 - 12 Jahren geeignet sind.

2 Begriffsbestimmung

2.1 Auditive Wahrnehmung und Verarbeitung

2.1.1 Akustische Signale

Um den Vorgang des Hörens nachzuvollziehen, sollte man sich zunächst darüber im Klaren sein, was da eigentlich auf das Ohr trifft. Man bezeichnet es gemeinhin als Schall oder akustischen Reiz (acoustic stimulus). Ein akustischer Reiz kann einfach oder komplex sein, es kann sich dabei um das Geräusch handeln, das ein vorbeifahrendes Auto oder eine sich die Krallen wetzende Katze erzeugt. Es kann sich aber auch um ein Musikstück handeln, in dem gleichzeitig mehrere Stimmen und Instrumente zu hören sind oder um gesprochene Sprache, die aus einer komplexen Aneinanderreihung verschiedener akustischer Signale besteht, doch dazu später mehr. Im Englischen wird dieser akustische Reiz auch als sound bezeichnet (vgl. z.B. MOORE 1994, SCHOUTEN 1992, GOLDSTEIN 1999), was übersetzt sowohl Klang als auch Geräusch bedeutet. Auf die Unterscheidung von Klang und Geräusch werde ich im Laufe der Arbeit ebenfalls differenzierter eingehen. Bis dahin werde ich mit der Übersetzungsvariante Schall arbeiten, für die sound ebenfalls stehen kann.

Physikalisch gesehen ist dieser Schall Druck. Er entsteht durch Vibrationen eines Körpers, die sich auf die ihn umgebende Luft, Wasser oder andere elastische Medien übertragen. Im Fall von Sprache, um deren auditive Verarbeitung und Wahrnehmung es in dieser Arbeit gehen soll, versetzt bei physiologisch richtigem Sprechmuster der betreffende Mensch auf Grund einer Sprechabsicht seine Stimmlippen mit Hilfe von ca. 1,5 bis 2,5 Litern Ausatemluft pro Zyklus in Schwingung. Dabei werden durch entsprechenden Tonus auf den sich in Phonationsstellung befindlichen Stimmlippen austretende Luftmoleküle zurückgehalten, wobei sich die Dichte der Luft unter den Stimmlippen und damit auch der Luftdruck unterhalb der Stimmlippen vergrößert, bis die entsprechende Luft schließlich entweichen kann. Nachdem sich dadurch der subglottische Druck reduziert hat, kommt der sogenannte Bernouilli-Effekt zum Tragen und unter der Glottis (hier: Stimmlippen und Stimmritze) bildet sich kurzzeitig ein Unterdruck. Dieser führt in Zusammenwirken mit den elastischen Rückstellkräften der Aryknorpel zu einem erneuten Schluss der Stimmlippen. Durch den abwechselnden Öffnungs- und Schließvorgang der Stimmlippen wird der Expirationsstrom in Luftimpulse von ansteigendem und abfallendem Druck umgeformt. Die Stimmlippen schwingen dabei ca. 100 - 400 Mal pro Sekunde indem sie durch die muskulären und elastischen Kräfte innerhalb der Stimmlippen und die Kräfte der Luft, die durch die Stimmritze strömt bewegt (vgl. STORCH 2002, S. 19 - 29) werden. Dies entspricht auch der myoelastischen aerodynamischen Phonationstheorie nach JOHANNES MÜLLER (vgl. WIRTH 1995, S. 90).

Die erwähnten Luftimpulse kann man sich als abwechselnde Über- und Unterdruckfelder in der Atemluft vorstellen, da benachbarte Luftmoleküle einander beeinflussen (vgl. GOLDSTEIN 1999, S. 312).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1: Schematische Darstellung der Kippschwingung in den Stimmlippen (KOLLMEIER 20051, S. 97, Online im Internet)

Bei dem entstandenen Muster an Luftdruckveränderung, das sich von seiner Quelle aus durch Luft mit 340 m/sec fortbewegt, handelt es sich um eine Schallwelle. Die Qualitäten dieser Schallwelle, die vom menschlichen Hörer unterschieden werden, nämlich Tonhöhe und Lautstärke sind von der Frequenz und der Amplitude der Schallwelle abhängig. An einem Reinton dargestellt, handelt es sich bei der Amplitude um die höchste gemessene Abweichung des Luftdrucks von seinem Ausgangszustand. Am Beispiel des gemessenen Reintons ergibt sich eine Sinuswelle. Der Überdruck in der Luft führt zu dem Ausschlag nach oben, der nachfolgende Unterdruck zum Ausschlag nach unten. Um den Luftdruck des Schalls zu messen, wird die Einheit Dezibel verwendet, die sich wie folgt berechnet: dB = 20 log p/p0, wobei p für den Schalldruck des Tons steht, während p0 der Standardschalldruck ist, der bei 20 Micropaskal liegt. Die Messung der Amplitude in der Einheit dB ermöglicht eine übersichtlichere Darstellung der Druckunterschiede.

Mit der Frequenz wird mittels Spektrogrammen gemessen, wie oft in der Sekunde es in der Luft zum Zyklus des Überdrucks mit folgendem Unterdruck kommt. Ein Hertz (Hz) entspricht dabei einem Zyklus pro Sekunde. Das menschliche Ohr ist sensibel für Frequenzen zwischen ca. 20 und 20000 Hz (vgl. GOLDSTEIN 1999, S. 312-315). Der Frequenzbereich menschlicher Lautsprache wird unterschiedlich definiert. GOLDSTEIN siedelt ihn zwischen 400 Hz und 5000 Hz (vgl. GOLDSTEIN, 1999, S. 351) an, nach NIEMEYER liegt er zwischen 125 Hz und 1200 Hz (vgl. NIEMEYER 1978 S. 22), was dem durch das Audiogramm erfassbaren Bereich entspricht (vgl. MINNING 20051, S.1, Online im Internet; vgl. auch Abb. 8, S. 17). Der Frequenzbereich von Sprache und Musik wird im AUDIVA-Informationspapier Grundlagen/Verfahren der Hörwahrnehmung mit 40Hz bis 1600Hz angegeben (vgl. MINNING 20051, S. 1, Online im Internet). Nach WIRTH liegt das Klangspektrum menschlicher Sprache zwischen 50 und 1500 Hz (vgl. WIRTH 1995, S. 88). Möglicherweise gehen diese Unterschiede darauf zurück, dass nicht jede Lautsprache sich im selben Frequenzbereich bewegt. Nach TOMATIS liegt zum Beispiel der Frequenzbereich des Französischen zwischen 1000 und 2000 Hz, während der des Englischen erst bei ca. 1000 Hz beginnt. Der Frequenzbereich des Deutschen beinhaltet demnach auch sehr viele tiefe Töne, was die Abweichungen in den unteren Grenzen erklären würde. Spanisch bewegt sich nach TOMATIS ausschliesslich in tiefen Frequenzen, während slawische Sprachen und das Portugiesische bis zu elf Oktaven umfassen (vgl. TOMATIS 2004, S. 45).

Die von den Stimmlippen erzeugte Schallwelle wird auch „primärer Kehlkopfklang“ (WIRTH 1995, S. 88) genannt. Im Gegensatz zum Reinton setzt er sich aus mehreren Frequenzen zusammen, einer Grundfrequenz, die auch „1. Partialton“ (WIRTH 1995, S. 85) genannt wird und weiteren Partialtönen, die entweder Obertöne oder Harmonien der Grundfrequenz sind. Es handelt sich dabei um ein eher schmales Frequenzband. Durch Resonanz im Ansatzrohr, die durch die entsprechenden Artikulationsorgane im Vokaltrakt verändert werden kann, werden jeweils zwei Partialtöne verstärkt, während die übrigen Partialtöne gedämpft werden (vgl. WIRTH 1995, S.85 - 88). Durch die unterschiedliche Höhe der Amplituden der Partialtöne wird die Klangfarbe bestimmt (vgl. SCHELLBERG 1998, S. 9 f.). Das Vokalspektrum der Lautsprache entsteht also durch Maximierung der Amplitude von jeweils zwei Partialtönen, den Formanten.

Bei KOLLMEIER ist die Grundfrequenz von Männern mit 100 bis 400 Hz und die von Frauen mit 200 bis 800 Hz angegeben. Der Frequenzbereich des ersten Formanten F1 liegt demnach bei 300 bis 1000 Hz, der des zweiten Formanten F2 bei 600 bis 2500 Hz und der des dritten Formanten F3 bei 1500 bis 2500 Hz (vgl. KOLLMEIER 2005 1, Online im Internet, S. 102). Für die Vokalerkennung sind nur die beiden untersten Formanten zwingend erforderlich. Der F3 und weitere Formanten beeinflussen die Klangfarbe von Vokalen dennoch (vgl. WIRTH 1995, S. 88f.). Für die einzelnen Vokale im Deutschen ergeben sich charakteristische Lagebereiche innerhalb der Formanten wie im Vokaldreieck (Abb. 3) demonstriert wird.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2: Vokaldreieck (KOLLMEIER 20051, S. 103, Online im Internet)

Die Klangfarbe der einzelnen Vokale wird im Wesentlichen durch die Lage der Zunge und die Kieferöffnungsweite bestimmt. Vokale sind vom Wesen her den Klängen zuzuordnen. Vokale werden lang (z.B. [i:]), kurz (z.B. [ ]), betont (alle Vokale in betonten Silben) oder unbetont (Schwalaut [ ], silbisches r [ ] und unsilbisches r [ ]) gesprochen. Diphtonge werden ebenfalls den Vokalen zugeordnet. Sie sind Gleitlaute von einem Vokal zum nächsten. Im Deutschen kommen drei Diphtonge vor (vgl. STORCH 2002, S. 33 - 50). Neben den Vokalen werden in der Lautsprache auch Konsonanten artikuliert. Diese sind nur zum Teil stimmhaft. Nach DOBSLAFF (2005) sind sie als Geräusche zu bezeichnen. Konsonanten sind im Spektrogramm zwar erkennbar, aber schwer zu unterscheiden (vgl. KOLLMEIER 2005 1, S. 105, Online im Internet). Der Unterschied in der lautlichen Realisation von Konsonanten wird durch den Artikulationsmodus, den Überwindungsmodus und die Sonorität bestimmt. Mögliche Artikulationsmodi sind Verschluss (Verschlusslaute, z.B. [k]), Enge (Engelaute, z.B. [ç]), Nasenöffnung (Nasallaute, z.B. [m]) oder unterbrochener Verschluss (Schwinglaute, z.B. [R]). Beim Überwindungsmodus kann es sich um Sprengung (Plosivlaute, z.B. [p]), Reibung (Frikative, z.B. [f]), Fließen (Liquide, z.B. [l]) und Schwingen, Flattern oder Rollen (Vibranten, z.B. [R]) handeln. In der Sonorität geht es schließlich darum, ob ein Konsonant stimmhaft oder stimmlos artikuliert wird (vgl. STORCH 2002, S. 51 - 53).

Abbildung in dieser Leseprobe nicht enthalten

Tab. 1: Übersicht über deutsche Sprachlaute (nach KLEINER, ANDREAS: Atlas deutscher Sprachlaute 2005, Online im Internet); IPA=International Phonetics Alphabet

Im Hinblick auf die Sprachperzeption ist darüberhinaus das Koartikulationsprinzip zu

beachten. Beim Sprechen werden die einzelnen Laute nicht gesondert artikuliert, sondern „die Bewegungen der beteiligten Organe“ gehen „gleitend ineinander über“ und wirken „wechselseitig aufeinander ein“ (KRECH/KURKA/STELZIG/STOCK/STÖTZER/TESKE 1982, S. 69). Gleichzeitig setzen die „einem Laute vorbestimmten Bewegungen meistens schon ein[...], bevor die der vorangehenden Lautung noch beendet sind, bzw. die Bewegungen der früheren Lautung noch anhalten, während die der späteren bereits im Gange sind“ (ESSEN 1979, S. 117).

Die Laute werden also zu Sprecheinheiten zusammengefasst und erzeugen auf Grund der Koartikulation leicht veränderte Frequenzen.

2.1.2 Der Hörvorgang

Nachdem ich mich im vorhergegangenen Teil darum bemüht habe, die akustischen Merkmale der vom Menschen produzierten Lautsprache möglichst kurz, übersichtlich und unabhängig vom menschlichen Hören darzustellen, soll es nun darum gehen, was passiert, wenn der Schall schließlich auf das menschliche Ohr trifft und damit zum auditiven Reiz wird.

In der Umgangssprache wird mit dem Begriff Ohr das bezeichnet, was an den Seiten des Kopfes zu sehen ist, nämlich die Ohrmuschel. Abgesehen von Brillenträgern könnten Menschen auf diesen Teil des Ohres jedoch verglichen mit den Bereichen, die sich im Inneren des Kopfes befinden, am ehesten verzichten, ohne dadurch allzugroße Beeinträchtigungen ihres Gehörs auf sich zu nehmen. Interessanter im Bezug auf die Weiterleitung und Verarbeitung des akustischen Reizes sind die Teile des Ohrs, die sich dahinter verbergen.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 3: Aufbau des Ohrs (KOLLMEIER 20052, S. 1, Online im Internet)

Zunächst trifft der Schall also auf die Ohrmuschel, einen Teil des Außenohrs und wird dadurch in den Gehörgang geleitet. Dieser ist ca. 3 cm lang und hat im Wesentlichen die Aufgabe, das an seinem anderen Ende befindliche empfindliche Trommelfell vor gefährlichen Umwelteinflüssen zu schützen und die Temperatur des Mittelohrs einigermaßen konstant zu halten (vgl. GOLDSTEIN 1999, S. 318f.). Eine weitere Funktion des Außenohrs ist die Bündelung von Schall und damit eine Trichterwirkung bei hohen Frequenzen sowie die richtungsabhängige Verformung (Filterung) von akustischen Signalen. Da die Klangfärbung derselben je nach Einfallswinkel unterschiedlich ist, kann sie zur Ortung von Geräuschen genutzt werden (vgl. KOLLMEIER 20052, S. 2, Online im Internet).

Der Schall versetzt nun das Trommelfell in Bewegung. Diese Vibrationen werden auf das Mittelohr übertragen, das sich in der luftgefüllten Paukenhöhle befindet und über die Eustachische Röhre mit dem Nasen-Rachenraum verbunden ist. Dort treffen sie auf die Gehörknöchelchen. Der Hammer, der mit dem Trommelfell direkt verbunden ist, beginnt als erstes zu vibrieren und überträgt die Schwingungen auf den Amboß, der wiederum mit dem Steigbügel verbunden ist (vgl. GOLDSTEIN 1999, S. 319). Hammerkopf und Amboß sind durch ein Gleitreibungsgelenk miteinander verbunden, das bei starken statischen Auslenkungen nachgibt und den optimalen „Arbeitspunkt“ des Mittelohrs festlegt (vgl. KOLLMEIER 2005 2, S. 3, Online im Internet). Vom Steigbügel aus werden die Schwingungen über das ovale Fenster auf die Cochlea (auch: Gehörschnecke) übertragen. Am Steigbügelfußstück befindet sich der Musculus Stapedius, der bei hohem Schalldruck in einer Art Schutzreflex reagiert und eine Veränderung in der Mechanik des Mittelohrs bewirkt. Die Cochlea ist wesentlicher Bestandteil des Innenohrs und mit einer

Flüssigkeit gefüllt. Dadurch lässt sich auch die Funktion des Mittelohrs als Impendanzanpassung zwischen den wellenförmigen Bewegungen der Luft, in der kleine Auslenkungskräfte eine hohe Auslenkung der Luftelemente bewirken und der sehr hohen Impendanz der Innenohrflüssigkeit erklären (vgl. KOLLMEIER 20052, S. 4, Online im Internet).

Die Cochlea besteht aus drei schlauchförmigen Räumen, der Scala vestibuli, der Scala mediae und der Scala tympani. Die Scala vestibuli und die Scala tympani sind mit Perilymphe gefüllt, die Scala mediae mit Endolymphe. Die Scala mediae liegt zwischen den beiden anderen Räumen und wird durch die ionendurchlässige Reissner'sche Membran von der Scala vestibuli und durch die Basiliarmembran von der Scala tympani abgegrenzt. Auf der Basiliarmembran in der Scala mediae befindet sich das Cortische Organ, welches über Haarzellen mit den Hörnerven verbunden ist. Man unterscheidet die inneren Haarzellen, die durchgängig einreihig angeordnet sind und die äußeren Haarzellen, die dreireihig angeordnet sind und deren Zahl zum spitz zulaufenden Inneren der Cochlea hin zunimmt (vgl. LAUER 2001, S. 2f.). An dieser Spitze sind die Scala vestibuli und die Scala tympani über das Helicotrema verbunden (vgl. ROSEN/HOWELL 1991, S. 245). Überträgt nun der Steigbügel die Vibrationen über das ovale Fenster auf die Endolymphe in der Cochlea, so werden diese nur bedingt über das Helicotrema und durch die Scala tympani zum runden Fenster an deren Ende übertragen. Der Druck wirkt mehr auf die Scala mediae ein und setzt damit die elastische Basiliarmembran in Bewegung (vgl. GOLDSTEIN 1999, S. 321). Da die Endolymphe nicht komprimierbar ist, wird die entstehende Bewegung außerdem durch eine Auswärtsbewegung der Membran im runden Fenster ausgeglichen. Bewegen sich Steigbügel und Membran des ovalen Fensters wieder auswärts, so wird die Membran des runden Fensters nach innen bewegt (vgl. ROSEN/HOWELL 1991, S. 245f.).

Die Wanderwelle der Basiliarmembran wiederum übersetzt sich auf das Cortische Organ, welches sich ebenfalls auf- und abwärts bewegt und sorgt außerdem dafür, dass sich die Tectorialmembran, die das Cortische Organ bedeckt, sich über den Flimmerhärchen der Haarzellen vor- und rückwärts bewegt. Dadurch beugen sich die inneren Haarzellen auf Grund ihrer Bewegungen gegen die umgebende Perilymphe, während die äußeren Haarzellen durch die Tectorialmembran gebeugt werden. Nicht jedes akustische Signal wird dabei auf der Basiliarmembran gleich weitergeleitet. Unterschiedliche Frequenzen erzeugen unterschiedliche Wellenbewegungen auf der Basiliarmembran und wirken somit auf unterschiedliche innere Haarzellen ein (vgl. GOLDSTEIN 1999, S. 322 - 330).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 4: Schematischer Aufbau des Innenohrs: Cochlea, Querschnitt durch die Cochlea und Cortisches Organ (nach KOLLMEIER 20052, S. 5, Online im Internet und GOLDSTEIN 1999, S. 322f.)

Eine tonotopische Übersicht über die Lage der Frequenzbereiche auf der Cochlea zeigt Abb. 7. Allgemein werden in Abhängigkeit vom Schallwellenwiderstand der Innenohrflüssigkeit hohe Frequenzen näher am ovalen Fenster übertragen, während tiefe Frequenzen eher in der Nähe des Helicotrema über die Haarzellen weitergeleitet werden. Die Wellen auf der Basiliarmembran verlaufen nur bis zu ihrer frequenzspezifischen Stelle, hinter der die Basiliarmembran in Ruhe ist. (vgl. LAUER 2001, S. 3)

Abbildung in dieser Leseprobe nicht enthalten

Abb. 5: Schematische Übersicht über die Lage von sensiblen Haarzellen für einzelne Frequenzbereiche auf der Cochlea (GOLDSTEIN 1999, S. 330)

Die Bewegung der inneren Haarzellen erzeugt ein elektrisches Signal, das auf den Hörnerv (VIII. Hirnnerv: Nervus vestibulocochlearis in LAUER 2001, S. 3 oder Nervus statoacusticus in WIRTH 2000, S. 645) übertragen wird. Hier wird auch die Verbindung zwischen Gleichgewicht und Hören deutlich. Bewegen sich die Zilien in eine Richtung, werden sie entladen, bewegen sie sich in die andere Richtung, werden sie aufgeladen. Dies führt dazu, dass Neurotransmitter ausgeschüttet werden und der Hörnerv zum feuern gebracht wird (vgl. GOLDSTEIN 1999, S. 330). Die inneren Haarzellen werden jeweils von mehreren afferenten Axonen des Hörnervs innerviert, während ein afferentes Axon jeweils für mehrere äußere Haarzellen zuständig ist (vgl. LAUER 2001, S.3). Der Hörnerv besteht zum größten Teil aus afferenten Nervenfasern, von denen aber nur ca.

5 % von den äußeren Haarzellen ausgehen. Sie haben ihren Zellkern im Spiralganglion im Zentrum der Schnecke sowie eine Synapse an den Wurzeln der inneren Haarzellen und enden im Nucleus cochlearis dorsalis (NCD) im Hirnstamm. Die efferenten Fasern des Hörnervs entspringen größtenteils der oberen Olive, kreuzen dann über Sagittal die Seite und innervieren über das Spiralganglion die äußeren Haarzellen. Von den inneren Haarzellen beeinflussen sie lediglich die afferenten Synapsen (vgl. KOLLMEIER 20053, S. 72, Online im Internet). An dieser Stelle wird vermutlich die Sensitivität der inneren Haarzellen reguliert, um ein zu schnelles Erreichen der maximalen Antwortquote bei steigender Schallintensität zu verhindern. Es ist auch denkbar, dass hier Hintergrundgeräusche reduziert werden können und die Aufmerksamkeit auf ein bestimmtes Geräusch gelenkt werden kann (vgl. GOLDSTEIN 1999, S. 341). Über die Aufgabe der äußeren Haarzellen herrscht in der Literatur Uneinigkeit. Es wird vermutet, dass sie auf Grund von positivem elektromechanischen Feedback als Verstärker der Frequenzauflösung wirken (vgl. ZWISLOCKI 1992, S. 4), indem sie durch „eine Art aktive Rückkopplung die Sensitivität und gleichzeitig die Frequenzspezifität der Basiliarmembran“ erhöhen (KOLLMEIER 20052, S. 6, Online im Internet).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 6: Physiologie der zentral-auditiven Verarbeitung (o. A.: Auditory Pathway 2005, Online im Internet)

Über die Abgrenzung von peripherem und zentralem Hören finden sich in der Literatur unterschiedliche Ansichten. So beginnt bei LAUER (2001, S. 2) in Anlehnung an BÖHME der „zentrale[..] Teil“ des Hörens, der auch die Wahrnehmung mit einschließt, an der „Eintrittsstelle des N. Vestibulocochlearis in den Hirnstamm“ und die „zentrale Verarbeitung [...] beim Spiralganglion“ (LAUER 2001, S. 4), während andere Autoren die Ansicht vertreten, dass bereits die Cochlea bzw. die im Cortischen Organ befindlichen Zilien Teil des zentralen Hörsystems bzw. der Hörbahn (auditory pathway) sind (vgl. z.B. KOLLMEIER 20053, S. 70, Online im Internet; GOLDSTEIN 1999, S. 321; GAAB 2004, S.13, Online im Internet). Im Konsensus-Statement aus den Bereichen Phoniatrie und Pädaudiologie wird die Cochlea nur dann als Teil des zentralen Hörens angesehen, wenn ihre Bestandteile intakt sind (vgl. M. PTOK, R. BERGER, Chr. von DEUSTER, M. GROSS, A. LAMPRECHT-DINNESEN, A. NICKISCH, H. J. RADÜ und V. UTTENWEILER 2005, Online im Internet, S. 6).

Nun aber zurück zum Hörnerv: Er führt durch den inneren Gehörgang zum Hirnstamm und mündet dort in den Nucleus cochlearis ventralis und den Nucleus cochlearis dorsalis. Niederfrequente Schallwellen werden dabei in die ventralen, rostralen und lateralen Teile der Nuclei weitergeleitet, während höhere Frequenzen in den dorsalen, kaudalen und medialen Abteilungen der Nuclei landen. Von diesen Hirnnervenkernen aus führt die Verbindung zu den oberen Oliven (superior olivary complex), die sich ebenfalls in der Medulla oblongata (verlängertes Rückenmark) befinden. In jeder oberen Olive treffen Projektionen beider cochlearer Nuclei ein. Auf Grund der größeren Projektionen der jeweiligen Gegenseite kommen auf dem primären auditorischen Cortex hauptsächlich die Informationen von dem Ohr auf der Gegenseite des Kopfes an (vgl. GAAB 2004, S. 14f., Online im Internet). Darüberhinaus werden auch Signale zum Nucleus accessorius und zu den seitlichen Schleifenkernen (Nuclei lemnisci laterales) übertragen (vgl. KOLLMEIER 20052, S. 8, Online im Internet). Von der oberen Olive aus steigen Bahnen durch den Lemniscus lateralis Trakt zum Colliculus inferior (unteres Vierhügelpaar) auf. Von dort aus leiten zwei unterschiedliche Verbindungen die Signale zu den ventralen und dorsalen Regionen des Corpus geniculatum mediae im Thalamus (graue Substanz). Vom dorsalen Bereich aus werden Signale (also u. a. höhere Frequenzen) an den sekundären auditorischen Cortex weitergeleitet, während die Signale aus den ventralen Regionen (also u. a. tiefere Frequenzen) zum primären auditorischen Cortex weitergeleitet werden. Der Nucleus mediale steht auch mit subkortikalen Strukturen im Frontallappen, der dorsalen Amygdala und dem Neostriatum posterior in Verbindung, so dass ein Zusammenhang zu emotionalen Reaktionen auf auditive Stimuli vermutet werden kann (vgl. GAAB 2004, S. 14f., Online im Internet).

Die Aufgabe der Hörbahn ist es also, akustische Informationen in neuronalen Erregungsmustern und Strukturen zu kodieren und zu verarbeiten. Im Hörnerv wird die Schallintensität zu jedem Zeitpunkt verschlüsselt, indem die akustische Information durch die Erhöhung bzw. Synchronisation der Entladungsrate verschiedener Nervenfasern bei Stimulation der zugehörigen Haarzelle kodiert wird. In der oberen Olive im Hirnstamm erfolgt bereits ein Schritt zur Schalllokalisation, indem eine Auswertung der Zeit- und Intensitätsunterschiede des akustischen Stimulus (Modulationsfrequenzen) erfolgt. Unterstützt wird dies durch die Analyse der zeitlichen Schwankungen der akustischen Energien im Colliculus inferior (vgl. KOLLMEIER 20052, S. 9, Online im Internet).

Allgemein lassen sich in der gesamten Hörbahn tonotope Organisationsstrukturen nachweisen, benachbarte akustische Frequenzen führen also zu Nervenerregungen an benachbarten Orten im ZNS. Ähnlich verhält es sich mit der spatiotopen Abbildung der räumlichen Anordnung von Schallquellen und der periodotopen Abbildung der aufgespaltenen Modulationsfrequenzen (vgl. KOLLMEIER 2005 2, S. 9, Online im Internet).

Die Hörbahn mündet in den auditorischen Cortex, der in der sylvischen Spalte im oberen Temporallappen liegt. Er wird in die drei Teilbereiche primärer, sekundärer und tertiärer auditorischer Cortex unterteilt.

Das System des primären auditorischen Cortex umfasst Neuronen, die auf Frequenzen zwischen 20 Hz und 20 000 Hz reagieren und die Merkmale Lautstärke, Tonhöhe und Klangfarbe registrieren. Die Hirnwindung, in der er liegt, wird häufig als Heschl'scher Gyrus bezeichnet. Um den primären auditorischen Cortex herum befindet sich der sekundäre auditorische Cortex, der Projektionen vom primären empfängt und mit einem anderen Bereich des Gehirns, dem Planum temporale, korrespondiert, das für sprachliche Funktionen aber auch allgemeine Schall- und Musikwahrnehmung zuständig ist. Der primäre und der sekundäre auditorische Cortex entsprechen in ihrer Gesamtheit dem Wernicke-Zentrum.

Mit tertiärer auditorischer Cortex werden die auditorischen Assoziationsfelder bezeichnet, die lateral und ventral zum primären auditorischen Cortex auf dem Gyrus frontalis inferior liegen, also dort, wo man auch das Broca-Zentrum vermutet.

Abbildung in dieser Leseprobe nicht enthalten

Abb 7: links: Primärer und sekundärer auditorischer Cortex (GAAB 2004, S. 17, Online im Internet) rechts: Ansicht des Gehirns von lateral, zusätzliche Kennzeichnung der Bereiche des tertiären auditorischen Cortex (nach Wikipedia 2006, Online im Internet)

Zusammenfassend ist zu sagen, dass eine genaue tonotopische Zuordnung von Sprachstimuli und Gehirnregionen bis heute nicht eindeutig möglich ist, da nachgewiesenermaßen gleiche Hirnareale bei verschiedensten Tätigkeiten aktiv sind (vgl. SCHÖNWIESNER 2004, PRICE/THIERRY/GRIFFITHS 2005, SCOTT 2005). Vermutete Gründe sind zum Beispiel, dass die entsprechenden Messverfahren nicht genau genug sind, dass sich Gehirne anatomisch unterscheiden (vgl. SCHÖNWIESNER 2004, S. 29f.) oder dass die funktionelle Spezialisierung auf funktionellen Verbindungen zwischen

auditiven Assoziationen und höheren Netzwerken basiert (vgl. PRICE/THIERRY/GRIFFITHS 2005, S. 274; KAISER/WALKER/LEIBERG/ LUTZENBERGER 2005, S. 587).

Die neuere Forschung zeigt außerdem, dass an der auditiven Wahrnehmung noch weitere Bereiche beteiligt sind, so übernimmt zum Beispiel das Cerebellum Aufgaben im Bereich der rein sensorischen auditorischen Weiterleitung (vgl. PETACCHI/LAIRD/FOX/BOWER 2005, S. 118).

Dass Lautstärken und Tonhöhen, zeitliche Verhältnisse akustischer Reize, Musik und Sprache im auditiven System verarbeitet und Schallquellen lokalisiert werden, steht jedoch fest.

Im Bezug auf Amplitude und Tonfrequenz ist das zentrale Hörfeld des Menschen eingegrenzt. Die Angaben im Bezug auf das Sprachfeld und den Frequenzbereich des menschlichen Hörens unterscheiden sich je nach Quelle leicht, was vermutlich, wie schon auf Seite 4 kurz angesprochen, auf die unterschiedlichen Muttersprachen der jeweiligen Studien sowie auf anatomische und damit auch auditive interindividuelle Unterschiede zurückzuführen ist. Abbildung 10 zeigt eine Darstellung der menschlichen Hörschwelle.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 8: Menschliches Hörfeld (MINNING 20051, S. 1, Online im Internet)

2.1.3 Entwicklung der auditiven Verarbeitung und Wahrnehmung

Bereits im Mutterleib entwickeln sich die Grundlagen für die auditive Verarbeitung und Wahrnehmung. Die Cochlea und mit ihr das Cortische Organ sind bereits in der 20. Schwangerschaftswoche ausgeformt (vgl. HOLTZ 1994, S. 45). Zu hören beginnt der Fötus ab der 27. Woche, was an der Reaktion in Form einer veränderten Herzschlagrate gemessen wurde (vgl. HENNON/HIRSH-PASEK/MICHNICK GOLINKOFF 2000, S. 51). Von Geburt an kann der Säugling sprachliche von nicht-sprachlichen Lauten unterscheiden. Er präferiert außerdem die Stimme der Mutter (vgl. GRIMM 2002, S. 28). Im ersten Lebensmonat zeigt er auditive Aufmerksamkeit und beruhigt sich bei kontinuierlichen leiseren Geräuschen aus unmittelbarer Umgebung. Zwischen dem dritten und dem sechsten Lebensmonat versucht er, Schallquellen zu lokalisieren und reagiert unterschiedlich auf verschiedene Geräusche. Er erkennt die Stimmen beider Eltern (vgl. THIEL 2000, S. 19). Bereits im Alter von vier Monaten unterscheiden Babys stimmhafte und stimmlose Laute und diskriminieren zunehmend weitere phonetisch relevante Merkmale (vgl. LAUER 2001, S. 11). Dies zeigt sich auch während der 1. Lallperiode zwischen dem 2. und 6. Lebensmonat. Diverse Studien haben nachgewiesen, dass bei normalhörenden Kindern in der ersten Lallphase „lautliche Strukturen und Entwicklungsverläufe in den Sprachproduktionen bestehen“ (SENDLMEIER/RÖHR- SENDLMEIER 1997, S. 218). Demnach können zumindest Kinder mit schwergradiger Hörstörung durch Abweichungen in der Lautproduktion in dieser Phase von normalhörenden Kindern abgegrenzt werden (vgl. SENDLMEIER/RÖHR-SENDLMEIER 1997, S. 218). Bei der Analyse von Sprache achten Babys vor allem auf die Prosodie, was in diversen Studien immer wieder nachgewiesen wurde. Mit 9 Monaten erkennen sie auf Grund von Prosodie und Phonemkonstellationen bereits, welche sprachlichen Muster ihrer Muttersprache zuzuordnen sind (vgl. HENNON/HIRSH-PASEK/MICHNICK GOLINKOFF 2000, S. 52 - 59). Das Kind versteht außerdem „bekannte Wörter und einfache Aufforderungen im situativen Kontext“ (THIEL 2000, S.19). Im 10. Lebensmonat dreht es den Kopf zum benannten Gegenstand und zwischen dem 11. und 15. Lebensmonat befolgt es bereits einfache Ge- und Verbote (vgl. THIEL 2000, S. 19). Die Fähigkeit zur auditiven Lokalisation von oben und unten entwickelt sich zwischen dem 15. und dem 18. Lebensmonat. Die Ausreifung der Hörbahn schließt nach WIRTH in etwa zwischen dem 12. und dem 18. Lebensmonat ab, so dass z.B. Paukenergüsse mit daraus resultierender Schalleitungsschwerhörigkeit während dieser Zeit eine „zentrale auditive Perzeptionsstörung“ (WIRTH 2000, S. 195) bewirken können. Hörstörungen sollten demnach vor Beginn der zweiten Lallperiode im 6. bis 9. Monat, also im günstigsten Fall im Alter von 3 - 4 Monaten erkannt werden (vgl. WIRTH 2000, S. 195f.). Nach BÖHME ist die Hörbahnreifung jedoch erst mit dem 15. Lebensjahr vollkommen abgeschlossen, während im 1. Lebensjahr lediglich die Myelinzunahme sehr ausgeprägt ist und die Markscheidenreifung der entsprechenden Nervenfasern stattfindet (vgl. BÖHME 2006, S. 24). Daraus lässt sich schlussfolgern, dass im Schulkindalter die Hörbahn noch nicht vollständig ausgereift ist und sich durch therapeutische Intervention zumindest in Ansätzen auf Grund der bereits abgeschlossenen Myelinisierungsphase noch beeinflussen lassen müsste.

2.1.4 Teilfunktionen der auditiven Verarbeitung und Wahrnehmung

Ein weiterer Punkt, der mir im Hinblick auf die Förderung von Schulkindern mit auditiven Verarbeitungs- und Wahrnehmungsstörungen wichtig erscheint, ist eine Darstellung der Aufgaben, die die auditive Verarbeitung und Wahrnehmung im Bezug auf das Individuum zu erfüllen hat, also der Teilfunktionen auditiver Verarbeitung und Wahrnehmung.

Im Konsensusstatement der American Speech-Language-Hearing Association von 1996 werden die auditorischen Prozesse als Mechanismen des auditorischen Systems bezeichnet, die für die Verhaltensphänomene „sound localization and lateralization, auditory discrimination, auditory pattern recognition, temporal aspects of audition, including temporal resolution, temporal masking, temporal integration and temporal ordering, auditory performance decrements with competing acoustic signals and auditory performance decrements with degraded acoustic signals“ (vgl. FLORIDA STATE DEPARTMENT OF EDUCATION 2001, S. 2, Online im Internet).

Abbildung 11 zeigt das Modell der zentral-auditiven Verarbeitung (ZAV) nach LAUER (links) sowie das Model of the speech-processing chain nach DODD (rechts). Das Modell von DODD verdeutlicht den Einfluss auditiver Wahrnehmung und Verarbeitung auf den Kommunikationsvorgang, während das Modell von LAUER den Prozess der auditiven Verarbeitung und Wahrnehmung detailliert darstellt (vgl. Abb. 9).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 9: Modell der zentral-auditiven Verarbeitung (LAUER 2001, S. 14) und Model of the speechprocessing chain (DODD 1995, S. 67)

In der auditiven Verarbeitung und Wahrnehmung spielen sogenannte top-down sowie bottom-up Prozesse eine Rolle. Hierbei handelt es sich um die unter 2.1.2 erwähnten neuronalen Leitungsprozesse, die zum einen afferent (aufsteigend), aber auch efferent (absteigend) sein können. Da insbesondere die efferenten Prozesse nur in Tierexperimenten sicher nachgewiesen wurden, wird diese Art der Leitung im Konsensusstatement vernachlässigt (vgl. PTOK / BERGER / von DEUSTER / GROSS / LAMPRECHT-DINNESEN / NICKISCH / RADÜ /UTTENWEILER 2005, S. 4, Online im Internet).

Auditive Fähigkeiten, die auf diesen Prozessen basieren, sind Aufmerksamkeit, Speicherung und Sequenz, Lokalisation, Diskrimination, Selektion, Analyse, Synthese, Ergänzung sowie intramodale und intermodale Integrationsprozesse (vgl. LAUER 2001, S. 15 - 19). Sie stellen die Basis des Hörens und der Kommunikation dar. Eine Zusammenstellung von auditory processing skills findet sich an anderer Stelle im Technical Assistance Paper des FLORIDA STATE DEPARTMENT OF EDUCATION. Aus der auditiven Weiterleitung ergeben sich demnach folgende Fähigkeiten: sensation, discrimination, localization, auditory attention, auditory figure ground, auditory discrimination, auditory closure, auditory synthesis, auditory analysis, auditory association, auditory memory (FLORIDA STATE DEPARTMENT OF EDUCATION 2001, S. 3, Online im Internet).

Sensation bezeichnet schlichtweg das Erkennen von Schallereignissen.

Mit Aufmerksamkeit und auditory attention ist die Fähigkeit gemeint, sich bestimmten auditiven Stimuli zuzuwenden und sie bewusst wahrzunehmen. Damit ist sie die Basis anderer Teilfunktionen, da ohne Aufmerksamkeit keine komplexere Verarbeitung stattfinden kann (vgl. LAUER 2001, S. 15). LAUTH sieht einen weiteren Bestandteil der Aufmerksamkeit darin, dass Dinge, die sich ebenfalls aufdrängen nicht beachtet werden (vgl. LAUTH 2004, S. 240). STURM bezeichnet dies als selektive Aufmerksamkeit. Er unterteilt die Aufmerksamkeit in die Komponenten generelle Wachheit oder Aktivierung, selektive Aufmerksamkeit und Vigilanz, wobei die generelle Wachheit noch in tonische Wachheit (physiologischer Spannungszustand des Organismus) und phasische Wachheit (plötzlich verstärkte Aufmerksamkeit) unterschieden wird. Vigilanz umschreibt das Phänomen, dass Aufmerksamkeit über einen längeren Zeitraum in Anspruch genommen wird, obwohl ein Stimulus nur in seltenen und unregelmäßigen Abschnitten auftritt (vgl. STURM 1989, S. 315).

Mit Speicherung und Sequenz sowie auditory memory ist die Speicherung auditiver Stimuli im Kurzzeit- oder Arbeitsgedächtnis, dem einzig bewussten Gedächtnisanteil des Menschen, gemeint. Es dient sowohl der Elaboration als auch dem Abruf von Informationen. Wird ein auditiver Stimulus kurzfristig im Gedächtnis behalten, so spricht man von Speicherung oder auditiver Merkspanne (vgl. LAUER 2001, S. 16). Auditory short-term memory als Teil des auditory memory meint dasselbe Phänomen, wohingegen

im auditory sequential memory die Reihenfolge von Stimuli erinnert wird (vgl. FLORIDA STATE DEPARTMENT OF EDUCATION 2001, S. 3, Online im Internet). Diese Fähigkeit wird bei LAUER mit Sequenz bezeichnet (vgl. LAUER 2001, S. 16). Im Zusammenhang mit dem Gedächtnis ist auch auditory association zu sehen. Hierbei handelt es sich um eine Basisfähigkeit zur Ausbildung des Hörgedächtnisses, die es ermöglicht, auditive Reize mit gespeicherten semantischen Inhalten zu verknüpfen.

Die Lokalisation/Localization bezeichnet die Fähigkeit, die Position des Geräusches vom eigenen Standpunkt aus zu bestimmen (vgl. FLORIDA STATE DEPARTMENT OF EDUCATION 2001, S. 3, Online im Internet). Zur horizontalen Lokalisation werden binaural aufgenommene akustische Reize auf Zeit- und Intensitätsunterschiede hin verglichen. Auch die Ohrmuscheln spielen bei der auditiven Lokalisation eine Rolle (vgl. GOLDSTEIN 1999, S. 368f.).

Unter der Diskrimination/Discrimination versteht man die Fähigkeit, zwischen auditiven Stimuli im Hinblick auf Frequenz, Dauer und Lautstärke, also auf parasprachlicher Ebene zu unterscheiden. Auf suprasegmentaler Ebene werden die Stimuli nach Dauer, Akzent und Intonation unterschieden. Von auditory discrimination spricht man, wenn auf segmentaler Ebene zwischen phonetischen Merkmalen von Sprachlauten unterschieden wird (vgl. FLORIDA STATE DEPARTMENT OF EDUCATION 2001, S. 3, Online im Internet).

Selektion oder Figur-Hintergrund-Unterscheidung/auditory figure ground bezeichnet die Fähigkeit zur Identifizierung des primären sprachlichen oder nichtsprachlichen Schalls in einer Vielzahl von Umgebungsgeräuschen, die wiederum unterdrückt werden müssen. Besonders schwierig ist dies in einem Umfeld mit vielen Nebengeräuschen, besonders dann, wenn diese sich akustisch sehr ähnlich sind.

Analyse/auditory analysis meint die Fähigkeit Phoneme oder Morpheme in Wörtern zu identifizieren, sowie die Position von Wörtern in längeren Sprachäußerungen zu bestimmen (vgl. FLORIDA STATE DEPARTMENT OF EDUCATION 2001, S. 3, Online im Internet).

Synthese/auditory synthesis beinhaltet aus lautsprachlicher Sicht die Fähigkeit, aus einzelnen Lauten oder Morphemen ein Wort zusammenzusetzen (vgl. LAUER 2001, S. 18).

Ergänzung/auditory closure bezeichnet die Fähigkeit, auditive Gebilde zu sinnvollen Informationen zu vervollständigen (vgl. BÖHME 2006, S. 43).

Intramodale und intermodale Integrationsprozesse schließlich bezeichnen das Zusammenwirken einzelner Teilfunktionen untereinander und Verbindungen der AVW mit anderen Verarbeitungsbereichen (vgl. LAUER 2001, S. 19).

BURRE (2006, S. 33) nennt als wichtigste auditive Teilfunktionen die dichotische Wahrnehmung, die Stör- und Nutzschallperzeption, die auditive Merkfähigkeit und die phonologische Bewusstheit.

2.2 Störungen der auditiven Verarbeitung und Wahrnehmung

2.2.1 Definition der auditiven Verarbeitungs- und Wahrnehmungsstörung (AVWS)

Allein in der deutschsprachigen Literatur finden sich unzählige Begriffe für das mehr oder weniger gleiche Phänomen. So ist von der auditiven Verarbeitungsstörung die Rede, von der zentralen Schwerhörigkeit, der auditiven Agnosie, einer zentralen Sprachverständnisstörung, einer Hörwahrnehmungsstörung, einer auditiven Wahrnehmungsstörung, der zentral-auditiven Informationsverarbeitungsstörung, der auditiven Teilleistungsstörung, der zentralen Fehlhörigkeit oder der Lautagnosie (vgl. NICKISCH/HEBER/BURGER-GARTNER 2001, S. 11). In der internationalen Klassifikation von Krankheiten (ICD-10), die von der WHO (World Health Organization) herausgegeben wird, gibt es bisher keinen Schlüssel für AVWS. Die Existenz von AVWS als Grundlage für die ihr zugedachten Symptome war lange Zeit umstritten (vgl. FRIELPATTI 1999, S. 345f.).

In Anlehnung an den von der American Speech-Language-Hearing Association (ASHA) 2000 vorgeschlagenen Begriff auditory processing disorders (APD) einigten sich die Autoren des Konsensusstatement auf den Begriff auditive Verarbeitungs- und Wahrnehmungsstörungen (AVWS) (vgl. BÖHME 2006, S. 36).

APD werden von der ASHA schon 1996 definiert als:

Deficits observed in one or more of the central auditory processes responsible for generating the auditory evoked potentials and the following behaviours: sound localisation and lateralisation; auditory discrimination; auditory pattern recognition; temporal aspects of audition including temporal resolution, temporal masking, temporal integration and temporal ordering; auditory performance with competing acoustic signals; auditory performance with degraded acoustic signals.

(FLORIDA STATE DEPARTMENT OF EDUCATION 2001, S. 4, Online im Internet)

M. PTOK, R. BERGER, Chr. von DEUSTER, M. GROSS, A. LAMPRECHT-DINNESEN,

A. NICKISCH, H. J. RADÜ und V. UTTENWEILER definieren auditive Verarbeitungs- und Wahrnehmungsstörungen in ihrem Konsensus-Statement wie folgt:

Eine auditive Verarbeitungs- und/oder Wahrnehmungsstörung (AVWS) liegt vor, wenn zentrale Prozesse des Hörens gestört sind. Zentrale Prozesse des Hörens ermöglichen u. a. die vorbewußte und bewußte Analyse von Zeit-, Frequenz- und Intensitätsbeziehungen akustischer Signale, Prozesse der binauralen Interaktion (z. B. zur Geräuschlokalisation und Lateralisation und Störgeräuschbefreiung).

(PTOK / BERGER / VON DEUSTER / GROSS / LAMPRECHT-DINNESEN / NICKISCH / RADÜ / UTTENWEILER 2005, S. 4, Online im Internet)

LAUER (2001, S. 20) nennt in ihrer Definition von zentral-auditiven Verarbeitungs- und Wahrnehmungsstörungen darüber hinaus noch das Kriterium, dass das periphere Hören intakt ist und im engeren Sinne immer auch „audiologisch meßbare Störungen auf der die akustischen Stimuli vorverarbeitenden Ebene der zentralen Hörbahn“ vorliegen.

Manche Autoren unterscheiden auch nach auditiver Verarbeitungsstörung und auditiver Wahrnehmungsstörung, wobei ersteres auch als zentrale Fehlhörigkeit bezeichnet wird und sich auf die zentrale Weiterleitung und Verschaltung von Nervenimpulsen auf der zentralen Hörbahn bezieht, während die auditive Wahrnehmungsstörung die „Aufbereitung und Auswertung der Nervenimpulse in der Hirnrinde“ meint (ROSENKÖTTER 2003, S. 79). Dieser Art der Gewichtung wird im Konsensus-Statement Rechnung getragen, indem nach AVWS „bei überwiegend gestörter Verarbeitung“ und von AVWS „bei überwiegend gestörter Wahrnehmung“ unterschieden wird (vgl. PTOK/BERGER/von DEUSTER/ GROSS/LAMPRECHT- DINNESEN/NICKISCH/RADÜ/UTTENWEILER 2005, S. 6, Online im Internet).

Im Technical Report der ASHA über APD vom Januar 2005 werden diese ebenfalls als „difficulties in the perceptual processing of auditory information“, also der „auditiven Wahrnehmungsverarbeitung“ definiert, die die Fähigkeiten „sound localization and lateralization; auditory discrimination; auditory pattern recognition; temporal aspects of audition, including temporal integration, temporal discrimination (e.g., temporal gap detection), temporal ordering, and temporal masking; auditory performance in competing acoustic signals (including dichotic listening); and auditory performance with degraded acoustic signals“ umfasst, während Fähigkeiten wie „phonological awareness,attention to and memory for auditory information, auditory synthesis, comprehension and interpretation of auditorily presented information, and similar skills“ als kognitiv- kommunikative und/oder sprachbezogene Funktionen bezeichnet werden, die nicht in der auditiven Verarbeitung inbegriffen sind (vgl. ASHA 2005, S. 2, Online im Internet).

NICKISCH (2001, S. 16) benennt diese als zentral-auditive Prozesse der Wahrnehmung und ordnet ihnen darüber hinaus noch die auditive Sequenzierung und die auditive Ergänzung zu.

[...]

Ende der Leseprobe aus 98 Seiten

Details

Titel
Die Förderung von Schulkindern mit auditiven Verarbeitungs- und Wahrnehmungsstörungen (AVWS)
Hochschule
Universität Leipzig
Note
1,0
Autor
Jahr
2006
Seiten
98
Katalognummer
V61259
ISBN (eBook)
9783638547536
Dateigröße
3792 KB
Sprache
Deutsch
Schlagworte
Förderung, Schulkindern, Verarbeitungs-, Wahrnehmungsstörungen
Arbeit zitieren
Alexandra Winter (Autor), 2006, Die Förderung von Schulkindern mit auditiven Verarbeitungs- und Wahrnehmungsstörungen (AVWS), München, GRIN Verlag, https://www.grin.com/document/61259

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Die Förderung von Schulkindern mit auditiven Verarbeitungs- und Wahrnehmungsstörungen (AVWS)



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden