Zusammenhang und Interdisziplinarität von Musik und Sprache


Hausarbeit, 2011

14 Seiten, Note: 1,0


Leseprobe

Inhalt

1 Einleitung

2 Parallelen zwischen Musik und Sprache
2.1 Ursprung
2.2 Aufbau
2.3 Lernmechanismen
2.4 Verarbeitungsprozesse im Gehirn

3 Die Rolle der Musik beim Spracherwerb
3.1 Musik in der Sprache - Die Prosodie
3.2 Kinderlieder
3.3 Musik im Fremdsprachenunterricht

4 Transfereffekte – Auswirkungen musikalischer Betätigung auf sprachliche Leistungen

5 Fazit

Literaturverzeichnis

Zusammenhang und Interdisziplinarität von Musik und Sprache

1 Einleitung

Musik und Sprache. Zwei Phänomene, die auf den ersten Blick nicht unbedingt viel gemeinsam zu haben scheinen. Eine erste Verbindung lässt sich zunächst allenfalls im Singen, wo sich die Sprache im Liedtext und die Musik in der Melodie wiederfinden, ausmachen. Dass das Spektrum der Parallelen zwischen Musik und Sprache jedoch viel breiter gefächert ist und wofür diese nützlich sein können, soll diese Arbeit zeigen. Abgesehen davon steht die Beantwortung folgender Fragen im Mittelpunkt: Was für eine Rolle spielt Musik beim Spracherwerb und bei der Sprachentwicklung? Begünstigen musikalische Fähigkeiten und Fertigkeiten (fremd)sprachliche Lernprozesse – und umgekehrt?

2 Parallelen zwischen Musik und Sprache

2.1 Ursprung

Der Mensch ist das einzige Lebewesen, das die Fähigkeit besitzt, zwei lautliche Kommunikationssysteme zu verarbeiten und zu gebrauchen. Schon im Ursprung dieser Phänomene sind Gemeinsamkeiten zu finden. Steven Brown geht davon aus, dass sich Sprache und Musik im Verlauf der Phylogenese aus einem gemeinsamen kommunikativen Vorgänger entwickelt haben, der zunächst eine gemeinschaftsstiftende Funktion hatte und dadurch einen evolutionären Vorteil mit sich brachte. Nach Brown entstanden daraus allmählich tonale Sprachen, also Sprachen, in denen die Bedeutung der Wörter durch die Tonhöhe bestimmt ist. Erst zu einem späteren Zeitpunkt grenzten sich Musik und Sprache deutlich voneinander ab und entwickelte sich zu dem, was heute darunter zu verstehen ist (vgl. Brown 2000).

Ein Vorteil der Sprache für die Kommunikation gegenüber der Musik dürfte in deren Eindeutigkeit gelegen haben (vgl. Fitch 2005 zit. nach Sallat 2009, S. 87). Dem wäre der Aspekt der schnelleren und oft auch kompakteren Informationsübermittlung hinzuzufügen.

Dennoch ist die Frage nach der Entstehung von Musik und Sprache bis heute (noch) nicht gänzlich geklärt. Zudem existieren hierzu verschiedene Meinungen und Modelle. EckhartAltenmüller/Michael Grossbach stellten beispielweise mehrere Fakten zusammen, die für das Singen als Ursprache und damit in Verbindung mit evolutionären Vorteilen sprechen könnten. Im Mittelpunkt stehen hierbei Aspekte der Gruppenbindung, der Möglichkeit des emotionalen Ausdrucks und der Verarbeitung im Gehirn, welche im Fall des Singens weniger an eine Hirnhemisphäre gebunden ist. Dahinter stehen Annahmen, dass „später entwickelte evolutionäre Spezialisierungen stärker an nur eine Hemisphäre gebunden sind“ und „die schnelle Zeitverarbeitung – durch Notwendigkeit zur Unterscheidung feinster akustischer Merkmale – bei der Sprache erst später entstanden ist“ (Altenmüller/Grossbach 2003, S. 38 f.).

2.2 Aufbau

Eine weitere Parallele der beiden kulturenübergreifenden Systeme, die deren gemeinsamen Ursprung untermauert, lässt sich in ihrem jeweiligen Aufbau finden. Beide Systeme bestehen aus einer bestimmten Anzahl an Bestandteilen, die zwar an sich begrenzt sind, deren Kombinationsmöglichkeiten aber uneingeschränkt sind. Was die Sprache betrifft, so bezeichnet man die kleinste Einheit diesen akustischen Phänomens als Phoneme, das Äquivalent in der Musik wären einzelne Töne. Kombiniert man diese Einheiten nun, gelangt man zu immer komplexeren Strukturen, die beispielweise folgendermaßen gegenüber gestellt werden können (s. Tab. 1):

Abbildung in dieser Leseprobe nicht enthalten

Tab.1: Einzelne Elemente der Kommunikationssysteme Musik und Sprache

Die Art der Kombinationsmöglichkeiten sowohl sprachlicher als auch musikalischer Elemente wird durch Regeln bestimmt, die je nach Kulturraum variieren können. In der Sprache sind dies phonologische (z. B. die Aussprache betreffende) und grammatikalische Regeln. Aber auch in der Musik kann man von Regelsystemen sprechen, betrachtet man beispielsweise die Zusammensetzung von Tonleitern, Akkorden etc. (vgl. Sallat 2009, S. 87).

2.3 Lernmechanismen

Vergleicht man Lernmechanismen in beiden Phänomenen zeigen sich auch hier Übereinstimmungen. Zum einen sind diese im statistischen, zum anderen im impliziten Lernen zu finden. Ersteres zeichnet sich dadurch aus, dass „häufig wiederkehrende Ereignisse zuerst beachtet und gelernt“ werden (Sallat 2009, S. 84). Implizites Lernen bedeutet die unbewusste Aneignung und Anwendung von Regeln, in diesem Fall grammatikalische und tonale Regeln. So lernen Kinder beispielsweise sprechen und singen, ohne zuvor etwas über solche Regeln gehört zu haben (vgl. ebd.).

2.4 Verarbeitungsprozesse im Gehirn

Laut Sebastian Jentschke und Stefan Koelsch existieren Überlegungen, „dass dem Erwerb von Wissen und dem Etablieren bestimmter Verarbeitungsprozesse bei der Wahrnehmung von Musik und Sprache ähnliche Mechanismen zu Grunde liegen“ (Jentschke/Koelsch 2010, S. 47). Ausgangspunkt hierfür ist erneut die Annahme, dass Sprache und Musik einen gemeinsamen Ursprung haben. Auch Sallat bemerkt hierzu, dass in den letzten Jahren „gemeinsame Verarbeitungszentren und vergleichbare Reaktionen für die Verarbeitung von Struktur (Grammatik) und Bedeutung (Semantik) in Musik und Sprache“ gefunden werden konnten (vgl. Sallat 2009, S. 87). Die Zahl diesbezüglicher Studien ist bisher jedoch gemäß Jentschke/Kolesch „vergleichbar gering“ (Jentschke/Koelsch 2010, S. 47). Aufgrund mangelnder Untersuchungen war man deshalb bislang auf Beschreibungen bestimmter Erkrankungen des Gehirns angewiesen, beispielsweise des Schlaganfalls, bei dem es zu Funktionsausfällen bestimmter Teile des Gehirns kommt. Geht die Fähigkeit Musik wahrzunehmen und/oder zu produzieren verloren, spricht man von Amusie (vgl. Spitzer 2002, S. 192 f.). Laut Altenmüller/Grossbach treten produktive Amusien „nahezu gleichhäufig nach links- und rechtshemisphärischen Schlaganfällen“ auf (Altenmüller/Grossbach 2003, S. 37). Das bedeutet, dass zumindest die Musikproduktion, wie das Singen, nicht an eine Hirnhemisphäre gebunden zu sein scheint (vgl. ebd.). Ob dies auch für die Musikwahrnehmung gilt ist hiermit allerding noch nicht bestätigt. Einen Hinweis darauf, dass auch die Sprache nicht gänzlich in einer Gehirnhälfte verarbeitet wird, findet man erneut mit Hilfe von Schlaganfallpatienten, die zum Teil nicht mehr sprechen, aber trotzdem noch singen können. Ging man bisher davon aus, dass Sprache verstärkt in der linken Gehirnhälfte verarbeitet wird, so wird hier deutlich, dass es offenbar auch in der rechten Hemisphäre des Gehirns Areale gibt, die Sprache verarbeiten können. Diese Tatsache macht man sich auch bei der Melodischen Intonationstherapie zunutze, die durch Musik eine Art Ersatz-Sprach-Netzwerk aufzubauen versucht, welches die Funktionen der zerstörten linken Gehirnhälfte übernehmen soll. Laut Kneser ist diese Therapie durchaus erfolgreich. Abgesehen davon, dass Patienten tatsächlich einen neuen Wortschatz aufbauen konnten, ist auf EEG-Aufnahmen eine stärkere Aktivierung der rechten Hirnhälfte (im Gegensatz zu vorher) festzustellen (vgl. Kneser 2008).

Sallat hebt die Existenz eines gemeinsamen Verarbeitungszentrums von Musik und Sprache während der vorsprachlichen Phase des Kindes hervor, so scheint Sprache in dieser Entwicklungsphase „für das Gehirn eher eine Art Musik zu sein“ (Koelsch/Siebel 2005 zit. nach Sallat 2009, S. 87). In diesem Alter spielen prosodischen Elemente – die „Musik der Sprache“ wenn man so will – eine große Rolle beim Spracherwerb.

Prosodische oder auch suprasegmentale Elemente der Sprache (vgl. Schwitalla 2006, S. 56) sollen in folgender Tabelle mit geläufigen musikalischen Parametern in Beziehung gesetzt werden, um diesbezügliche Parallelen aufzuzeigen (s. Tab. 2):

Abbildung in dieser Leseprobe nicht enthalten

Tab. 2: Musik der Sprache – Sprache der Musik

Es liegt die Vermutung nahe, dass die gezeigten Elemente bzw. Parameter aufgrund ihrer Ähnlichkeit auch in ähnlichen oder sogar gleichen Orten im Gehirn verarbeitet werden. Dazu schreiben Jentschke/Koelsch: „Suprasegmentale Merkmale der Sprache – ihre Prosodie – stellen so etwas wie die Musik der Sprache dar und werden wie Musik eher rechtshemisphärisch verarbeitet“ (vgl. Frederici & Alter 2004 zit. nach Jentschke/Koelsch 2010, S. 46).

Was die Verarbeitung von Musik angeht, so gibt es laut Manfred Spitzer kein Musikzentrum, d. h. es kann „ohne jegliche bewusste Anstrengung“ fast jeder „beim Hören von Musik die räumlich-zeitlichen Muster von an das Ohr dringender mechanischer Energie in Melodien, Harmonien und Rhythmen übersetzen“. Hierfür benutzt der Hörer „ein hohes Maß an gespeicherten Informationen über harmonisch schwingende Körper, Tonverhältnisse, Tonalität und wird zudem an frühere Erlebnisse erinnert sowie in eine bestimmte Stimmung versetzt“. Abgesehen davon, ergaben „neueste Studien zur Repräsentation von Musik im Gehirn“, dass „praktisch das gesamte Gehirn zur Musik beiträgt“ (Spitzer 2002, S. 212).

Es wird daher deutlich, dass bezüglich der Verarbeitungsmechanismen und -orte insbesondere von Musik und Sprache noch Forschungsbedarf besteht. Zwar spricht die Vielzahl an Gemeinsamkeiten und Parallelen neben einem gemeinsamen Ursprung beider Kommunikationssysteme auch für eine ähnliche Verarbeitung im Gehirn. Ausreichend empirisch erforscht, um eindeutige Aussagen machen zu können, wurde diese Tatsache – wie bereits erwähnt – jedoch noch nicht. So spielen sicherlich auch Umstände, in denen Musik/Sprache wahrgenommen wird (Rezeption, Musikausübung etc.) bzw. in welcher Kombination dies geschieht (Musik und Sprache – Lied, lediglich Musik oder Sprache, Musik/Sprache in Verbindung mit motorischen Elemente etc.) eine nicht zu unterschätzende Rolle. Tendenziell geht man bisher anscheinend davon aus, dass man der Verarbeitung von Musik eher kein spezielles Areal zuordnen kann, während die Sprache verstärkt rechthemisphärisch verarbeitet zu werden scheint.

3 Die Rolle der Musik beim Spracherwerb

3.1 Musik in der Sprache - Die Prosodie

Was für eine Rolle die im vorherigen Kapitel erwähnten prosodischen Elemente der Sprache beim Spracherwerb spielen, soll an dieser Stelle gezeigt werden.

Um erste Laute und Worte abstrahieren zu können, muss der Säugling auf eben solche Elemente achten. Zwar wird diese Fähigkeit als universelle Fähigkeit der Säuglinge angesehen, doch helfen Eltern und weitere umstehende Personen oft automatisch damit, dessen Prozess der Sprachentwicklung zu erleichtern. Sallat spricht von einer Überhöhung der Prosodie in der an das Kind gerichteten Sprache, für welche der Säugling sehr empfänglich ist. Man spricht zum Beispiel in einer höheren Stimmlage und verwendet ausgeprägtere Melodie- und Konturverläufe. Abgesehen davon werden Phrasengrenzen und Silbenlängen stärker hervorgehoben und die Tonhöhe öfter verändert als in der Normalsprache (vgl. Sallat 2009, S. 88). Olga Garnica weist der Prosodie neben der einfacheren Abstrahierung einzelner Satzelemente (Sätze, Satzteile, Wörter), welches für ein besseres Verstehen förderlich ist, eine weitere Funktion zu und zwar eine soziale. Durch die Prosodie der an das Kind gerichteten Sprache, wird es dazu gebracht „seine Aufmerksamkeit auf die Sprache zu lenken und zuzuhören“, womit die Kommunikation aufrecht erhalten wird (Garnica 1972 zit. nach Zaiser 2005).

[...]

Ende der Leseprobe aus 14 Seiten

Details

Titel
Zusammenhang und Interdisziplinarität von Musik und Sprache
Hochschule
Justus-Liebig-Universität Gießen  (Institut für Musikpädagogik)
Veranstaltung
Lernen mit Musik – Ästhetisierung und Erweiterung von Lernprozessen durch musikalische Elemente
Note
1,0
Autor
Jahr
2011
Seiten
14
Katalognummer
V171460
ISBN (eBook)
9783640910717
ISBN (Buch)
9783640909322
Dateigröße
463 KB
Sprache
Deutsch
Schlagworte
Musik, Sprache, Spracherwerb, Interdisziplinarität Musik und Sprache, Sprachförderung, Therapie, Musiktherapie
Arbeit zitieren
Sandra Wackenhut (Autor), 2011, Zusammenhang und Interdisziplinarität von Musik und Sprache, München, GRIN Verlag, https://www.grin.com/document/171460

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Zusammenhang und Interdisziplinarität von Musik und Sprache



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden