Ein semiotischer Vergleich von Musik und Sprache. Überlegungen zu Manfred Bierwischs gleichnamigem Aufsatz


Hausarbeit, 2012

14 Seiten, Note: 1


Gratis online lesen

Inhaltsverzeichnis

1. Einleitung

2. Die Ebenenproblematik beim Vergleich von rache und Musik

3. rache und Musik als akustische Kommunikationsform
3.1 Musik als nder-Empfänger-Modell
3.2 Der Charakter des Mitteilens und der Mitteilung
3.3 Der Verstehensbegriff in der Musik
3.4 Zeichensysteme

4. Musik als emotive ruktur

5. Codierungsformen

6. Proposition und Gestus

7. Zusammenfassung: rache und Musik als gen und Zeigen

8. Literaturverzeichnis

1. Einleitung

„Es wurde wieder einmal bewiesen, dass Musik die universelle Sprache ist, die alle Menschen erreicht.“1 Dieses Zitat stammt aus dem Programm eines internationalen Festivals für geistliche Musik und zeigt eine Auffassung, die so weitverbreitet wie problematisch ist, nämlich die Ansicht, dass Musik eine Art Sprache sei. Dies ist jedoch kein neuer Gedanke, sondern diese Vorstellung entstand bereits im 16. Jahrhundert mit der musikalisch-rhetorischen Figurenlehre, wonach Musik als Teil der Rhetorik behandelt wurde. Im 18. Jahrhundert vermutete der Philosoph Rousseau, dass Musik und Sprache die gleichen Wurzeln hätten. Etwa zur gleichen Zeit begann man auch von Musik als einer „Tonsprache“ oder einer „Sprache des Herzens“ zu sprechen, wobei damit freilich zunächst nur die Vokalmusik gemeint war. Die Redensweise von einer Musiksprache findet sich auch bei modernen Komponisten wie Strawinsky und Messiaen2. Auch der zeitgenössische Komponist Heinz- Werner Zimmermann spricht von Jazz als der „Musiksprache des 20. Jahrhunderts“.3

Es können außerdem weitere Behauptungen des obigen Zitats in Frage gestellt werden. So ist vom topos einer lingua universalis die Rede, die durch Musik verwirklicht werden könne. Das wesentliche Merkmal einer Universalsprache ist die weltweite Verständlichkeit. Ohne erst auf die Ethnomusikologie Bezug zu nehmen, kann die Anwendung des Verstehensbegriffs auf Musik generell angezweifelt werden.

Die Feststellung, dass Musik als Universalsprache „alle Menschen erreicht“ verweist auf einen von der Sprache beeinflussten Kommunikationsbegriff, der am Sender-Empfänger- Modell orientiert ist.

Obwohl man sich heute darüber einig ist, dass Musik nicht als Sprache betrachtet werden kann, werden immer wieder Vergleiche angestellt. Ein Beispiel dafür ist Manfred Bierwischs Aufsatz „Musik und Sprache“.

Überlegungen zu ihrer Struktur und Funktionsweise“4, stellt den grundlegenden Bezugspunkt folgender Arbeit dar, wobei sich die Kritik stark an Eckard Rochs Rezension5 orientiert. Zudem werden Forschungen von Kopiez6 und Behne7 berücksichtigt.

2. Die Ebenenproblematik beim Vergleich von Sprache und Musik

Bierwisch nennt am Anfang als Ziel seines analysierenden Vergleichs ein besseres Verständnis von „Sprache und Musik in ihrer Wirkungsweise und ihrem Aufbau“. Da er sich der Problematik des Vergleichs bewusst ist, verzichtet er auf die Verwendung sprachwissenschaftlicher Methoden für eine Analyse. Stattdessen sollen Musik und Sprache als Zeichensysteme erklärt werden. Als Einschränkung soll nur auf die deutsche Sprache und die europäische Musiktradition rekurriert werden, welche dadurch gerechtfertigt erscheint, dass einerseits die Funktionsprinzipien in jeder Sprache gleich sind. Andererseits scheint die europäische Kunstmusik für einen Vergleich ausreichend zu sein, da sie erstens einen ausreichenden Komplexitätsgrad besitzt und zweitens ohne besonderen Fokus auf die außermusikalischen Kontexte betrachtet werden kann, die sich bei funktionsgebundener Musik als Wechselwirkungen ergeben.

Während Zeichensysteme als Analysebasis zunächst durchaus erfolgversprechend klingen, ist die Beschränkung auf die europäische Musiktradition als Analyseintervall höchst unzureichend. Denn die Verwendung der deduktiven Methode implizert die Erklärung der Phänomene aus allgemeinen Funktionsprinzipien. Dies wäre in diesem Fall möglich, wenn in der Musik, wie in der Sprache, die allgemeinen Prinzipien bekannt wären und somit ein eingeschränktes Analyseintervall nur beispielhaftern Charakter besäße. In Bezug auf Musik herrscht darüber jedoch weitestgehende Unklarheit, was zur Folge hat, dass Musik meistens nur auf typische Funktionsmerkmale der Sprache hin untersucht wird, wodurch der Vergleich sofort einen heuristischen Beigeschmack erhält.

Ein zweiter Schwachpunkt der Ausgangslage Bierwischs ist die irrige Vorstellung Musik könne kontextfrei und losgelöst von historischen Veränderungen, also quasi absolut betrachtet werden. Oder, wie bei Roch (1982, S.164) zu lesen ist: „Die Vorstellung der Musik an sich ist vielmehr selbst historisches Produkt und als solches ideologisch determiniert.“ Daraus ergeben sich beispielsweise Schwierigkeiten bei der Beurteilung des historisch bedingten musikalischen Kommunikationsmodells, was später genauer zu erklären sein wird. Wie verschieden Musik und Sprache sind, wird auch an Bierwischs Beobachtungen zu den unterschiedlichen Ausprägungen der entsprechenden wissenschaftlichen Disziplinen deutlich. Der wichtigste Unterschied besteht dabei in einer Zweigliederung zwischen Sprache und Literatur, die Musik als singulärem Phänomen in einer Dreieckskonstellation gegenübersteht. Jeder dieser drei Teilbereiche besitzt einen historischen und systematischen Teil. Aus dieser Konstellation ergibt sich auch die Tatsache, dass Musik stets Kunst hervorbringt, also Gegenstand der Ästhetik ist, was bei Sprache nur einen Sonderfall darstellt. Es werden nun weitere Gründe für diese ungleiche Gliederung der beiden Gebiete angeführt. Während sowohl Musik als auch Sprache Prozesse organisieren können, kann nur Sprache Kunst erzeugen sowie über Kunst sprechen. Daraus folgt, dass die Mittel der Sprache deutlicher von ihren Inhalten ablösbar sind als in der Musik. Damit hängt auch zusammen, dass sich ein Sachverhalt in äquivalente Sprachen übersetzen lässt, was in der Musik auf keinen Fall möglich ist.

Streng genommen müsste nun ein Vergleich zwischen Musik und Sprache diese triadische Konstellation durch Hinzuziehung der Literatur berücksichtigen, wodurch sich eine problematische Asymmetrie ergäbe. Bei Bierwisch wird jedoch der systematische Teil der Musikwissenschaft, die insgesamt zum ästhetischen Bereich zählt, dem nicht-ästhetischen, systematischen Teil der Sprachwissenschaft gegenübergestellt. Somit wird der Kunstcharakter der Musik meistens vernachlässigt. Die Gegenstände des Vergleichs befinden sich auf unterschiedlichen Ebenen und eine theoretische Verschiebung bleibt unausweichlich. Einwände lassen sich auch gegen die scheinbare Übersetzbarkeit der Sprache vorbringen. Dass Musik nicht übersetzt werden kann, ist klar, doch auch die Ablösbarkeit der Sprache von ihren Mitteln ist nicht so vollständig möglich, als dass eine identische Übersetzung zustande käme und äquivalente Sprachen existierten.

3. Sprache und Musik als akustische Kommunikationsformen

3.1 Musik als Sender-Empfänger-Modell

Nachdem nun die grundlegenden Unterschiede von Musik und Sprache thematisiert worden sind, wird, ohne jedoch die nötigen Konsequenzen zu ziehen, die für einen Vergleich nötige Gemeinsamkeit in der Vermittlung von akustischen Kommunikationsprozessen gefunden. Diese werden als Zeichensysteme untersucht. Gemeinsamkeiten ergeben sich darin, dass Musik und Sprache gleichermaßen zeitlich organisiert sind wie auch für die Beziehung zu motorischen Prozessen und emotionalen Zuständen charakteristisch ist. Kommunikation wird dabei grundsätzlich durch das Kriterium der Mitteilung definiert. Obwohl dies jedoch nur eingeschränkte Gültigkeit hat, wird auf dieser Grundlage das Sender-Empfänger-Modell analysiert. Dies stellt dabei stets die letzte Phase eines Kommunikationsprozesses dar. Während Sender auch als Kollektiv funktionieren, sind Empfänger nur singulär denkbar.

Die entscheidende Schwäche dieses Ansatzes ist von Bierwisch bereits erkannt worden: Die Reduzierung des musikalischen Kommunikationsbegriffs auf das Kriterium der Mitteilung greift zu kurz. Dieser Ansatz wäre nur für Formen nützlich, wo sich Musik mit anderen Künsten verbindet, beispielsweise im Musiktheater. Alternativ könnte hier nach Kaden ein Kommunikationsbegriff der „Verhaltensabstimmung“8 eingeführt werden. An dieser Stelle wird auch deutlich, dass Musik nicht absolut ist und nicht frei von historischen Prozessen analysiert werden kann. Ein Beispiel liefert die metaphysische Musikauffassung der Frühromantik. Hier galt Musik als Inbegriff der Kunst überhaupt. Kommunikation findet über das transzendierte Medium Musik statt und lässt damit für Bierwischs Vorstellung von Sender und Mitteilung gar keinen Raum.

3.2 Der Charakter des Mitteilens und der Mitteilung

Zunächst werden zahlreiche Bedingungen vorgebracht, die für das Zustandekommen von Kommunikation notwendig sind. Dies sind zum Beispiel bewusste Wahrnehmung des Signals durch den Hörer und intendierte Zeichenwirkung durch den Sender. Sodann wird die Art des

Signals genauer definiert, indem zwischen einer extrakommunikativen Wirkung Wn und einer Wirkung Wk, die durch Interpretation zustande kommt unterschieden wird. Dies wird wieder mit der These, dass musikalische Mitteilung weniger von ihren Mitteln lösbar ist, verknüpft, indem festgestellt wird, dass in der Musik Wn durch Wk motiviert wird. Eine Folge davon ist die Unterscheidung von Zeichenbedeutung und Mitteilung. In der Sprache kommt diese Differenz zum Beispiel bei Metaphern oder deiktischen Elementen wie dort oder damals vor.

Bierwischs Kommunikationsansatz bietet wieder den Nachteil, dass er zu eng gefasst ist. Mit Watzlawicks „Man kann nicht nicht kommunizieren“ argumentiert, fallen sämtliche Bedingungen für das Zustandekommen von Kommunikation weg. Auch die extrakommunikative Wirkung eines Zeichens müsste dann anders benannt werden.

3.3 Der Verstehensbegriff in der Musik

Die Aufspaltung des Zeichenbegriffs bleibt auch für den Verstehensbegriff nicht ohne Folgen. So ist für das Verstehen eines Sachverhalts sowohl das Verständnis der Zeichen, als auch das Erfassen der Mitteilung nötig. In der Sprache gibt es dafür das Beispiel eines Satzes in einer fremden Sprache (Zeichen), der einem Satz in einer verständlichen Sprache gegenübersteht, dessen Inhalt (Mitteilung) nicht verstanden wird. In der Musik bedeutet „ich verstehe diese Musik nicht“ immer nur „ich weiß nicht, was sie vermitteln soll“.

An einer anderen Stelle wird behauptet, dass Lernprozesse in der Musik für ein Verständnis nicht so wichtig seien wie in der Sprache. Als Beispiel wird die Aussage aufgestellt, dass man beim Hören von exotischer Musik mehr verstehe als beim Hören einer fremden Sprache.

Es ist generell legitim die Anwendung des Verstehensbegriffs auf die Musik zu bezweifeln. In der Musikästhetik wird der Zweck von Musik daher eher als Ohrenkitzel verstanden und auf die primär emotionale Bedeutung verwiesen (Kopiez, S.51). Auch der Musikwissenschaftler Tibor Kneif plädiert hier für eine Ersetzung des Begriffs durch „staunendes Hinhorchen“ (Kneif 1973, S. 163).

Eine andere Auffassung wird von Seiten der Psychologie vertreten, die den kognitiven Anteil und die Leistung des Gehirns beim Musikhören herausstellt. Es gibt demnach durchaus Kriterien für ein adäquates Erfassen von Musik. Kopiez hält hier den Begriff der „Expektanz“ für ein Musikverstehen für entscheidend (Kopiez 1996, S. 52). Wer die durch statistisches

Lernen erworbenen Strukturprinzipien klassischer Musik nicht kennt, weil er diese Musik selten hört, kann beispielsweise bewusste Abweichungen vom 8-taktigen Schema oder der Kadenz nicht als solche erkennen.

Es ist jedoch klar, dass Verstehen in der Musik etwas anderes bedeutet wie in der Sprache. Wie nämlich von Behne (1982, S. 130) festegestellt wurde, findet beim Prozess des Musikhörens eine „als-ob-Kommunikation“ statt. Musik kann im eigentlichen Sinne nichts mitteilen, es sei denn, aufgrund ihres selbstreferenziellen Charakters (Faltin, 1972). Statt einer Mitteilung wird von Musik häufig ein Ausdrucksgehalt transportiert. Doch der „Ausdrucksgehalt von Musik ist lediglich ein Angebot an den Hörer, diesen zu Verstehen und bei entsprechender Einstellung auch darauf zu reagieren“ (Behne, 1982).

Auch Bierwischs Verstehensbegriff ist kritisierbar. Die Aussage „ich verstehe diese Musik nicht“ meint eine unverstandene musikalische Mitteilung nur in dem Fall, dass der Hörer in der entsprechenden Musik nicht genug bewandert ist, um sich zurecht zu finden. Wenn aber von einem Kenner ausgegangen wird, bedeutet ein Nichtverstehen wohl eher ein ästhetisches Urteil im Sinne von „gefällt mir nicht“, wobei dann der Kunstcharakter von Musik wieder miteinbezogen werden müsste.

Bierwisch ist bei seiner Behauptung, dass man beim Erstkontakt mit einer fremden Musik mehr verstehe als bei der ersten Begegnung mit einer fremden Sprache, einem allgemeinen Irrtum aufgesessen, den Kopiez (1996) beschrieben hat. Demnach sei für ein Verständnis einer fremden Musik die Kenntnis von deren Funktionsprinzipien oder Grammatik wichtig. Ansonsten geschehe leicht ein Vorgang, den man als „Zurechthören“ bezeichnen könnte und der die Illusion einer Vertrautheit erzeuge. So sei Musik oft einer Sprache ähnlich, bei der den meisten verborgen bleibe, dass es eine Fremdsprache sei.

3.4 Zeichensysteme

Da Zeichenbedeutungen auf Konvention beruhen, setzt die Kommunikation einen gemeinsamen Zeichenvorrat von Sender und Empfänger voraus. Diese These ist in der Forschung schon länger bekannt und wird nun von Bierwisch falsifiziert. Dazu wird zunächst die Unterscheidung zwischen Bedeutung B und Form F eines Zeichens eingeführt. Zeichen stehen jedoch nicht einzeln, sondern sind in Zeichensystemen organisiert. Die wesentlichen Elemente dieses Systems sind der Bedeutungsbereich B* und der Formbereich F*, deren entsprechende Zuordnung das Wesensmerkmal eines Zeichensystems ausmacht. Die Art von Zuordnung, in der ein Element ein anderes Element abbildet wird als Code bezeichnet. Im

Gegensatz zu einfacheren Codes, wo es eine abgeschlossene Liste von Zeichen gibt, existiert diese in komplexeren Codes wie Sprache und Musik nicht. Stattdessen finden sich Systeme zur Zeichenbildung.

Wie diese Zeichenbildungssysteme funktionieren, lässt sich am besten an einer genaueren Bestimmung von F* und B* zeigen. Der Formbereich besteht für Sprache und Musik aus gegliederten Lautmustern. Der entscheidende Unterschied besteht nun im Bedeutungsbereich. Während dieser in der Sprache aus Strukturen besteht, die vom Gehirn aus der Realität abstrahiert wurden, sind in der Musik Form und Bedeutung isomorph.

Bei diesem Ansatz besteht berechtigter Zweifel, ob in der Musik generell von echten Zeiche n ausgegangen werden kann, was in der jüngeren Musikpsychologie bereits verneint wurde. Wenn die Bedeutung nicht über die Form hinausweist, hat das Zeichen keine wirkliche Bedeutung, wenn die Bedeutung aber in der Form repräsentiert ist, verliert das Zeichen seinen dualen Charakter. Die Elemente der Musik lassen sich eher als „uneindeutige“ Zeichen beschreiben (Behne, 1982). Auch die Systeme zur Zeichenbildung sind nicht eindeutig: Wer sie streng befolgt schreibt keine wirklich ansprechende Musik.

4. Musik als emotive Struktur

Die anthropogenetischen Ursprünge von Sprache und Musik werden näher beleuchtet. Diese liegen gleichermaßen in der vormenschlichen Lautgebung, die Ausdruck innerer Zustände war und der Verhaltensabstimmung diente. Beide Systeme wurden nun von ihrer strikten Bindung an feste Bedürfnisstrukturen entkoppelt und situationsunabhängig. Es kam zur Ausbildung von Strukturen, die sich gegenseitig ergänzten.

Die Kategorie der Sachverhalte wird dabei kognitiv strukturiert und sprachlich codiert. Doch auch Sprache bleibt von motivationalen Zusammenhängen geprägt, wobei Bedürfnisse auslösende und Emotionen begleitende Funktionen haben.

Demgegenüber steht Musik, die keine kognitiven Zusammenhänge codiert, sondern emotive Strukturen mit Lautmustern verbindet. Es wird dabei ein komplexer Bereich interner Zustände beschrieben, der zwar sprachlich beschrieben, jedoch nicht in ähnlicher Weise erfasst werden kann.

Dennoch greift die Redeweise „Sprache teilt Gedanken mit, Musik vermittelt Gefühle“ zu kurz. Der Charakter der musikalischen und sprachlichen Codes wird nun etwas genauer erklärt. Die Systeme zur Zeichenbildung sind bei beiden Phänomenen vorhanden, doch während diese für eine Einzelsprache durch eine jeweilige Grammatik beschrieben werden, gibt es einen entsprechenden Begriff in der Musik nicht. Der Erwerb dieser Systeme findet sowohl auf phylogenetischem Wege statt, als auch durch einen individuellen und kulturell unterschiedlichen Lernprozess. Das Ziel der Linguistik ist nun die Beschreibung der Strukturprinzipien, die für alle Sprachen gelten. Daraus ergibt sich ein dreigliedriges System: Die Universalien sind die Grundlage für die einzelsprachlichen Grammatiken, die ontogenetisch erworben werden, die wiederum Voraussetzung für die Einzelsprachen in ihrer konkreten Äußerung sind. Die Vermutung liegt nahe, dass analog dazu eine dreiteilige Struktur in der Musik existiert. Phylogenetisch erworbene musikalische Universalien bedingen die ontogenetisch zu erwerbenden musikalischen Codes, durch welche schließlich musikalische Gebilde entstehen können.

In dieselbe Richtung weist der Versuch Leonhard Bernsteins (1981), Chomskys Sprachtheorie auf die Musik anzuwenden. Dieser stellte fest, dass ein angeborenes, universelles Sprachvermögen sich unter Anderem darin zeige, dass Kinder ihre Muttersprache lernten und in der Lage seien, einen Ausgangssatz zu transformieren. Dass man nicht von einer musikalischen Grammatik sprechen kann, zeigt sich unter anderem darin, dass es in der Musik möglich ist, Abschnitte umzustellen ohne damit den Sinn zu verändern. Die Fähigkeit eine Grundstruktur zu transformieren, sah Bernstein jedoch auch in der Musik als Schaffensprinzip an, das in der Kompositionstechnik der entwickelnden Variation von Brahms realisiert worden sei.

5. Codierungsformen

Sprache und Musik werden nun unter dem Aspekt ihrer unterschiedlichen Codierungsart untersucht. Generell kann zwischen motivierter und arbiträrer Codierung unterschieden werden. Während unmotivierte Zeichen abstrakt sind, muss für motivierte Zeichen eine Korrespondenz zwischen Form und Bedeutung vorhanden sein. Je nach Art dieser Korrespondenz wird dabei nach Peirce (1932) noch zwischen indexikalisch und ikonisch unterschieden. Dies entspricht kausal motivierter und strukturell motivierter Codierung. Des weiteren können motivierte Zeichen analog codiert sein. Dabei müssen Form und Bedeutung in proportionaler Beziehung zueinander stehen. Analogcodierung ist also eine Sonderform der motivierten Codierung und kann diskret oder kontinuierlich organisiert sein. Angewandt ergeben diese Unterscheidungen, dass Sprachen arbiträre Zeichensysteme sind, da ihre Grundzeichen rein willkürlich festgelegt sind.

Musik entspricht dagegen dem Prinzip der Analogcodierung. Dabei stehen Form und Bedeutung teils in indexikalischem, teils in ikonischem Verhältnis zueinander. Bei diesen Ausführungen Bierwischs stellt sich nun die Frage, wie sinnvoll sie überhaupt sind und ob sie nicht Vorhergehendem widersprechen. Die Unterscheidung zwischen indexikalisch und ikonischer Codierung wird nämlich erst als Decodierungsstrategie bedeutsam. Dem entspricht das Paradox der Decodierung ohne Codierung, als das man musikalische Kommunikation auch bezeichnen könnte. Dabei ist die Dekodierung an sich kaum verbindlich festgelegt. Kaden (1976) sieht darin „spielerische Steigerung der individuellen Potenz beim Suchen und Sich-Ausprobieren“. Dieser scheinbare Mangel wird zum Wesensmerkmal, da Form und Bedeutung keinen festgelegten Gebrauch haben.

6. Proposition und Gestus

Die Unterscheidung von Sprache und Musik als Vermittler von kognitiven und emotiven Strukturen kann noch weiter ausdifferenziert werden.

Zunächst kann daher Sprache als Vermittler von Propositionen bezeichnet werden. Alle Eindrücke aus der Umwelt werden vom Gehirn als kognitive Prozesse erfasst. Die nächste Verarbeitungsstufe oder Ebene dieser kognitiven Erfassung stellt nun die begriffliche Repräsentation dar. Dies ist das Feld logischer Zusammenhänge und Operationen, wo auf gedanklichem Weg Erkenntnisse gewonnen werden können. Hier werden Sachverhalte erkannt. Eine Ebene weiter wird den begrifflichen Strukturen durch sprachliche Codierung eine zweite Repräsentation zugeordnet. Propositionen bilden dabei Sachverhalte ab und repräsentieren Sachverhalte als logische Form, die selbst dimensionslos ist und mit dem Sachverhalt nur die logische Struktur gemeinsam hat. Die begriffliche Ebene ist damit die logische Form sprachlicher Zeichen. So wird die Sprache zur „unmittelbaren Wirklichkeit des Gedankens“. Die Codierung ist dabei arbiträr motiviert.

Analog zur Charakterisierung der logischen Form für kognitive Prozesse und als Bedeutung sprachlicher Zeichen soll nun die gestische Form für emotive Prozesse als Bedeutung musikalischer Zeichen dargestellt werden.

Dies ist jedoch nur ein scheinbar getrennter Bereich, da Emotion und Kognition meist verschränkt auftreten. So benötigen kognitive Leistungen Motivation und werden von Emotionen begleitet, während Emotionen kognitiv strukturierte Anlässe und Motivationen begrifflich fassbare Ziele haben.

In der Musik codiert die Form eines musikalischen Zeichens einen Gestus, der die Struktur eines emotionalen Musters ist. Ein Gestus ist damit gleichzeitig Struktur und Sinn eines emotionalen Musters. Während für Propositionen die Dimension der Logik gilt, ist für Gesten die zeitliche Struktur prägend. Dies ist auch der triftigste Grund, um von Analogcodierung sprechen zu können. Die zeitliche Struktur des Gestus wird dabei von organischen Prozessen organisiert und dabei auf indexikalische Art von emotionalen Mustern motiviert.

Die gedankliche Assoziation zu Musik ist weder genau festgelegt, noch völlig frei wählbar. Damit entspricht einer musikalischen Gestalt nicht ein einzelnes, sondern eine Klasse von kognitiven Korrelaten.

Zusammenfassend gilt: „Die Form eines musikalischen Zeichens codiert einen Gestus, der die Struktur eines emotionalen Musters ist, zu dem wiederum ein variabler, aber nicht beliebiger Erfahrungsinhalt gehört.“

Zunächst hat die Unterscheidung von sprachlicher und gestischer Codierung den Nachteil, dass diese als arbiträre und indexikalische oder causale und strukturell motivierte Codierung erst als Decodierungsstrategien relevant werden. Zudem folgt aus der Prämisse, dass die Bedeutung eines musikalischen Zeichens in seiner Form liegt der Schluss, dass gar keine echte Codierung vorliegt.

Dadurch, dass Assoziationen zu Musik frei wählbar sind, ist eine eindeutige Dekodierungsregel nicht gegeben. Damit entsteht die Möglichkeit, dass musikalische Zeichen mehr bedeuten als codiert wurde.

Zudem funktioniert die Charakterisierung als causalmotiviert contra strukturellmotiviert nicht ganz. So muss eine Zuordnung sowohl in Sprache, als auch Musik gelernt werden.

7. Zusammenfassung: Sprache und Musik als Sagen und Zeigen

Mit Sprache kann etwas gesagt werden, was als Proposition, als Sachverhalt existiert. Durch „Sagen“ werden sprachliche Zeichen geäußert, deren Bedeutung eine Proposition ist. Demgegenüber kann mit Musik nichts gesagt, sondern gezeigt werden. Dabei ist weniger das Zeigen als Ostentation als das pantomimische Prinzip des Zeigens gemeint. Dies muss jedoch nicht zwangsläufig optisch definiert sein, sondern kann auch durch akustische Zeigehandlungen funktionieren. Musikalische Zeichen „bedeuten“ so eine gestische Form, die emotionale Muster darstellt.

Dabei muss sowohl Sprache, als auch Musik gelernt werden, wodurch sich eine partielle Konventionalisierung des Zeigens ergibt. Umgekehrt ist auch Sprache nicht rein arbiträr kodiert, sondern unterliegt in ihrer Basis genauso einem „Sachzwang“, einer zeigenden Basis. Dass Sprache nicht mehr „kann“ als Musik, ist klar und so lassen sich Gesten zwar beschreiben, aber nicht darstellen, was ungefähr mit dem Unterschied zwischen einem Bild und einer Beschreibung des Bildes vergleichbar ist.

Während Sprache mehr logische Anteile hat, besitzt Musik mehr sinnliche Vergegenwärtigung. Musik erzeugt auch immer Kunst, ist stilisiertes Gefühl, während durch Sprache nicht notwendigerweise Kunst entsteht.

Musik und Sprache erweisen sich damit als zwei grundsätzlich unterschiedliche Phänomene, die - mögen sie nun die gleichen Wurzeln haben oder nicht - allzu oft leichtfertig aufeinander bezogen werden. Mit „Sagen“ und „Zeigen“ werden daher sprachliche und musikalische Zeichen in durchaus sinnvoller Weise charakterisiert und brauchbar gemacht.

8. Literatur

Behne, Klaus-Ernst (1982) Musik - Kommunikation oder Geste? In: Musikpädagogische Forschung, Band 3, Laaber.

Bierwisch, Manfred (1979) Musik und Sprache. Überlegungen zu ihrer Struktur und

Funktionsweise, in: E. Klemm (ed.), Jahrbuch der Musikbibliothek, Peters 1978. Aufsätze zur Musik. Leipzig: Peters.

Kaden, Christian (1981) Vorwort zu einer Semiotik der Musik. In: Harry Goldschmidt/Georg Knepler (Hrsg.) Musikästhetik in der Diskussion. Leipzig.

Kopiez, Reinhard (2004) Der Mythos von Musik als universell verständliche Sprache. In: Bullerjahn, Claudia und Löffler, Wolfgang (Hrsg.) Musikermythen.

International choral events at Marktoberdorf.

Germany.http://www.modfestivals.org/presse_de.php?id=6751 (letzter Zugriff am 07.09.2012)

Zimmermann, Heinz Werner (2008) über seine Werke und die Beeinflussung durch den Jazz In: Einführung von Prof. Dr. Heinz Werner Zimmermann anlässlich eines Konzertes des Regensburger Chorensembles Cantabile unter Leitung von Matthias Beckert im „Studio für Neue Musik“ der Hochschule für Musik Würzburg.

http://www.vdkc.de/cms/index.php/service/beitraege-aus-der-chorszene/171-heinz-werner- zimmermann-über-seine-werke-und-die-beeinflussung-durch-den-jazz (letzter Zugriff am 07.09.2012)

[...]


1 http://www.modfestivals.org/presse_de.php?id=6751, 10.03.2011

2 vgl. ebd.

3 http://www.vdkc.de/cms/index.php/service/beitraege-aus-der-chorszene/171-heinz-werner-zimmermann-über- seine-werke-und-die-beeinflussung-durch-den-jazz, 29.03.2011.

4 Bierwisch, Manfred (1979): Musik und Sprache: Überlegungen zu ihrer Struktur und Funktionsweise. In: E. Klemm (ed.), Jahrbuch der Musikbibliothek, Peters 1978: Ausätze zur Musik, S. 9-102. Leipzig: Peters.

5 Roch, Eckhard. Kritische Bemerkungen zu „Musik und Sprache“, in: Weimarer Beiträge, Heft 1, 1982.

6 gl. Reinhard Kopiez, Der Mythos von Musik als universell verständliche Sprache, in: Musikermythen, hrsg. von Claudia Bullerjahn und Wolfgang Löffler, 2004.

7 Klaus-Ernst Behne, Musik - Kommunikation oder Geste?, in: Musikpädagogische Forschung, Band 3, Laaber 1982.

8 Kaden nennt neben „Verhaltensabstimmung“ noch weitere Kommunikationsfunktionen für Musik: ästhetische Definition des Weltverhältnisses, Verschlüsselung und Austausch von Nachrichten mittels Zeichen, Regulation menschlicher Interaktion.

vgl. Kaden, Christian. Vorwort zu einer Semiotik der Musik. In: Musikästhetik in der Diskussion. Leipzig. Zit. n. Roch, Eckhard, 1982.

14 von 14 Seiten

Details

Titel
Ein semiotischer Vergleich von Musik und Sprache. Überlegungen zu Manfred Bierwischs gleichnamigem Aufsatz
Hochschule
Bayerische Julius-Maximilians-Universität Würzburg
Note
1
Autor
Jahr
2012
Seiten
14
Katalognummer
V341557
ISBN (Buch)
9783668314924
Dateigröße
439 KB
Sprache
Deutsch
Schlagworte
Semiotik, Musik und Sprache
Arbeit zitieren
Philip Henri Unterreiner (Autor), 2012, Ein semiotischer Vergleich von Musik und Sprache. Überlegungen zu Manfred Bierwischs gleichnamigem Aufsatz, München, GRIN Verlag, https://www.grin.com/document/341557

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Ein semiotischer Vergleich von Musik und Sprache. Überlegungen zu Manfred Bierwischs gleichnamigem Aufsatz



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden