La musicalité des langues


Mémoire (de fin d'études), 2001

162 Pages, Note: Sehr gut


Extrait


Table of Contents

1 INTRODUCTION
1.1 LA LANGUE ET LA MUSIQUE EN COMPARAISON
1.2 LA DISTRIBUTION DES CONSONNES ET DES VOYELLES ET LEUR IMPORTANCE POUR LA MÉLODIE DE LA LANGUE

2 MESURAGE PHYSIQUE DE L’INTONATION
2.1 LES GRANDEURS ARTICULATOIRES MESURABLES
2.2 LES GRANDEURS ACOUSTIQUES MESURABLES
2.3 LES GRANDEURS PERCEPTIVES MESURABLES
2.4 LES INSTRUMENTS DE LA PHONÉTIQUE ACOUSTIQUE

3 COMMENT LIRE LES SONAGRAMMES?
3.1 LES VOYELLES ET LES FORMANTS
3.2 LA DÉLIMITATION DES VOYELLES DES CONSONNES
3.3 LES DIPHTHONGUES
3.4 LES VOYELLES AVEC DES GLOTTAL STOPS
3.5 LES PLOSIVES
3.6 LA DIFFÉRENTIATION ENTRE LES PLOSIFS SONORES, SOURDES ET DÉSACCORDÉS
3.7 LE DESSERREMENT VÉLAIRE ET LATÉRALE DE LA FERMETURE
3.8 LE GLOTTAL-STOP ET LA GLOTTALISATION
3.9 LES NASALES
3.10 LA NASALISATION
3.11 LES LATÉRALES
3.12 LES LATÉRALES DANS DES CONTEXTES DIFFÉRENTS
3.13 LES TRILLS
3.14 LES FRICATIVES
3.15 LES AFFRICATES

4 LA MUSIQUE DANS LE SONAGRAMM
4.1 LES REPRÉSENTATIONS GRAPHIQUES EXISTANTES
4.1.1 LA REPRÉSENTATION GRAPHIQUE UTILISÉE PAR LES MUSICIENS: LA PARTITION
4.1.2 LA REPRÉSENTATION PHYSIQUE DU SON: LA REPRÉSENTATION SONOGRAPHIQUE
4.2 CARACTÉRISATION DES SONS ET DE LA MUSIQUE
4.3 CHOIX D’UN MODE DE REPRÉSENTATION
4.4 LE TON MUSICAL ET SA PERCEPTION
4.5 L’INTERFÉRENCE, LE COUP ET LA RUDESSE
4.6 LE „MASKING“
4.7 LES BANDES CRITIQUES
4.8 LE PITCH
4.9 TRAN QUANG HAI, OU LE CHANT ETHNIQUE AUX SONS HARMONIQUES
4.10 COMMENT DÉFINIR L’HARMONIE DANS LE SONAGRAMM?

5 LE FRANÇAIS
5.1 LES CARACTÉRISTIQUES PHONÉTIQUES DU FRANÇAIS
5.2 LE SYSTÈME PHONÉTIQUE DU FRANÇAIS
5.2.1 LES VOYELLES FRANÇAISES
5.2.2 LES CONSONNES FRANÇAISES
5.3 LA PRONONCIATION FRANÇAISE DANS LA MUSIQUE
5.4 L’INTONATION FRANÇAISE
5.4.1 LES CARACTÉRISTIQUES GÉNÉRALES PROSODIQUES:L’ACCENTUATION ET LE RHYTME
5.4.2 LES UNITÉS PROSODIQUES EN FRANÇAIS
5.4.3 LA DÉSCRIPTION DES MODÈLES DE L’INTONATION
5.4.4 LES AUTRES MODALITÉS: IMPÉRATIVE ET VOCATIVE
5.4.5 LA FOCALISATION ET LES EFFETS CONTEXTUELS
5.4.6 LA PHRASÉOLOGIE ET L’ORGANISATION TEXTUELLE
5.4.7 QUELQUES AUTRES MODÈLES: LES CLICHÉS D’INTONATION
5.5 LE CARACTÈRE MÉLODIQUE DU FRANÇAIS

6 LES DIFFÉRENTES FAMILLES DE LANGUE EN COMPARAISON
6.1 LES LANGUES ROMANES
6.1.1 LES CARACTÉRISTIQUES LINGUISTIQUES DES LANGUES ROMANES
6.1.2 LES VOYELLES DES LANGUES ROMANES
6.1.3 LES CONSONNES DES LANGUES ROMANES
6.2 LES LANGUES GERMANIQUES: L’ALLEMAND
6.2.1 LES VOYELLES ALLEMANDES
6.2.2 LES CONSONNES ALLEMANDES
6.3 LES LANGUES SLAVES: LE RUSSE
6.3.1 LES VOYELLES RUSSES
6.3.2 LES CONSONNES RUSSES
6.4 LES LANGUES FINNO-OUGRIENNES: LE HONGROIS
6.4.1 LES VOYELLES HONGROISES
6.4.2 LES CONSONNES HONGROISES

7 CONCLUSION

8 BIBLIOGRAPHIE

9 INDEX

REGISTRE DES ILLUSTRATIONS

illustration not visible in this excerpt

1 INTRODUCTION

Sans aucun doute, il existe quelques corrélations et cohérences entre la musique et les langues. L’adaptation musicale par exemple est une forme d’union des substances linguistiques et musicales. Comme résultat, on obtient l’acte vocal, la structure linguistique musicale.

Selon une ancienne tradition antique, il y a une liaison entre la musique et la langue, sur le plan esthétique. Cependant, tandis que la langue peut se débarrasser de l’esthétique – pensons au jargon administratif ou à la langue produite par des automates, la musique demande toujours une base esthétique. Néanmoins, il existe quelques caractéristiques que la musique et la langue ont en commun: la répétition, même si elle est marquée d’une façon plus intensive dans la musique que dans la langue. La seconde caractéristique est celle de l’opposition. Dans la linguistique on utilise l’opposition pour marquer des contrastes, des éléments linguistiques sont mis en opposition et s’excluent mutuellement. Par contre, des oppositions comme haut et bas ou tendu et détendu peuvent être mises au même niveau, contribuant ainsi à l’image esthétique de l’œuvre [30].

On pourrait continuer l’énumération des points communs, mais cette thèse est consacrée à la musicalité des langues.

L’intonation est souvent appelée aussi “mélodie” ou “musique” de la langue et on a souvent essayé de la transcrire avec des notes [12], même si cette analogie n’est pas particulièrement appropriée. D’un côté, contrairement à la langue la musique est faite par une reproduction répétée, de l’autre côté les tons de la musique occidentale moderne ont des valeurs tonales absolues, tandis que les tons de la langue sont relatifs.

Par conséquence, les notes marquent des fréquences fixes (par exemple 264 HZ pour le c’) et des instruments se laissent accorder d’une telle façon qu’ils résonnent harmonieusement. Cela se comporte autrement dans la langue. Des hommes, des femmes et des enfants produisent des tons pour les mêmes buts linguistiques (constatation, question, etc...) aux fréquences plus différentes. Le même locuteur peut varier la hauteur tonale sans changer le sens du message. Par conséquent, ni

des variations biologiques ou accidentelles ne compromettent la langue. Les hauteurs tonales de l’intonation sont relatives, pas absolues, car les êtres humains ne sont pas des instruments de musique.

Tout de même, les points communs de la langue et la musique sont incontestés et ils ont abouti aux développements fructueux dans tous les deux domaines. Quelques linguistes ont repris des idées et concepts de la musique pour en décrire des effets suprasegmentaux, des scientifiques de la musique se sont aussi servis des études suprasegmentales pour tirer des conclusions sur l’étendue, le volume et les qualités de la voix [77].

La phonétique n’offre pas une terminologie propre ni pour les variations nombreuses de la hauteur tonale, ni pour la puissance vocale ni pour le rythme de parler dans le discours cohérent. Dans le cadre d’une série de recherches on a répertorié des termes justes dans la musique et proposé des catégories analogues pour l’analyse des effets suprasegmentaux dans les phrases cohérentes parlées:

- Piano/pianissimo: au volume bas
- Forte/fortissimo: au volume augmenté
- Diminuendo: au volume graduellement décroissant
- Crescendo: au volume graduellement croissant
- Allegro/allegrissimo: à vitesse augmentée
- Lento/lentissimo: à vitesse diminuée
- Accelerando: à vitesse graduellement augmentée
- Rallentando: à vitesse graduellement décroissante

L’acte de parler est une structure de communiquer, c’est-à-dire, la réalisation articulatoire des messages présentés ou écrits. Le cours mélodique et rythmique de l’acte de parler est appelé l’intonation, son équivalent musical ou vocal est la déclamation. Une énumération plus détaillée des concepts sera faite dans les chapitres correspondants. Un fait est que beaucoup de travail scientifique a été porté sur le rapport entre la langue et la musique [27].

1.1 L A LANGUE ET LA MUSIQUE EN COMPARAISON

Avant que les liaisons entre l’intonation et la déclamation puissent être élucidées, il faut décrire la nature et la substance de tous le deux média. Pour faire ça, il faut comparer les matières de la musique et de la langue au niveau de leur fonction et leur substance. On considère les éléments comme la mélodie, l’harmonie et le rythme et les matières, mais aussi la métrique qui joue seulement le rôle de fonction. Le tempo, la dynamique, l’articulation, la phraséologie, l’agogique et le timbre sont cités comme les composants.

Tous les deux média se déroulent dans le temps, leurs éléments sont viables et efficaces seulement par rapport au temps.

En ce qui concerne la fonction des matières, la langue met en rapport des symboles de sons qui sont déchiffrables en termes lexicaux, tandis que la musique ordonne des cellules énergétiques au sens des critères formelles-esthétiques [30].

Le son est un phénomène vibratoire qui, pour être véhiculé, a besoin d’un support matériel. C’est ainsi que les vibrations sonores se déplacent dans un milieu élastique, l’air, l’eau, les murs, ou toute autre substance apte à les transporter. Ce déplacement s’effectue par vagues ou ondes sonores: plus la matière qu’il traverse est dense, plus sa vitesse augmente. Il y a une autre particularité des ondes sonores: elles font vibrer les substances ou les éléments qui leur servent de support. Les sons se caractérisent par l’harmonie, la fréquence, la durée, le rythme et les intervalles. On sait aujourd’hui que les sons des mots et des lettres, ou ceux de la musique ont des propriétés physiques différentes dues à des taux et des fréquences différentes de vibrations. Ainsi, certains sons vocaliques, quoique de faible fréquence, dégagent une énergie importante que l’ouïe peut aisément percevoir; c’est le cas par exemple de a, o, e et i. Par contre les consonnes, malgré des fréquences plus élevées, possèdent moins d’énergie que les sons vocaliques. Un son aigu a une fréquence élevée, un son grave une fréquence faible.

On peut prononcer un mot de plusieurs manières en lui faisant subir des variations qui en modifient la structure énergétique, à l’aide de ces éléments essentiels à la parole que sont les lèvres, le palais, les fosses nasales, la luette et les dents.

Les consonnes ont des fréquences plus élevées que les voyelles, mais une énergie et une puissance plus faible (2 micro watts maximum). Les voyelles, notamment a, e, i, o et u, quoique de faible fréquence, n’en dégagent pas moins une énergie importante ( 9 à 40 micro watts) [110].

La mélodie linguistique se sert des hauteurs tonales irrationnelles dans un espace relativement petit, les transitions sont là dedans mobiles. La mélodie musicale se sert des hauteurs tonales fixes et elle progresse, graduellement.

Les exceptions dans la langue sont les bonds ou la diminution imprévue de la hauteur tonale dans une phrase expressivement intensifiée. Il n’y a que les mouvements mélodiques comme le glissando, le progrès aux demi-tons, et même les intervalles plus petits qui s’approchent du mouvement de la hauteur tonale irrationnelle des processus linguistiques [55].

L’harmonie comme élément structurel est totalement annulée dans la langue. Il faut la ranger dans le domaine de la symbolique du timbre.

Comme les linguistes sont prêts à considérer le rythme comme tempo de parler (aussi dit “vitesse” de parler), il existe seulement peu de définitions pour le rythme linguistique. L’effet du rythme linguistique est fondé plus sur la différentiation qualitative que quantitative.

La différence essentielle entre le rythme linguistique et musical se situe au niveau de leur rapport à la structure. Le rythme linguistique dépend du sens et de l’agencement et de l’organisation de l’expression, c’est-à-dire, il dépend du contenu et de la forme du message. Par contre, le rythme musical est déterminant pour le sens lui-même. Autrement dit, le rythme linguistique dépend de la fonction des éléments individuels de la structure, tandis que le rythme musical détermine ses fonctions lui-même [30]. Les composants comme moyens de réalisation font partie du domaine de l’expression:

- La vitesse / le rythme: l’acte de parler n’a pas un rythme fondamental uniforme. Le locuteur peut varier la vitesse à volonté et la disposition sur le rythme est plus vaste que celle dans la musique. La vitesse de parler dépend non seulement de l’expression individuelle mais aussi de la situation et des qualités du locuteur.

L’art de parler, c’est-à-dire, l’articulation, la division des mots en syllabes et l’accentuation jouent aussi un rôle très important.

- La dynamique: dans l’acte de parler, elle est soumise à des critères semblables à ceux de la vitesse de parler.
- La phraséologie / L’articulation: la première divise et structure le message, tandis que la seconde l’empreint et le profile. Toutes les deux sont classées de la même manière dans la musique et dans la langue. L’articulation par exemple souligne des parties particulièrement importantes du message en leur donnant des sons exactes. Dans la musique, on obtient des effets similaires en jouant le staccato.
- Le timbre: le timbre se réfère à la coloration et la teinte individuelle d’une expression, aussi déterminé par la situation.

Comme beaucoup d’exemples l’ont illustré, l’augmentation de la puissance vocale aboutit souvent à une mélodie montante, pendant qu’une mélodie tombante résulte apparemment d’une diminution du volume sonore.

En ce qui concerne l’accentuation, il y a plusieurs possibilités pour l’exprimer. On peut accentuer quelques éléments par

- La mélodie: en produisant des sons de pointe ou apogées
- L’harmonie: en produisant des dissonances
- Le rythme: en produisant des allongements. Cependant, les allongements présentent quelques problèmes dans les langues dont les quantités vocaliques ont une valeur différentielle
- La métrique: en soulignant des éléments forts.

À part ça, il y a beaucoup d’autres possibilités pour obtenir une accentuation ou pour la soutenir. Le cours mélodique est déterminé par le point principal de l’accentuation. Une dynamique ou harmonie plutôt frappante distingue ce point principal des autres accentuations. Il peut être aussi marqué par des pauses.

La structure et la division en unités de sens se produit par une structuration mélodique correspondante. Par conséquent, on peut constater trois formes de base de l’intonation de phrase, aussi dit les mélodèmes:

- Terminal: toutes les mélodies qui reconduisent au son fondamental
- Progrédient et interrogatif: les deux se distinguent par la direction de mouvement mélodique. Les phrases terminales progrédientes restent dans la position du milieu, les interrogatives mènent au dessus [30].

Comprendre une phrase parlée n’est donc pas un processus linéaire. Il n’y a ni de voie directe des sons individuels au sens de la phrase ni celle d’ensemble à ses éléments. La mélodie de la phrase ou l’intonation joue donc un rôle assez important pour la communication. Sur le plan acoustique, l’intonation est manifestée par la fréquence de base, F0. Comme beaucoup d’études l’ont montré, l’intonation soutient la continuité auditoire du signal linguistique et dirige ainsi l’attention de l’auditeur dans une direction relativement précise [55].

On dit souvent que la langue a une influence énorme sur ce qu’on appelle la musique nationale. Cette influence vient du fait que la langue offre un cadre idéal pour la musique, qui est ainsi abstraite de ce qui n’est pas chanté. Les rythmes de la langue restent ancrés dans l’idée musicale.

Sur cette base on pourrait présumer que des musiques différentes s’épanouissent aussi dans des domaines où la structure tonale de la langue est différente.

En Europe, par exemple, les langues romanes du sud ont perdu les terminaisons infléchies qu’elles avaient probablement reçu du latin, pendant que les langues germaniques du nord, slaves et scandinaves les ont conservé. Le finnois et le hongrois font partie de la seconde catégorie. Ce qui est important est le fait que les terminaisons soient presque toujours inaccentuées. La musique composée sur une telle langue infléchie aboutit aux terminaisons cadencielles faibles qui sont importantes sur le plan prosodique dans le chant. On peut remarquer cette différence entre la musique allemande et italienne. La musique de l’Europe du sud se distingue bien de celle de l’Europe du nord par sa structure mélodique.

Quelques-unes des structures musicales idiomatiques dans la musique de l’Europe du sud résultent de la découverte et l’assimilation de la musique qui vient des langues turques et sémites qui ont une structure tonale totalement différente [105].

1.2 L A FREQUENCE DISTRIBUTIONELLE DES CONSONNES ET DES VOYELLES ET LEUR IMPORTANCE POUR LA MELODIE DE LA LANGUE

Pour composer une œuvre musicale dans une certaine langue, la musique doit suivre les accents et le rythme de cette langue pour présenter les mots d’une façon raisonnable aux auditeurs. Cette façon est ce qu’on appelle la prosodie.

Le compositeur doit aussi respecter la structure des voyelles du texte, en prenant en considération les hauteurs tonales des voyelles. Helmholtz [46] a présenté des études détaillées sur la résonance des voyelles et comment les êtres humains les aperçoivent. Même s’il y a plus de cent ans que cette œuvre a été présentée, elle est toujours la „bible“ sur ce sujet, car elle tient compte de la mathématique, de la biologie des oreilles, et de la histoire des standards de la hauteur tonale.

Les langues qui ont plusieurs voyelles ouvertes comme le hongrois, l’italien, l’espagnol ou le russe, conviennent au mieux pour l’adaptation musicale. Par contre, les groupes de consonnes comme le présente le tchèque, le russe et beaucoup d’autres langues slaves, sont difficils à mettre en musique. Le français, l’anglais et le portugais, c’est-à-dire, les langues qui ont des voyelles nasales, des diphtongues et des triphtongues, requièrent plus du soin et restreignent les possibilités du compositeur.

En ce qui concerne la langue et le chant, on a souvent proposé l’italien parlé dans la région de la Toscane, comme la langue la plus facile et la plus parfaite pour le chant mélodique: toutes les voyelles sont ouvertes et ceci en abondance, il n’y a aucune diphtongue au sense pur du terme ou triphtongue. Mais, aussi en italien, le

compositeur doit respecter la résonance naturelle des voyelles. Si il la néglige, le chanteur changera probablement la voyelle pour l’adapter à la hauteur tonale.

La voyelle la plus redoutée est le ‘e‘ long: il a la résonance tonale la plus haute et chanté aux extrêmes de la gamme, il peut devenir instable.

Comme on le voit, la mélodie est en grande partie influencée par les voyelles, car il est impossible de chanter n’importe quelle mélodie avec un texte qui ne contient que des consonnes [105].

La question qui se pose ici se réfère à la façon avec laquelle les voyelles donnent une forme musicale à la langue: est-ce que la mélodie se produit par

- Leur fréquence par rapport aux consonnes ou par
- Leur apparition riche en diversité ou par
- Leur minorité par rapport aux consonnes ou par
- La multiplication d’une certaine voyelle ou par
- Leur absence totale.

Prenons les voyelles [a], [e], [i], [o] et [u]: tout le monde les prononce avec des fréquences différentes, de façon qu’elles produisent vraiment une mélodie. La fréquence des voyelles laisse les mots ressembler à la musique virtuelle. De ce point

de vue, on ne peut pas totalement renoncer aux voyelles et il semble aussi assez

difficile d’utiliser une méthode pseudo-Schönberg, selon laquelle chaque voyelle est utilisée seulement une fois avant que toutes les autres soient utilisées. Aussi une supériorité numérique des voyelles sur les consonnes semble plus improbable [106]. La fonction primaire des segments, c’est-à-dire des consonnes et des voyelles de la langue est de rendre possible que l’auditeur reconnaisse des mots. En général, si ces segments sont assez identifiables, les mots peuvent être reconnus indépendemment de la durée des segments et de leur modèle musical.

Comme l’acte de parler s’étend sur la dimension du temps, les segments des positions initiales contribuent plus à la récognition auditoire du mot que les segments qui suivent plus tard. L’auditeur pourrait renoncer aux segments suivants, particulièrement dans les mots de plusieurs syllabes, car ils ne contribuent pas beaucoup à différentier le mot d’un autre. Les syllabes accentuées ont aussi une tendance à contribuer plus à la récognition du mot que celles qui sont inaccentuées. Pour cette raison, il semble utile de diviser la langue en voyelles et consonnes et les observer dans des positions différentes (initiale, médiale, finale) dans les mots monosyllabiques, de plusieurs syllabes, ainsi que dans les syllabes accentuées et inaccentuées [105].

Dans le domaine de la musique, on trouve souvent des compositeurs qui préfèrent choisir une autre langue que leur langue maternelle pour les textes. Bien sûr, il y a quelques facteurs qui influencent une considérablement telle décision.

Chaque langue a ses particularités, comme par exemple la longueur moyenne des mots. En anglais, le nombre moyen des syllabes se monte à 1.406, en allemand à 1.635. En anglais, sept sur dix mots sont monosyllabiques (71.5%), seulement chaque dixième mot a trois ou plus syllabes, contrairement à l’allemand, où un peu plus de la moitié des mots sont monosyllabiques et presque la moitié des mots ont deux ou plusieurs syllabes [117].

Un texte du même contenu comme par exemple le Notre Père, a en anglais environ 10% moins d’éléments qu’en allemand. Cela ne serait pas si frappant, si en anglais, on ne prononcait beaucoup moins de syllabes qu’on écrit contrairement à l’ allemand, où on parle comme on écrit. Par conséquent, l’anglais est sans aucun doute une langue très concise [104].

Une des phrases les plus importantes de l’univers a seulement trois syllabes prononcés en anglais: „I love you“. En allemand, il y en a quatre, de plus, d’une accentuation assez désavantageuse: „Ich liebe dich“. On peut donc exprimer le même état des choses d’une façon plus courte en anglais.

Une autre conséquence s’en déduit: l’anglais est une langue très favorable pour l’adaptation musicale. C’est bien logique que les mots polysyllabiques sont plus encombrants que les mots courts. Les textes pleins de mots monosyllabiques en anglais peuvent être adaptés à des mélodies toutes différentes.

Faire ça en allemand est plus difficile. Il faut plus souvent user de la liberté poétique: c’est-à-dire, raccourcir les mots, contracter les syllabes, éliminer les mots ou changer

l’ordre des auxiliaires. Il y a seulement peu de textes allemands qui conviennent à une mélodie chantable sans de tels artifices.

Il y a plusieurs raisons objectives qui expliquent pourquoi l’allemand est une langue moins favorable pour l’adaptation musicale:

- l’allemand est une langue imbattable en ce qui concerne son exactitude et sa précision. En anglais, on peut utiliser la même courte phrase pour décrire des situations différentes, tandis que l’allemand offre pour chaque situation une phrase distincte. On court le risque d’utiliser la phrase inadéquate et cela pourrait aboutir à des fausses associations ou à des expressions pas idiomatiques [107].

La combinaison des voyelles offre des indices pour la musicalité d’une langue. Quand la voyelle est accentuée et plus émotionnelle, on peut supposer que la hauteur tonale montera. Plus la lacune est grande entre les intervalles, plus de l’excitation est donnée aux syllabes. Une durée plus longue de la voyelle aboutit à un paramètre plus expressif. La qualité du son, c’est-à-dire, l’usage des formants et d’un timbre différent, apparaît mieux dans les durées plus longues. Dans un contexte musical on peut utiliser le vibrato. Aussi le lien entre les mots joue un rôle très important. Quelques-uns ont des sons muets, pendant que des autres n’en ont aucun. Dans le cas cité en dernier, on peut jouer le legato. Si il y a un son muet, la consonne se trouve entre lui et les voyelles. Pour notre objectif rythmique les consonnes battent les mesures accentuées ou inaccentuées, ainsi donnant le sens de la syncopation. L’addition de la tonalité ou de l’accentuation des mots peut indiquer des états mentaux différents selon les intervalles utilisés [58].

Les grammaires génératives donnent souvent plus d’explications des affections de la joie ou de la tristesse que l’utilisation des systèmes majeurs ou mineurs et les instruments de mesure du temps.

En vertu d’une telle analyse automatique ou manuelle, on peut éditer ou appliquer la synthèse ou la ré-synthèse des paramètres sur les voyelles extraites d’un texte.

En utilisant des méthodes comme le Vocodeur, LPC ou le Spectral Modeling, l’intonation, l’intensité et la durée des sons peuvent être modifiés, donnant ainsi des indications sur leur influence sur la composition d’une pièce musicale.

Les règles de syntaxe qui spécifient la séquence particulière des sons phonologiques dans une phrase ou un mot ont une influence considérable sur la sémantique et la perception des sons du mot. Un mot et son sens sémantique offrent donc quelques indications sur les émotions qu’on appliquerait pour le son musical.

Interférences phonologiques

Une fois définis les matériaux phoniques dont dispose chaque langue, ainsi que les différences et convergences articulatoires qui les caractérisent, une étude des codes oraux français doit aborder aussi les phénomènes fonctionnels de chaque langue, leurs interactions, ainsi que les rapports entre le matériau phonique disponible et la façon dont la grammaire du code oral en tire parti [62]. Le chapitre suivant est consacré aux caractéristiques de la phonologie du français et la façon dont elles peuvent interagir: les fréquences d’emploi des phonèmes, leurs positions et la syllabation.

Quelques facteurs intérieurs au système linguistique du français justifient aussi la production orale de surface, en particulier:

- la distribution des phonèmes, spécifique à chaque langue, qui risque de compromettre l’identification des unités distinctives, et confondre des réalisations pourtant identiques;
- la fréquence d’emploi des phonèmes, différente d’une langue à l’autre, et donnant à chacune un contour articulatoire global caractéristique, auquel une oreille étrangère n’est pas forcément préparée;
- certaines habitudes prosodiques: répartition des accents, intonation, structures syllabiques, composante accentuelle, qui conditionnent le débit et le rythme général de la production orale [16].

L’analyse du système phonique du français démontre que, parmi toutes les combinaisons possibles d’une langue, certaines sont privilégiées par leur haute

fréquence d’emploi, et, pour cela, contribuent à définir le contour phonétique de la langue.

L’ensemble des articulations dont dispose la langue subit donc un autre type de classement que le classement articulatoire, celui fondé sur la fréquence d’emploi d’un phonème. Certains phonèmes sont en effet beaucoup plus fréquents (probables) que d’autres, et cette fréquence peut aboutir à la nécessité de travailler en français sur les articulations à la fois les plus fréquentes et les plus éloignées des possibilités articulatoires [62].

Les voyelles sont en français, des phonèmes très fréquents, ce qui est conforme aux attentes. Cependant, trois consonnes se détachent en français par leur haute fréquence: /l/, /e/, et /s/.

illustration not visible in this excerpt

Illustration 1.1 Tableau des fréquences d’emploi en français [121]

Notons les proportions suivantes:

illustration not visible in this excerpt

Les quatre voyelles les plus fréquentes sont donc:

illustration not visible in this excerpt

Ces voyelles représentent à elles seules la moitié (53.2%) de toutes les voyelles réalisées. Notons aussi la fréquence élevée de la voyelle à double timbre /E/ (24.5% des voyelles), alors que les autres voyelles à double timbre sont rares (/O/ 7.7%) voir même très rares.

Une étude attentive de ce tableau permet, comme le note Léon, d’insister sur “l’aspect linguistique” du problème des fréquences, et, par ailleurs, des rapports entre fréquences orales et graphiques [62].

Les voyelles

- Si le /a/ est bien la voyelle la plus fréquente, sa variante postérieure /a/ est la voyelle la plus rare (cela est dû à ses réalisations orthographiques “â”, “az”, “as”, etc.) Ceci confirme la disparition progressive des habitudes articulatoires du
français de cette voyelle, et doit suggérer de ne pas insister sur elle.
- Intéressant est le cas de la voyelle /e/, dont la fréquence orale est plus élevée que la fréquence écrite, ce qui s’explique par le fait que tous les graphèmes “e” ne se lisent pas /e/.
- La voyelle /s/, au contraire possède une fréquence écrite supérieure à la fréquence orale: dans ce cas, caractéristique de la graphie française, ce sont des réalisations graphiques très diverses (“è”; “ai”, “et”, “ê”, “ei”, etc...), qui toutes correspondent à /s/.
- La voyelle /o/ est dans une situation identique: elle est beaucoup plus fréquente à l’oral qu’à l’écrit, étant donné la fréquence de la graphie “au” et de ses dérivées. La même remarque peut être faite pour /s˜/, pour laquelle la richesse des graphies possibles contribue à dissocier écrit et oral.
- Notons, enfin, le cas de la voyelle /a/: sa fréquence écrite représente en français plus du double de sa fréquence orale (c’est de loin le graphème le plus fréquent), ce qui signifie qu’à peu près 50% seulement des “e muets” se prononcent en

français [62].

Les consonnes

- La plus remarquable est la plus fréquente est le /e/. La différence de fréquence constatée (en faveur de l’écrit) signifie que cette consonne est souvent écrite mais non prononcée (donc sans valeur phonétique), ce qui arrive, par exemple, avec des graphies comme “er” (infinitif), “rr”, etc...
- Constatons aussi qu’aucune consonne française (à part /f/ qui semble stable) ne possède une fréquence égale à l’oral et à l’écrit, ce qui n’est pas étonnant étant donné la distance qui sépare les deux codes. D’une manière générale, ce tableau nous montre que quelques consonnes sont plus écrites que prononcées (ce sont les principales “consonnes muettes”: /e/, /t/, /d/) mais que, surtout, la plupart des consonnes connaissent une fréquence orale supérieure à la fréquence écrite, ce qui confirme la grande instabilité des repères graphiques du français, et par voie de conséquence, des repères de lecture.
- Quant aux semi-voyelles, la plus remarquable est /j/, dont les réalisations graphiques n’existent pas, ce qui confirme le caractère purement articulatoire de sa fréquence [62].
- Distribution comparée des voyelles et des consonnes

Chacun des phonèmes décrits se manifeste habituellement associé à d’autres phonèmes. Cette association systématique contribue à modifier chacun des éléments sonores, et tend à créer, indépendamment de sa fréquence, une redondance, c’est-à-dire un type caractéristique d’association.

Ainsi, en français, au-delà de la composante articulatoire et fréquentielle, il est important de décrire les structures combinatoires des systèmes vocalique et consonantique.

On constate ainsi que chaque langue utilise des associations de phonèmes, et que chacune offre des possibilités de combinaisons que l’autre ignore ou néglige [62].

- Positions des voyelles du français

En français, les voyelles peuvent se trouver dans pratiquement toutes les positions: initiales, médiales (entre consonnes) et finales. Toutes les voyelles n’ont pas cependant la même probabilité d’apparition selon la distribution considérée:

illustration not visible in this excerpt

Illustration 1.2 Position des voyelles du français [121]

Notes sur le tableau:

- le /a/ possède une distribution plus réduite que les autres voyelles: on ne trouve jamais /a/ en initiale, généralement en médiale, et rarement en finale prononcée (c’est le cas dans quelque formes toniques à valeur grammaticale, comme le pronom le: “dis-le” [dila], ou “que”, “ce”, etc...
- la voyelle /o/ et la voyelle /œ/ possèdent une distribution restreinte au niveau de leurs timbres, puisque les timbres ouverts ne se trouvent pas en position finale absolue (c’est-à-dire en syllabe ouverte). Elles sont donc en français en distribution complémentaire.
- Toutes les autres distributions sont possibles, mais non équiprobables [62].
- Interférences distributionnelles

Les différences apparentées par ce tableau témoigne du décalage considérable qui sépare la distribution des voyelles dans le français des autres langues. Le français ignore l’opposition entre un système de voyelles toniques et un système de voyelles atones.

Les prolongements grammaticaux de ces réalisations impliquent des cas où des interférences peuvent compliquer l’accès aux formes grammaticales du français. L’exemple le plus expressif est celui de la morphologie verbale. Dans certains types de conjugaisons de verbes français, un phénomène assez semblable peut se produire: (je) “cède” [ssd] - (nous) “cédons” [sedc˜] (ici les deux timbres [e] et [s] se neutralisent mutuellement) [62].

- Distribution des consonnes du français

En français, la distribution des consonnes est assez régulière, puisque les consonnes peuvent occuper toutes les positions possibles:

illustration not visible in this excerpt

Illustration 1.3 Distribution des consonnes du français [121]

- Interférences distributionnelles

Les consonnes finales: la possibilité de trouver l’ensemble des consonnes en finale absolue s’explique en français par le fait que le /a/ final est muet, laissant apparaître une syllabe fermée.

Le fait que le “e muet” final ait été prononcé en français pendant très longtemps se

reconnaît encore aujourd’hui dans la manière dont ces consonnes finales sont réalisées, exactement comme si elles commençaient une nouvelle syllabe (c’était bien le cas quand le “e muet” était maintenu). Les consonnes finales absolues constituent toujours un important obstacle sur le chemin de la correction phonétique, en particulier par leurs caractéristiques articulatoires: consonnes fortes (elles sont nettes et tendues comme des consonnes de début de syllabe), elles produisent une impression d’affectation articulatoire, impression renforcée par leur durée.

C’est dans cette perspective qu’il faut situer l’explication de certaines interférences fréquentes sur les consonnes finales absolues, surtout lorsque ces dernières causent l’opposition sourde / sonore ; c’est ainsi que l’opposition des suffixes “euf” [œf] -

euve” [œv] (comme dans “veuf” – “veuve”), est, en français, rarement sentie. Un autre exemple fréquent est celui des suffixes de genre “if” – “ive” (comme dans “passif” – “passive”, où l’on entend régulièrement en français “active” être prononcé

*[aktif] [62].

Les séquences de consonnes: pour comparer des séquences de phonèmes (consonnes surtout), le meilleur moyen semblerait être de faire l’inventaire de ces séquences en français, puis vérifier leur existence dans les autres langues. Si elles existent dans une autre langue, elles ne seront probablement pas à l’origine de difficultés, mais dans le cas contraire des interférences pourraient se produire.

La difficulté ne vient pas seulement de la séquence en soi, mais aussi de l’environnement de cette séquence. Ainsi, prenant l’exemple des séquences de certaines doubles consonnes (/st/, /sk/, /sp/, etc...) on vérifie leur existence dans

quelques langues, ce qui semble faciliter leur transfert de prononciation et leur identification en français.

- Les semi-voyelles

En français, les trois semi-voyelles /j/, /y/ et /w/ peuvent apparaître dans les positions suivantes:

illustration not visible in this excerpt

Illustration 1.4 Les semi-voyelles françaises [121]

- Notes sur le tableau:
- /j/ n’apparaît que très peu à l’initiale, et rarement en finale, mais se combine avec n’importe quelle voyelle.
- /j/ est en distribution complémentaire avec la voyelle /i/: la semi-voyelle apparaît au contact d’une autre voyelle (quelle qu’elle soit), mais devant une double consonne prononcée, /j/ se réalise en /ij/; ainsi “bière” [bjse] – “prière” [peijse].
- La réalisation du /j/ français ne correspond pas à une diphtongue, puisque le /j/ y est un véritable phonème autonome, comme le prouve le test de la commutation phonologique: fille [fij] - file [fil].
- /y/ est en distribution complémentaire avec la voyelle /y/: la semi-voyelle apparaît au contact d’une autre voyelle; cependant, devant une double consonne prononcée, /y/ se réalise en /y/. Le groupe /yi/ se maintient pourtant même devant une double consonne (il n’y a pas diérèse): “ruelle” [eysl] - “cruelle” [keysl] et “nuit” [nyi] - “bruit” [beyi].
- /w/ est rare en initiale et interdit en finale: elle ne peut suivre une voyelle. Elle est neutralisée par /y/, /o/, /u/.
- /w/ est en distribution complémentaire avec la voyelle /u/: la semi-voyelle apparaît au contact d’une autre voyelle, mais devant une double consonne prononcée, /w/ se réalise en /u/. Les groupes /wa/ et /ws˜/ se maintiennent cependant même devant une double consonne (il n’y a pas diérèse).
- Il n’y a pas, en français, de semi-voyelles nasales [62].1

2 MESURAGE PHYSIQUE DE L’INTONATION

Le nombre des projets scientifiques concernant la recherche sur l’intonation a augmenté pendant les derniers vingts ans considérablement. Une multitude de différents modèles pour étudier l’intonation et ses aspects différents a été présentée, prenant en considération les facteurs comme la compétence du locuteur, la perception de l’intonation, la réalisation acoustique, la structure phonologique et pragmatique. Cependant, peu de progrès a été fait, car cette base de données n’est pas de tout homogène [103].

Comme l’ont décrit Hirst et Di Cristo [49], un modèle satisfaisant sur le système de l’intonation doit prendre en considération quatre niveaux différents, classés par leur qualité du concret à l’abstrait:

- Le niveau physique
- Le niveau phonétique
- Le niveau superficiel phonologique
- Le niveau de base phonologique.

Au niveau physique on trouve des données acoustiques et / ou des mesurages physiologiques.

Le niveau phonétique présente la courbe de la fréquence de base qui est composée de deux éléments:

- Le composant macro-prosodique: il se compose de la courbe continue reflétant le contour de l’intonation avec laquelle la phrase est prononcée. La fonction mathématique la plus simple pour la représentation de cette continuité est une fonction spline du second degré.
- Le composant micro-prosodique: il contient les écarts de la courbe continue macro-prosodique, en montrant l’influence du contenu segmental sur les dires.

Un algorithme dit MOMEL a été développé par Hirst et Espesser [50], qui permet la modélisation automatique d’une courbe de la fréquence fondamentale comme une séquence de points qui représentent une fonction spline du second degré.

Au niveau superficiel phonologique il existe un système appelé INTSINT (INternational Transcription System for INTonation), développé par Hirst et Di Cristo [49]. Ce système est un essai de représentation des différents motifs de l’intonation au niveau superficiel phonologique.

2.1 L ES GRANDEURS ARTICULATOIRES MESURABLES

Dans le domaine des recherches prosodiques, les mesurages articulatoires sont bien rares – probablement à cause de leur complexité et des frais. On peut mesurer la pression (devant ou après la glotte), la vitesse de mouvement des articulatoires et le mouvement des lèvres vocales [108].

2.2 L ES GRANDEURS ACOUSTIQUES MESURABLES

Dans le domaine acoustique on peut mesurer la fréquence de base, la durée et l’intensité. La fréquence de base et l’intensité forment des cours, contrairement à la durée, dont on ne peut mesurer aucun cours. La durée peut être mesurée grâce à des unités comme par exemple les sons, les syllabes, etc...

Les mesurages de la fréquence de base sont fait par des algorithmes spéciaux. Pour mesurer la durée des sons, il faut établir les frontières des sons. Même si ces frontières sont estimables à la machine, il faut toujours les contrôler.

Par contre, on peut simplement calculer l’intensité en s’appuyant sur le cours de signaux [108].

2.3 L ES GRANDEURS PERCEPTIVES MESURABLES

À côté des grandeurs perceptives traditionnelles comme la hauteur tonale, la quantité et la puissance vocale, on peut aussi étudier les aspects fonctionnels et esthétiques. Fondamentalement, on considère la réaction à un stimulus.

Pour réduire les différences intersubjectives, on présente autant de stimuli d’essai que possible aux sujets de l’expérience. L’authenticité des réactions sera vérifiée par la présentation répétée. Dans les tests fonctionnels on mesure la performance de reconnaissance avec des méthodes plus différentes [108].

2.4 L ES INSTRUMENTS DE LA PHONETIQUE ACOUSTIQUE

L’instrument principal le plus utilisé dans la phonétique acoustique est le spectrographe sonal.

illustration not visible in this excerpt

Illustration 2.1 Le spectrographe sonal [111]

Cet appareil donne un enregistrement visible de n’importe quel type de son. Dans une analyse spectrographique d’une phrase parlée tous les éléments, leur présence et leur durée sont représentées sur une graduation horizontale. La graduation verticale montre le composant de la fréquence sur chaque moment dans le temps, et l’amplitude des composants est montrée par l’obscurité des signes. Dans de tels images spectrographiques la première consonne a une distribution de l’énergie relativement accidentelle, même si elle est représentée dans le domaine des fréquences plus hautes. Les consonnes sourdes produisent une lacune courte dans le modèle. Les voyelles ont quatre formants qui paraissent comme des barres obscures autour des fréquences centrales de 300, 2.000, 2.700 et 3.4000 hertz. Tous les autres segments ont leur motifs distinctifs [109].

Un autre appareil appelé le „speech synthesizer“ est aussi souvent utilisé pour avoir des informations sur les sons. Ces instruments prennent des spécifications de la langue parlée au sens des facteurs acoustiques et engendrent les sons correspondants. Quelques speech synthesizers utilisent les générateurs de signaux électroniques et les amplificateurs, tandis que les autres travaillent avec des ordinateurs digitaux pour calculer les valeurs des ondes sonores souhaitées [104].

Dans le domaine de la phonétique acoustique, on peut mesurer la fréquence fondamentale, la durée et l’intensité des sons. La fréquence fondamentale et l’intensité forment des cours, tandis que la durée ne peut pas être représentée sous forme de cours, mais seulement par ses unités comme les sons, les syllabes, etc...

Les mesurages de la fréquence fondamentale sont faits par des algorithmes spéciaux. Pour mesurer la durée des sons, il faut les séparer par des limites précises, qui peuvent être calculées approximativement par l’ordinateur, cependant, il faut toujours les contrôler. L’intensité est facile à calculer en fonction du cours des signaux [108].

illustration not visible in this excerpt

Illustration 2.2 Les sonagrammes aux bandes amples et étroites [110] .

3 COMMENT LIRE LES SONAGRAMMES?

Les sonagrammes sont très utils comme appareil de mesurage ainsi que pour la représentation des phonèmes de n’importe quelle langue. Dans les chapitres suivants les différentes modes d´évaluation et de reconnaissance des phonèmes seront discutées.

3.1 L ES VOYELLES ET LES FORMANTS

Les voyelles sont des sons sonores, dont les caractéristiques sonores sont déterminées par la configuration des organes vocaux en premier lieu. Le courant d’air est stimulé par des impulses de la glotte et puis il est modulé. La fréquence de la résonance d’une voyelle est modifiée par la hauteur du larynx, la position de la langue et celle des lèvres. Ainsi, chaque voyelle obtient une composition spectrale typique avec des concentrations énergiques pour la fréquence de la résonance respective. Ces concentrations énergiques, qui peuvent être perçues comme des bandes horizontales de la fréquence dans les sonagrammes sont appelées les formants F1, F2, F3, etc...

Tandis que les formants F1, F2 et F3 sont spécifiques à la voyelle, c’est-à-dire, elles sont relativement indépendantes du locuteur car elles ont approximativement les mêmes valeurs de fréquence, les valeurs de la fréquence à partir du quatrième formant sont plutôt responsables pour le timbre et les caractéristiques de la voix du locuteur. Elles servent à identifier le locuteur plutôt qu’à identifier des voyelles. Pour cette raison, on se concentre sur les trois premières, ou encore plus sur les deux premières formants quand on interprète les sonagrammes. Le troisième formant livre des informations utiles sur le lieu d’une consonne voisine, le plus souvent sur des consonnes nasales ou plosives. L’illustration suivante montre la fréquence fondamentale moyenne produite par les femmes, les hommes et les enfants, ainsi que les valeurs de la fréquence des trois premiers formants des voyelles [110].

illustration not visible in this excerpt

Illustration 3.1 Les fréquences fondamentales moyennes produites par des femmes, des hommes et des enfants [110]

3.2 L A DELIMITATION DES VOYELLES DES CONSONNES

Dans un sonagramme, les voyelles se distinguent des consonnes en premier lieu par leur structure de formant marquante. Pourtant, même les consonnes nasales ou latérales montrent une structure de formant assez distincte, de façon qu’une délimitation entre les voyelles et les consonnes semble indispensable pour éviter des méprises.

La marque distinctive la plus importante avec cela est le premier formant F1 qui est relativement bas pour les consonnes. Ce formant est déterminé par l’étroitesse articulatoire qui est plus grande avec les consonnes qu’avec les voyelles.

Les „passages“ d’une voyelle à une autre ou à une consonne voisine sont appelées les transitions. Elles peuvent être croissantes, décroissantes ou neutres. Selon

Halle, Hughes et Radley (1957) il y a une distinction entre la transition négative, c’est-à-dire, une transition décroissante vers une consonne, la transition positive, c’est-à-dire une transition croissante vers une consonne et la transition neutre ou horizontale. L’illustration suivante montre les segments vocaliques dans le mot allemand „Biedermeier“:

illustration not visible in this excerpt

Illustration 3.2 Le mot allemand „Biedermeier“ avec les voyelles [ i ],[ a ], et [ aia ] [110]

3.3 L ES DIPHTONGUES

Quand il y a une transformation de la qualité vocalique distinctement perceptible dans une syllabe, on parle des diphtongues. Le changement typiquement continu de la qualité vocalique est montré par une transition des formants mobile et pas fixe entre la première voyelle et la deuxième.

Les phénomènes fréquents de la vocalisation des [r] à des positions finales syllabiques comme par exemple dans les mots allemands „Uhr“ ou „Ohr“ paraissent aussi comme des réalisations de transition vocalique.

Dans l’illustration suivante on peut bien reconnaître les transitions mobiles des diphtongues dans la phrase allemande „Das ist mein Neuhaus“.

Abbildung in dieser Leseprobe nicht enthalten

Illustration 3.3 La phrase allemande „Das ist mein Neuhaus“ [110]

3.4 L ES VOYELLES AVEC DES GLOTTAL STOPS

En général, les voyelles en positions syllabiques initiales sont précédées par un son fermé, le glottal stop, dans beaucoup de langues. Il est aussi appelé „mise en jeu dure de voix“. Ce glottal stop précède presque chaque mot qui commence par une voyelle, ainsi que les pauses suivies par les voyelles accentuées ou inaccentuées dans une séquence intramorphèmatique des voyelles comme par exemple dans le mot allemand „The/ater“.

Pourtant, cette pause et la „mise en jeu dure de voix“ suivante dépendent aussi de la qualité vocalique du locuteur et de l’accentuation. La pause aussi coïncide avec le grade de l’ouverture de la voyelle et en est interdépendante. Avec cela, le glottal stop apparaît le plus souvent devant la voyelle [a] et presque jamais devant les voyelles

[i], [u] et [y] [110].

3.5 L ES PLOSIVES

Avec la formation des sons plosifs on distingue trois phases différentes:

(1) La formation de la fermeture
(2) La phase de la fermeture
(3) Le desserrement de la fermeture.

Pendant la première phase, les organes articulatoires, c’est-à-dire, les lèvres, le dorsum et l’apex de la langue, forment une fermeture totale avec le lieu de l’articulation (labial, alvéolaire, vélaire). Durant cet état, qui est maintenu pour une certaine période, le courant d’air expiratoire s’accumule derrière la fermeture, jusqu’à ce que la fermeture s’ouvre activement, accompagnée d’un bruit explosif dans la troisième phase. Ces trois phases du processus articulatoire se reflètent aussi dans le résultat acoustique.

La formation de la fermeture dans la première phase aboutit à une diminution brusque de l’énergie spectrale. La seconde phase, celle de la fermeture, se distingue par un silence acoustique total dans tous les domaines de fréquence du spectre, à l’exception d’un ton constant qui est éventuellement présent. Ce ton, aussi appelé le

„voice bar“, se trouve dans le domaine de fréquence le plus bas du sonagramme. Pendant la phase de la fermeture d’un son plosif sonore les lèvres continuent à vibrer jusqu’à ce que la pression de l’air dans la cavité buccale soit assez forte pour terminer la phonation ou bien desserrer la fermeture. Cela explique pourquoi le ton constant n’est pas toujours continuellement présent avec des sons plosifs sonores [110].

Le desserrement de la fermeture, la troisième phase, fait un bond, qui aboutit à une augmentation très rapide de l’énergie spectrale dans un certain domaine de fréquence. Cette augmentation, aussi appelée le „burst“, est déterminée par la source sonore, c’est-à-dire, le lieu de l’articulation du son plosif. Le bruit du desserrement de la fermeture avec des sons plosifs sonores est relativement court,

avec une durée de 10-20 ms. Il est suivi par une transition bien rapide de F1, avec une durée de 50 ms. Avec des sons plosifs sourds, le burst est suivi par une phase d’aspiration d’une durée diverse qui peut varier de 40 à 80 ms. L’aspiration est supprimée avec des sons plosifs sourds en contact avec des fricatifs et des naseaux.

En règle générale, les sons plosifs sont bien reconnaissables à cause de leur phase de fermeture, qui apparaît comme lacune dans le sonagramme. On trouve ce

„silence“ aussi avec les sons plosifs sonores au-dessus de 500 Hz, parce que les vibrations des lèvres ne peuvent être diffusées que par le larynx et le tissu de corps dans les domaines de plus basses fréquence, c’est-à-dire, dans le domaine de F0.

Ce silence est considéré comme un indice acoustique essentiel pour la perception d’un son plosif. Si il manque, aucun plosif ne peut être perçu par l’auditeur. C’est pareil pour la représentation visuelle: il est presque impossible de localiser un son plosif sans la lacune, à moins qu’un burst ne le révèle sans aucun doute.

Finalement, il faut faire quelques remarques concernant ce phénomène. Si le son plosif sonore est précédé par une nasale, le silence peut être réduit à quelques millisecondes, particulièrement quand le son nasal et le son plosif sont homorganes, c’est-à-dire, quand ils ont le même lieu de l’articulation. Dans les cas extrêmes, le plosif n’est plus séparable du nasal, même si il est perceptible auditivement.

L’illustration suivante montre les sons plosifs sonores [d] et [g] et deux fois le plosif sourd aspiré [th] dans la phrase allemand „Das gute Boot“.

illustration not visible in this excerpt

Illustration 3.4 La phrase allemande „Das gute Boot“ [110]

3.6 L A DIFFERENTIATION ENTRE LES PLOSIFS SONORES , SOURDS ET DESACCORDES

Sans compter le „voice bar“, l’aspiration est la caractéristique la plus importante pour différencier les phonèmes [b], [d] et [g] des phonèmes [p], [t] et [k] dans les positions initiales et médianes. En particulier, parce que les sons plosifs phonétiquement

sonores ne sont pas toujours réalisés comme sons sonores, mais sont assez

souvent produits d'une façon désaccordée. Un „voice bar“ absent ou interrompu l’indique dans le sonagramme.

La phase de fermeture des plosifs sonores est normalement plus courte que celle des plosifs sourds, et aussi leur burst et plus faible. La pression de l’air derrière la fermeture est bien plus grande pendant la production des plosifs sourds, par conséquent, le burst est produit avec une intensité plus forte.

L’autre différentiation recommandée pour les sons sourds et sonores, c’est-à-dire, la distinction perceptible entre „fortis / lenis“ est moins utile pour lire les sonagrammes, car elle ne se fait sentir que dans la différence minimale de l’intensité du desserrement de la fermeture. Ces différences minimales sont presque imperceptibles ou mesurables dans le sonagramme [110].

[...]

Fin de l'extrait de 162 pages

Résumé des informations

Titre
La musicalité des langues
Université
University of Vienna  (Institut für Romanistik)
Note
Sehr gut
Auteur
Année
2001
Pages
162
N° de catalogue
V55
ISBN (ebook)
9783638100373
ISBN (Livre)
9783638731430
Taille d'un fichier
5535 KB
Langue
français
Mots clés
Sprachmelodie, Intonation
Citation du texte
Mag. Anna Herboly (Auteur), 2001, La musicalité des langues, Munich, GRIN Verlag, https://www.grin.com/document/55

Commentaires

  • invité le 28/10/2007

    Musicalité des langues.

    Bonjour,
    J'aimerais me mettre en contact avec l'auteur de cet ouvrage. J'aimerais savoir aussi si cet ouvrage existe en français.
    Merci

Lire l'ebook
Titre: La musicalité des langues



Télécharger textes

Votre devoir / mémoire:

- Publication en tant qu'eBook et livre
- Honoraires élevés sur les ventes
- Pour vous complètement gratuit - avec ISBN
- Cela dure que 5 minutes
- Chaque œuvre trouve des lecteurs

Devenir un auteur