Akustische Phonetik


Hausarbeit, 2007

13 Seiten, Note: 1,0


Leseprobe


Inhaltsverzeichnis

1. Einleitung

2. Physikalische Grundlagen

3. Digitale Signaldarstellung im Rechner
3.1 Abtastung
3.2 Quantisierung

4. Darstellungsmöglichkeiten von akustischen Signalen
4.1 Zeitbereichsdarstellung (Oszillogramm)
4.2 Frequenzbereichsdarstellung (Kurzzeitspektogramm)
4.3 Zeit- und Frequenzbereichsdarstellung (Breit-/ Schmalbandsonagramm)

5. Schlussbemerkung

1. Einleitung:

Die Phonetik befasst sich im Allgemeinen mit der Entstehung, Übertragung und Wahrnehmung von Schallereignissen, produziert durch die menschlichen Artikulationsorgane. Ihre Basis sind die Erkenntnisse aus Anatomie, Physiologie, Neurologie und Physik. Man unterscheidet verschiedene Bereiche der Phonetik. Die artikulatorische Phonetik befasst sich hierbei mit der Lautproduktion, die akustische Phonetik mit der Lautübertragung und die auditive mit der Lautwahrnehmung, auch Lautperzeption genannt.

In dieser Hausarbeit soll auf die akustische Phonetik eingegangen werden, welche die Sprachlaute unter dem Aspekt der Lautübertragung untersucht1. Ihr Gegenstand ist somit die physikalisch-akustische Struktur der Sprachlaute.

2. Physikalische Grundlagen:

Die akustische Phonetik behandelt die physikalische Natur der Schallwellen, die die Laute bilden.2

Schall bezeichnet dabei alle sich im Wasser, in der Luft oder in einem anderen elastischen Medium wellenförmig ausbreitende Schwingungen, die vom menschlichen Gehör wahrgenommen werden können. In der akustischen Phonetik sind die Schallschwingungen Luftdruckschwankungen um einen Mittelpunkt herum, so genannte Kreisschwingungen. Diese Kreisschwingungen werden „fast ausschließlich als Zeitfunktionen verwendet“3. Das heißt also, dass die mathematische Funktion der Sinusschwingung, wie die Kreisschwingung als fundamentale Grundschwingung dargestellt wird, dazu dient, Veränderungen von physikalischen Größen in Abhängigkeit von der Zeit darzustellen.4 Sprachschall breitet sich in Longitudinalwellen aus und überträgt somit das akustische Ereignis vom Sender, das heißt Sprecher, zum Empfänger, das heißt Hörer.

Die Schwingung wird durch die Parameter Periodendauer, Amplitude und Frequenz charakterisiert.

Die Zeitdauer der Schwingung wird als Periodendauer bezeichnet. Sie wird physikalisch als T in ms dargestellt. Das Signal wiederholt sich nach einer Periode in identischer Weise.

Die Amplitude ist die physikalische Bezeichnung für die maximale Auslenkung einer Schwingung aus der Mittellage heraus. Das heißt sie bezeichnet die Stärke der periodischen Schwankung. Sie wird als Maximalwert der Ordinate abgetragen. Die Amplitude steht physiologisch für die Lautstärke und wird in dB angegeben.

Die Grundtonhöhe einer periodischen Schwingung wird durch die Frequenz definiert. Sie gibt die Anzahl der Schwingungen in einem bestimmten Zeitraum an und wird durch in Hz gemessen. Die Bezugsgröße für Hz ist immer 1 Sekunde.

Das menschliche Gehör kann verschiedene Komponenten der Frequenz wahrnehmen.

Der Ton ist physikalisch betrachtet eine reine periodische Sinusschwingung. Er verändert sich in Abhängigkeit von Amplitude und Frequenz. Reine Töne oder Sinustöne kommen in der Natur nicht vor, jedoch definieren sie die Grundschwingung und somit den Grundton einer Schwingung.

Eine weitere Komponente ist der Klang. Er ergibt sich aus einer Überlagerung mehrerer periodischen Sinusschwingungen und besteht aus einem Grundton und seinen ganzheitlichen Vielfachen, den so genannten Ober- oder Teiltönen. Somit sind Klänge immer harmonisch. Auch beim Wegfall des Grundtones bleib die Periodizität und die Periodendauer T einer Schwingung erhalten. Ein Klang kann sich somit aus einem Grundton und seinen Obertönen und einem ersten Teilton und seinen weiteren Teiltönen zusammensetzen. Die Vokale im Deutschen sind Klänge.

Stimmlose Konsonanten sind dagegen Geräusche. Sie haben keinen phonatorischen Anteil. Ein Geräusch ergibt sich aus der Überlagerung mehrerer aperiodischer Sinusschwingungen. Das es heißt es besteht aus nicht ganzzahligen Vielfachen eines Grundtones. Neben Vokalen und stimmlosen Konsonanten gibt es im Deutschen noch stimmhafte Konsonanten. Diese werden als Klang-Geräusch-Gemische bezeichnet, da sich periodische und aperiodische Schwingungen überlagern.

Das Erscheinungsbild dieser physikalischen Information, dem Schall, wird als Signal bezeichnet. Ein Signal ist zum einen beschreibbar durch eine mathematische Funktion zum anderen auch durch ein Verteilungsgesetz und schließlich empirisch durch eine Messreihe, wozu die meisten Signale gehören. „Ist ein Signal Funktion nur einer Veränderlichen, so sprechen wir von einem eindimensionalen Signal, sonst von mehrdimensionalen Signalen.“5 Zu den eindimensionalen Signalen zählen akustische Signale aller Art (Musik, Geräusche), biologische Signale (z.B. EEG) und eben auch Sprachsignale. Diese Signale sind von nur einer Variablen abhängig und durch diese veränderbar. Mehrdimensionale Signale können z.B. zweidimensionale Bilder sein.

Eindimensional Signale sind meist Zeitfunktionen und somit Vorgänge. Das Signal stellt die Augenblicksamplitude, den Momentanwert oder den Wert des Signals zu einem bestimmten Zeitpunkt dar.6

Die akustische Phonetik beschäftigt sich vorrangig mit Sprachsignalen, deswegen soll im Folgenden primär darauf eingegangen werden.

Das Sprachsignal ist der Kommunikationsträger für den Menschen. Es ist zeitveränderlich und in der Art und Weise wie die Zeitveränderung erfolgt, liegt die Information. In einigen Abschnitten ist das Signal quasiperiodisch, was als Klang, somit als Vokal, und Klang-Geräusch-Gemisch, das heißt als stimmhafter Konsonant, identifiziert werden kann. In anderen Abschnitten gibt es eine zeitliche Struktur des Rauschens, was den Geräuschen und somit den stimmlosen Konsonanten entspricht. Weiterhin existieren Pausen, die teilweise auch sehr kurz sein können. Das Sprachsignal ist ein kontinuierlicher Datenstrom und die Änderungen erfolgen stetig und fließend.

Sprachsignale können verschiedenartig angeregt werden. Entweder durch Phonation, dann spricht man von einer stimmhaften Anregung. Die entspricht dann im Signal den quasiperiodischen Schwingungen, da durch Stimmgabe ein Klang oder Klang-Geräusch- Gemisch erzeugt wird. Im Gegensatz dazu wird das Rauschen bei der stimmlosen Anregung von einer Engstelle bestimmt. Diese geräuschartige Signalform ist dann einem stimmlosen Konsonanten, hauptsächlich dem Frikativ, gleichzusetzen, da hier durch Veränderung des Ansatzrohres die Luft durch einen Engpass entweicht. Bei der transienten Anregung schließlich, staut sich die Luft durch einen Verschluss im Mund und durch ein plötzliches Öffnen wird der Druck anschließend abgebaut. Dies entspricht im Deutschen den Plosiven.

Im Signal ist hier eine kurze Pause erkennbar und anschließend hört man ein Öffnungsgeräusch, den so genannten „Burst“, der sich dann mit dem folgenden Laut verbindet und diesen dann beeinflusst. Die Beeinflussung wird als Koartikulation bezeichnet und belegt somit die ständige Dynamik und Veränderung des Sprachsignals.

3. Digitale Signaldarstellung im Rechner

Die immer größere werdende Bedeutung der akustischen Phonetik für die Analyse der Sprachsignalverarbeitung hängt stark mit der stetigen Entwicklung der Instrumente zusammen, die für derartige Untersuchungen verwendet werden. Sprachsignalverarbeitung wird im engeren Sinne einem Teilgebiet der Informationstechnik zugeordnet, wobei eben auch Gesichtspunkte der Sprachverarbeitung und Psychoakustik eine große Rolle spielen. Ein aktueller Hauptanwendungsbereich, der die Forschung vorantreibt, ist die Mobilfunktechnik und zum anderen die Mensch-Maschine-Kommunikation, in Verbindung mit Multimedia- Systemen.

Heutzutage wird Sprachschallverarbeitung computergestützt durchgeführt „Die Verarbeitung analoger Signale mit digitalen Rechenanlagen erfolgt durch eine Erfassung von wert- und zeitkontinuierlichen Signalwerten und deren Umsetzung in binär codierte wertund zeitdiskrete Daten.“7

Analoge Signale sind kontinuierlich und Zeit- und Amplitudenwerte lassen sich theoretisch unendlich präzise und mathematisch mit unendlich vielen Nachkommastellen beschreiben, wie z.B. das Sprachsignal. Das digitale Signal verfügt über keine zulässigen Nachkommastellen, da digitale Hardware nur mit Nullen und Einsen in verschiedenen Folgen operiert. Somit ist es diskret.

Die Umwandlung des analogen in das digitale Signal wird auch Quantisierung genannt und erfolgt in zwei verschieden Stufen.

3.1 Abtastung

In der Abtastung wird das zeitkontinuierliche Signal in ein zeitdiskretes Signal umgewandelt. Dabei bedeutet das zeitkontinuierliche Signal, dass die Kenntnis seines Wertes zu jedem beliebigen Zeitpunkt erforderlich ist, dagegen ist bei einem zeitdiskreten Signal dieses Wissen nur zu bestimmten Zeitpunkten notwendig.8 Man kann auch sagen, dass die Abtastung die Umwandlung der unabhängigen Variable, der Zeit, in die diskrete Darstellung bedeutet. Das heißt, das Signal wird in eine Punktsequenz umgewandelt und der Zeitwert mit unendlich vielen Nachkommastellen wird in einen Zeitwert mit endlich vielen Nachkommastellen konvertiert. Die Abtastung erfolgt immer gleichförmig, also in gleichen Intervallen der unabhängigen Variablen. Somit werden nur noch bestimmte Signalinformationen bestimmter Zeitpunkte, eben der abgetasteten Punkte, übermittelt. Die Abtastrate bzw. das Abtastintervall gibt demzufolge an, wie oft das Signal abgetastet wird und wie viele Zeitwerte konvertiert werden. „Welche Werte das Abtastintervall bzw. die Abtastfrequenz annehmen muss, sagt uns das Abtasttheorem.“9 Es besagt, dass sie mehr als das doppelte der höchsten im Signal vorkommenden Frequenz betragen muss10 oder, die obere Grundfrequenz des Signals entspricht der halben Abtastrate. Außerdem sind immer mindestens zwei Signale, welche „Berg“ und „Tal“, also Maximum und Minimum der Amplitude, des Signals bezeichnen sollten, zur Abtastung nötig. Wenn das Abtasttheorem missachtet wird, kann es zu groben Verzerrungen kommen, die sich auf die Signalanteile auswirken, die das Theorem verletzen. Wenn dies aber eingehalten wird, dann lässt sich das analoge Signal näherungsweise aus dem digitalen Signal rückwandeln.

3.2 Quantisierung

Die zweite Stufe der Umwandlung des analogen in das digitale Signal ist die Quantisierung der Amplitude. Hier wird die abhängige Variable, also das Sprachsignal selbst, in die diskrete Darstellung umgewandelt. Es erfolgt die Übersetzung einer kontinuierlichen Amplitudenskala in eine diskrete mit einer zählbaren, d.h. endlichen Anzahl möglicher Werte. Das wertkontinuierliche Signal, welches beliebige Werte annehmen kann, wird in ein wertdiskretes Signal umgewandelt, welches nur bestimmte, z.B. binäre, Werte besitzen darf. In diesem Fall wären das die Ziffern 0 und 1.11 Auch hier gelte die Vereinbarung, dass die Quantisierung gleichförmig, d.h. stets in gleichen Intervallen der abhängigen Variablen erfolgen soll.

Der Vorgang der digitalen Quantisierung eines akustischen Signals wird pro Zeiteinheit für eine bestimmte Anzahl von Durchgängen wiederholt. Das Signal wird also vorerst abgetastet und in eine zeitdiskrete Darstellung umgewandelt. Da die Abtastung immer in gleichen Intervallen abläuft, bleibt die Abtastrate über den gesamten Datenstrom konstant. Es werden also mehrere „Datensätze“ erstellt, die den momentanen Schwingungszustand möglichst präzise repräsentieren. Die zeitdiskreten Werte von Abtastsignalen können nur in Datenwortlängen endlicher Wortlänge abgebildet werden.12 Welche Genauigkeit oder Auflösung pro Abtastung möglich ist, bestimmt die Abtasttiefe. Sie gibt an, wie viele Bits pro Durchgang für die Erstellung eines Datensatzes zur Verfügung stehen. Je nach Bitrate, welche sich aus dem Produkt von Abtastrate und -tiefe errechnet, verändert sich die Qualität der Aufzeichnung.

Jedoch liegen zwischen den möglichen Stufen der Quantisierung auch Amplitudenwerte, die nicht erfasst werden können. Es kann zu Ungenauigkeiten der Signalaufzeichnungen kommen, was auch als „Quantisierungsrauschen“ bekannt ist. Demzufolge führt eine zu grobe Wahl der Quantisierungsstufen zu geräuschähnlichen Verzerrungen.

Die Umwandlung analoger in digitale Signale erfolgt mittels eines Analog-Digital-Wandlers oder -Umsetzers.13 „A/D-Wandler sind elektronische Schaltungen, welche nach unterschiedlichen Wandlungsverfahren arbeiten, bei denen ein kontinuierliches Analogsignal in der Amplitude und der Zeit quantisiert wird.“14 A/D-Wandler unterscheiden ich in der Art der Quantisierung, Wandlungsgeschwindigkeit, Codierung und Auflösung, mit der sie analoge Signale in digitale umwandeln und diese dann weiterverarbeitet oder abgespeichert werden können. Die Hauptparameter eines ADUs sind seine Auflösung in Bit und seine Wandlungsgeschwindigkeit, welche meist konstant ist und wovon die maximale Wandlungsrate abhängt. Die Auflösung bestimmt also die Anzahl der Bits, die zur Darstellung des Einganssignals verwendet werden. Von ihr hängt demzufolge auch das Quantisierungsrauschen ab.15

4. Darstellungsmöglichkeiten von akustischen Signalen

Die Grundlage für die Verarbeitung von Sprachsignalverarbeitung mittels des Computers ist nun durch die Digitalisierung gegeben. Aber auch für die Darstellung dieser Signale gibt es verschiedene Möglichkeiten, die unterschiedliche Analysen ermöglichen.

[...]


1 Vgl. http://www.fb10.uni-bremen.de/linguistik/khwagner/phonetik/phonologie1.htm; 09.03.2007; 14:55

2 Vgl. http://phonetik.know-library.net/; 17.01.2007 ; 12 :04

3 http://www.phonetik.uni-muenchen.de/AP/APKap1.html; 16.02.2007; 13:24

4 Vgl. http://www.phonetik.uni-muenchen.de/AP/APKap1.html; 16.02.2007; 13:24

5 Prof. Dr.-Ing. W. Hess: „Grundlagen der Sprachsignalverarbeitung“

6 vgl. : Prof. Dr.-Ing. W. Hess: „Grundlagen der Sprachsignalverarbeitung“

7 http://www.fh-friedberg.de/fachbereiche/iem/telekom-labor/zinke/fourier/dipl_htm/dpl07.htm;21.02.2007; 15:20

8 vgl: http://www.fh-friedberg.de/fachbereiche/iem/telekom-labor/zinke/fourier/dipl_htm/dpl07.htm; 21.02.2007; 15:20

9 Prof. Dr.-Ing. W. Hess: „Grundlagen der Sprachsignalverarbeitung“

10 vgl: Prof. Dr.-Ing. W. Hess: „Grundlagen der Sprachsignalverarbeitung“

11 vgl: http://www.fh-friedberg.de/fachbereiche/iem/telekom-labor/zinke/fourier/dipl_htm/dpl07.htm; 21.02.2007; 15:20

12 vgl: http://www.fh-friedberg.de/fachbereiche/iem/telekom-labor/zinke/fourier/dipl_htm/dpl07.htm; 21.02.2007; 15:20

13 vgl: http://de.wikipedia.org/wiki/Analog-Digital-Umsetzer; 23.02.2007; 9:38

14 http://www.itwissen.info/?ano=01-004793&id=31; 23.02.2007; 09:43

15 vgl: http://de.wikipedia.org/wiki/Analog-Digital-Umsetzer; 23.02.2007; 9:48

Ende der Leseprobe aus 13 Seiten

Details

Titel
Akustische Phonetik
Hochschule
Rheinisch-Westfälische Technische Hochschule Aachen
Note
1,0
Autor
Jahr
2007
Seiten
13
Katalognummer
V83366
ISBN (eBook)
9783638895736
ISBN (Buch)
9783640386727
Dateigröße
444 KB
Sprache
Deutsch
Anmerkungen
Zitierung komplett in Fußnoten.
Schlagworte
Akustische, Phonetik
Arbeit zitieren
Sinikka Föllner (Autor:in), 2007, Akustische Phonetik, München, GRIN Verlag, https://www.grin.com/document/83366

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Akustische Phonetik



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden