Emotionalisierungen im Nachrichtenjournalismus. Eine linguistische Analyse der ZEIT ONLINE in Python


Hausarbeit, 2020

74 Seiten, Note: 2,0


Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

1. Einleitung

2. Methodische Grundlagen
2.1 Untersuchungskorpus
2.2 Analysekriterien

3. Erläuterung des Python-Skripts
3.1 Vorverarbeitung
3.2 Morphologische Ebene
3.3 Syntaktische Ebene
3.4 Main

4. Ergebnisse
4.1 Darstellung in der Shell
4.2 Auswertung und Reflexion

5. Fazit

Literaturverzeichnis

Anhang
Programmcode
Untersuchungskorpus

Abbildungsverzeichnis

Abbildung 1: Variablen

Abbildung 2: Einlesen des Korpus

Abbildung 3: Bereinigung des Korpus

Abbildung 4: Herausfiltern der Substantive mit dem POS-Tagger

Abbildung 5: Funktion zur Ausgabe der einzelnen Diminutive mit ihrer Anzahl in einem Dictionary

Abbildung 6: Funktion zur Ermittlung der Gesamtanzahl der Diminutive

Abbildung 7: Herausfiltern der Adjektive mit dem POS-Tagger

Abbildung 8: Funktion zur Ausgabe der einzelnen Superlative mit ihrer Anzahl in einem Dictionary

Abbildung 9: Funktion zur Ermittlung der Gesamtanzahl der Superlative

Abbildung 10: Berechnung der Gesamtanzahl an Sätzen

Abbildung 11: Berechnung der Gesamtanzahl an Wörtern

Abbildung 12: Berechnung der durchschnittlichen Wortanzahl pro Satz

Abbildung 13: Berechnung der Gesamtanzahl an Aufforderungs- und Ausrufesätzen

Abbildung 14: Berechnung des prozentualen Anteils der Aufforderungs- und Ausrufesätze an der Gesamtanzahl der Sätze

Abbildung 15: Berechnung der Anzahl an Doppelpunkten

Abbildung 16: Berechnung der Anzahl an Gedankenstrichen

Abbildung 17: Hauptfunktion

Abbildung 18: Darstellung der Ergebnisse in der Shell

1. Einleitung

Bilder von blutenden Kriegsopfern oder hungernden Kindern überfluten Fernsehnachrichten und lösen bei den Zuschauern Emotionen aus.1 Es stellt sich die Frage, ob im Journalismus mit sprachlichen Mitteln vergleichbare Emotionalisierungen erzeugt werden. Im Gegensatz zum Nachrichtenjournalismus existieren im Boulevardjournalismus bereits zahlreiche Analysen, die Verfahren der sprachlichen Emotionalisierung untersuchen, wie zum Beispiel die Analyse Textgestaltung und Verfahren der Emotionalisierung in der BILD-Zeitung von Voss.2 Grund dafür könnte aus Sicht der Verfasserin sein, dass der Boulevardjournalismus laut Lorenz sowie Neuberger und Kapern auf Emotionalisierungen ausgerichtet ist.3 Der Nachrichtenjournalismus orientiert sich hingegen an Regeln wie Objektivität, Sachlichkeit und Neutralität.4 Ausgehend davon stellt die Autorin sich die Frage, ob in Artikeln des Nachrichtenjournalismus, die nicht auf den ersten Blick durch plakative Überschriften oder einen affektischen Wortschatz auffallen, emotionalisierende Stilmittel zu finden sind.

Diese Arbeit verfolgt das Ziel mittels eines Python-Skriptes herauszuarbeiten, welche emotionalisierenden, sprachlichen Strategien in Artikeln der ZEIT ONLINE vorhanden sind. Angewendet wurde das Skript auf ein Untersuchungskorpus, das aus 20 Artikeln der ZEIT ONLINE aus dem Jahr 2020 besteht. Im Mittelpunkt der Hausarbeit steht die Entwicklung des Programmes aus der Fragestellung heraus, und nicht die Auswertung der Ergebnisse.

Bevor die Analysekriterien erläutert werden, sind die Termini Emotion und Emotionalisierungen zu definieren. Für den Terminus Emotion existiert keine allgemeingültige Definition.5 Zentral für die vorliegende Arbeit ist die Definition der Emotionen als Gefühlsbewegungen, die im Kontrast zu Gefühlszuständen, auch Stimmungen genannt, nur kurz andauern.6 Emotionen hängen mit kognitiven Prozessen, wie Bewertung oder Wahrnehmung, zusammen.7 Realisiert werden Emotionen laut Schwarz-Friesel durch nonverbale Ausdrücke als Mimik und Gestik (Weinen, Lachen, etc.), körperliche Zustände (erhöhte Herzfrequenz, Schwitzen, etc.) und verbale Repräsentationsformen (auf Wort-, Satz- und Textebene).8 In Bezug auf die für diese Arbeit relevante ‚verbale Repräsentationsform‘ wird unter Emotionalisierung „der Prozess des Nachempfindens von Gefühlen verstanden, der bei der Lektüre in Gang gesetzt wird.“9 Emotionalisierungen spielen sich dabei immer auf Rezipientenebene ab, d.h. die in die Texte eingebauten Emotionen sollen beim Leser eigene Emotionen hervorrufen.10 Inwiefern die emotionalen Effekte beim Rezipienten generiert werden, kann experimentell nicht einfach nachgewiesen werden.11 Hierbei spielen verschiedene Faktoren eine Rolle, wie zum Beispiel Vorwissen des Rezipienten.12 Im Rahmen dieser Arbeit werden deshalb nur potentiell emotionalisierende Strategien untersucht.

Emotionen lassen sich auf Wort-, Satz- und Textebene ausdrücken.13 In dieser Ausarbeitung wurden zwei Analysekriterien auf Wortebene, auch morphologische Ebene genannt,14 untersucht: die Verwendung von Diminutiven und Superlativen.15 Des Weiteren wurden vier Analysekriterien auf Satzebene, auch syntaktische Ebene genannt,16 analysiert: die durchschnittliche Satzlänge, der Anteil an Ausrufe-, Aufforderungs- und Fragesätzen sowie der Einsatz von Doppelpunkten und Gedankenstrichen.17 Textspezifische Phänomene lassen sich unabhängig vom Kontext nur schwer bestimmen18 und bleiben deshalb unbeachtet.

Die vorliegende Arbeit gliedert sich in fünf Kapitel. Nach der Einleitung im ersten Kapitel folgt im zweiten die Vorstellung des Untersuchungskorpus sowie der Analysekriterien. Anschließend wird im dritten Kapitel das Python-Skript erläutert. Im vierten Kapitel werden die Ergebnisse ausgewertet und reflektiert, sodass im fünften Kapitel davon ausgehend in das Fazit übergeleitet werden kann.

2. Methodische Grundlagen

2.1 Untersuchungskorpus

Das Untersuchungskorpus enthält 20 randomisierte Artikel aus der ZEIT ONLINE 2020. Die Randomisierung wurde vorgenommen, indem im Archiv der ZEIT ONLINE jede zweite Ausgabe aus dem Jahr 2020 sondiert und daraus jeweils im Wechsel ein Artikel aus den Kategorien Politik, Wirtschaft, Wissen, Kultur und Gesellschaft gewählt wurde, der den folgenden Kriterien entspricht:

- Der Artikel hat eine maximale Länge von zwei Seiten.
- Der Artikel kann einer der tatsachenbetonten Darstellungsformen Meldung, Nachricht oder Bericht 19 zugeordnet werden.
- Der Artikel hat weder einen hohen Anteil an Grafiken und Schaubildern, die zum Verständnis der Artikel von zentraler Bedeutung sind, noch handelt es sich um einen Artikel, der aus einem Videobeitrag mit einem kurzen Text besteht. Grund hierfür ist, dass Bilder und Videos sich nicht in TXT Dateien einbetten lassen.

Für die Implementierung in Python wurden die Artikel in einer TXT Datei zusammengefasst. Die Korpus-Texte wurden nicht einzeln eingelesen, da ein Vergleich zwischen den unterschiedlichen Artikeln nicht Ziel der Arbeit ist. Bild- und Videounterschriften wurden beim Erstellen des Korpus vernachlässigt.

2.2 Analysekriterien

Auf morphologischer Ebene wurde das Korpus auf die Verwendung von Diminutiven und Superlativen untersucht.

Diminutive sind laut Ortner ein sprachliches Mittel der Emotionalisierung, das seine Wirkung erzielt, indem es Zuneigung oder Machtverhältnisse ausdrückt.20 Unter Diminutiven werden substantivische Ableitungen verstanden, deren Merkmal in der Verkleinerung oder Verniedlichung besteht.21 Diminutive werden meist durch die modifizierenden Suffixe -lein oder -chen gebildet22 und wurden in der Analyse anhand dieser Suffixe herausgefiltert.

Superlative sind laut Wittwen, Voss sowie Ortner eine Strategie zur sprachlichen Emotionalisierung.23 Sie erzielen ihre Wirkung, indem sie „[…] einer Aussage eine hochexpressive und sensationelle Wirkungskraft“24 verleihen. Unter Superlativen wird die höchste Steigerungsstufe von Adjektiven verstanden,25 wie zum Beispiel beste oder meisten. Superlative enden immer mit den Suffixen -ste oder -sten 26 und wurden in der Analyse anhand dieser Suffixe herausgefiltert.

Aus syntaktischer Ebene wurde die durchschnittliche Satzlänge, der Anteil an Ausrufe-, Aufforderungs- und Fragesätzen sowie das Vorkommen von Doppelpunkten und Gedankenstrichen analysiert.

Ein kurzatmiger Satzbau ist laut Wittwen, Voss sowie Mittelberg eine Strategie zur sprachlichen Emotionalisierung.27 Unter ‚kurzatmigen Satzbauten‘ werden Sätze mit einer niedrigen Wortfrequenz verstanden,28 die unter der durchschnittlichen Satzlänge des Schriftdeutschen von zwölf Wörtern pro Satz liegt.29 Laut Voss erzeugen kurzatmige Satzbauten durch ständig wechselnde Ansätze Neugierde und innere Unruhe und suggerieren Spannung und dramatische Aufregung.30 Dieses Kriterium wurde in der vorliegenden Arbeit operationalisiert, indem die durchschnittliche Wortanzahl pro Satz berechnet wurde.

Aufforderungs-, Ausrufe- und Fragesätze sind laut Wittwen, Voss sowie Mittelberg eine Strategie zur sprachlichen Emotionalisierung. Sie wirken laut Mittelberg emotionalisierend, da „[…] eine große Zahl von Aufforderungs-, Ausrufe- und Fragesätzen aggressiver die Aufmerksamkeit des Lesers erheischt als eine Syntax, die weitgehend vom verhaltenen Aussagesatz beherrscht wird.“31 Ihr Anteil wurde berechnet, indem die Fragezeichen und Ausrufezeichen gezählt und durch die Gesamtanzahl der Sätze geteilt wurden.

Eine weitere Strategie zur sprachlichen Emotionalisierung sind Doppelpunkte.32 Ein Doppelpunkt, der ein Zitat, eine Folgerung, Aufzählung oder Begründung ankündigt,33 bewirkt, dass semantisch bedeutsame Satzteile betont werden.34 In dieser Arbeit wurde die Strategie operationalisiert, indem die Doppelpunkte herausgefiltert und gezählt wurden.

Die letzte untersuchte Strategie sind Gedankenstriche. Ein Gedankenstrich ist ein „Mittel der Interpunktion zur graph. Markierung von Parenthesen, freien Angaben, […] und Satzabbrüchen; in Zitaten zur Andeutung von Sprechpausen.“35 Gedankenstriche können laut Voss auf verschiedene Arten emotionalisierend wirken.36 Beispielsweise wird durch die hervorgerufenen Sprechpausen Spannung erzeugt und beide Satzteile werden akzentuiert.37 Die Strategie wurde in dieser Ausarbeitung operationalisiert, indem die Gedankenstriche herausgefiltert und gezählt wurden.

3. Erläuterung des Python-Skripts

3.1 Vorverarbeitung

Zum Schreiben dieses Programmes wurde Python in der Version 3.8.3rc1 mit der integrierten Entwicklungsumgebung Thonny verwendet. Zu Beginn der Implementierung (a.) wurde das Modul re mit regulären Ausdrücken38 sowie die Bibliothek spaCy importiert, die verschiedene linguistische Algorithmen zur Verarbeitung natürlichsprachlicher Texte enthält.39

Anschließend wurde das Untersuchungskorpus in der Variablen textfile gespeichert (b.) und das deutsche Sprachmodell de_core_news_sm von spaCy in die Variable nlp geladen:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Variablen

Die erste Funktion liest das Textkorpus ein (c.1):

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Einlesen des Korpus

Im nächsten Schritt wurde eine Funktion zur Bereinigung des Korpus geschrieben (c.2):

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Bereinigung des Korpus

Mit der Methode lower() werden alle Großbuchstaben in Kleinbuchstaben umgewandelt. Der reguläre Ausdruck re.sub("[\W|\d]", " ", preparedText) ersetzt jedes Zeichen, das kein Unicode-Wortzeichen ist und jede Zahl durch ein Leerzeichen. Mit dem regulären Ausdruck re.sub("\s\s+", " ", preparedText) werden die doppelten Leerzeichen, die durch den vorherigen Schritt entstanden sind, entfernt. Die Variable preparedText wird zurückgegeben. Sie beinhaltet alle Wörter des Korpus in Kleinschreibung, ohne Interpunktion und Zahlen. Die Variable wurde erstellt, da für einige Funktionen der Textanalyse das bereinigte Korpus benötigt wurde. Für andere Funktionen, wie zum Beispiel das Ermitteln der Anzahl an Fragesätzen, wurde der unbereinigte Text mit Satzzeichen benötigt. Hierfür wurde in den jeweiligen Funktionen die Variable text, die den unbereinigten Text enthält, als Eingabewert verwendet.

3.2 Morphologische Ebene

Auf morphologischer Ebene wurden anhand von drei Funktionen zuerst die Diminutive summiert. Diminutive sind immer Substantive,40 deshalb filtert die erste Funktion (d.1.1) die Substantive mit einem Part-of-Speech (POS) Tagger heraus. POS-Tagging ist „die Zuweisung von Wortartenlabels, die man als Part-of Speech-Tags […] bezeichnet, zu einzelnen Items im Korpus.“41 Grundlage für die Zuweisung sind Tagsets.42 In dieser Arbeit wurde der POS-Tagger von spaCy verwendet, der das Annotationsschema TIGER Treebank anwendet.43 Der POS-Tagger wurde wie folgt in die Funktion eingebaut:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Herausfiltern der Substantive mit dem POS-Tagger

Um die linguistischen Annotationen über Methoden abzufragen, wurde das Modul nlp aufgerufen, auf den vorverarbeiteten Text angewendet und in der Variable doc gespeichert. Anschließend wurde eine Liste mit Nomen erstellt und in der Variable Nouns gespeichert. Diese Liste wurde erstellt, indem die Substantive mit dem POS-Tag NOUN herausgefiltert wurden. Die Variable Nouns ist der Rückgabewert und dient für die beiden folgenden Funktionen als Eingabeparameter. Alternativ hätte als Parameter für die zwei folgenden Funktionen auch der vorverarbeitete Text (Variable preparedText) verwendet werden können. Die Eingabe wurde jedoch bewusst auf Substantive beschränkt, um die Anzahl fehlerhafter Bestimmungen zu reduzieren, denn neben Diminutiven enden zahlreiche andere Wörter mit den Suffixen -chen oder -lein, wie ‚abgleichen‘.

Die zweite Funktion (d.1.2) gibt die Diminutive gemeinsam mit ihrer jeweiligen Anzahl in einem Dictionary aus:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Funktion zur Ausgabe der einzelnen Diminutive mit ihrer Anzahl in einem Dictionary

Zunächst wurde ein leeres Dictionary (diminutiveDictionary) erstellt. Ein Dictionary ist ein Datentyp, der aus Schlüssel-Objekt-Paaren (Key-Value-Paaren) besteht.44 Der Datentyp wurde gewählt, da so im Gegensatz zu einer Liste nicht nur die Namen der Diminutive ausgegeben werden, sondern die Namen der Diminutive (Schlüssel) gemeinsam mit ihrer Anzahl (Objekt). Ein Schlüssel-Wert-Paar in diesem Dictionary sieht zum Beispiel folgendermaßen aus: 'skandälchen': 1. Dieses Dictionary ermöglicht es im Rahmen der Auswertung der Ergebnisse einzuschätzen, wie viele der als Diminutive deklarierten Wörter tatsächlich Diminutive sind, da auch andere Nomen auf ‚-chen‘ oder ‚-lein‘ enden. Nach dem Erstellen des leeren Dictionary wurde mit einer for-Schleife über jedes Element, d.h. jedes Nomen, in der Liste Nouns iteriert. In der Schleife wurde die Variable diminutive erstellt, die mit der Methode endswith() für jedes Element der Liste ermittelt, ob es auf die Suffixe -chen oder -lein endet. Die Methode endswith() liefert als Ergebnisse die booleschen Werte True oder False zurück. Für alle Elemente (Nomen), die in der Variablen diminutive den booleschen Wert true liefern, wurde mit einer if-Bedinung festgelegt: Wenn das Element (Nomen) noch nicht in dem Dictionary diminutiveDictionary ist, füge es hinzu. Falls das Elemente (Nomen) schon in dem Dictionary diminutiveDictionary ist, erhöhe den Zähler um eins.

Die dritte Funktion (d.1.3) berechnet die Gesamtanzahl der Diminutive im Korpus:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Funktion zur Ermittlung der Gesamtanzahl der Diminutive

Zunächst wurde in der Variablen countDiminutive ein ‚Counter‘ angelegt und mit dem Wert 0 initialisiert. Mit einer For-Schleife wurde über jedes Element in der Liste Nouns iteriert und der Counter immer um eins erhöht, wenn das Element, also das Nomen, mit dem Suffix -chen oder -lein endet. Die Variable countDiminutive wird zurückgegeben und liefert die Gesamtanzahl der Diminutive im Korpus.

Das zweite Analysekriterium auf morphologischer Ebene sind Superlative. Analog zu dem Vorgehen bei den Diminutiven wurden hier zunächst die Adjektive mit einem POS-Tagger herausgefiltert, da Superlative immer Adjektive sind:45

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Herausfiltern der Adjektive mit dem POS-Tagger

Diese Funktion (d.2.1) ist identisch zu der Funktion find_Nouns() der Diminutive (d.1.1) mit dem Unterschied, dass die Adjektive mit dem POS-Tag ADJ herausgefiltert wurden. Die Variable Adjektive, die eine Liste aller Adjektive enthält, ist der Rückgabewert und dient für die beiden folgenden Funktionen als Eingabeparameter. Auch hier hätte alternativ der vorverarbeitete Text (preparedText) als Eingabeparameter verwendet werden können. Dies hätte zu vielen fehlerhaften Zuordnungen geführt, da es einige Wörter gibt, die mit den Suffixen -sten oder -ste enden und keine Superlative sind, wie ‚Abgabefristen‘, ‚Verluste‘ oder ‚fasten‘.

Die zweite Funktion (d.2.2) gibt die Superlative, analog zu der zweiten Funktion der Diminutive (d.1.2), gemeinsam mit ihrer jeweiligen Anzahl in einem Dictionary aus:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: Funktion zur Ausgabe der einzelnen Superlative mit ihrer Anzahl in einem Dictionary

Anschließend wurde konform zu der dritten Funktion der Diminutive (d.1.3) eine Funktion erstellt, die die Gesamtanzahl der Superlative im Korpus berechnet (d.2.3):

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 9: Funktion zur Ermittlung der Gesamtanzahl der Superlative

Die Funktionen d.2.2 und d.2.3 sind, bis auf die Endungen in der Methode endswith(), identisch zu den Funktionen d.1.2 und d.1.3 der Diminutive und werden deshalb nicht erneut beschrieben.

3.3 Syntaktische Ebene

Bei der Analyse auf syntaktischer Ebene wurde zuerst die durchschnittliche Wortanzahl pro Satz berechnet. Hierfür wurden drei Funktionen geschrieben. Die erste Funktion berechnet die Anzahl der Sätze (e.1.1):

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 10: Berechnung der Gesamtanzahl an Sätzen

Als Argument dient die Variable text mit dem unbereinigten Korpus, denn zur Ermittlung der Satzanzahl wird der unbereinigte Text mit Satzzeichen benötigt. Zur Berechnung wurde zunächst eine Variable end_of_record erstellt, der als Wert ein String bestehend aus den drei Satzzeichen ‚.?!‘ zugewiesen wurde. Anschließend wurde eine Variable countSentences als ‚Counter‘ mit dem Wert 0 initialisiert. Mit einer For-Schleife wurde über jedes Zeichen in dem unbereinigten Text (text) iteriert und der Zähler countSentences um 1 erhöht, wenn das Zeichen sich in der Variablen end_of_record finden lässt, also ein Satzzeichen ist.

Mit der zweiten Funktion (e.1.2) wurde die Anzahl der Wörter berechnet:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 11: Berechnung der Gesamtanzahl an Wörtern

Diese Funktion erhält als Argument den bereinigten Text (preparedText), da die Satzzeichen hier nicht relevant sind. Der bereinigte Text wurde mit der Methode split() an jedem Leerzeichen getrennt, sodass eine Liste (words) erstellt wurde, in der jedes Wort ein Listenelement ist. Die Anzahl der Wörter (countWords) konnte nun ermittelt werden, indem die Anzahl der Elemente in der Liste mit der Funktion len() berechnet wurde.

Mit der dritten Funktion (e.1.3) wurde die durchschnittliche Wortanzahl pro Satz berechnet, indem die Anzahl der Wörter (countWords) mit der Funktion int() in einen Integer umgewandelt und durch die Anzahl der Sätze (countSentences) geteilt wurde:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 12: Berechnung der durchschnittlichen Wortanzahl pro Satz

Als zweites wurde auf syntaktischer Ebene der prozentuale Anteil der Aufforderungs- und Ausrufe- und Fragesätze an der Gesamtanzahl der Sätze berechnet. Dazu wurden zunächst die Aufforderungs- und Ausrufesätze gezählt:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 13: Berechnung der Gesamtanzahl an Aufforderungs- und Ausrufesätzen

Wie die Funktion (e.2.1) zeigt, wurde als Indikator für die Berechnung das Satzzeichen ‚!‘ gewählt. Erneut wurde ein ‚Counter‘ erstellt und mit dem Wert ‚ 0‘ initialisiert. Anschließend wurde über jedes Zeichen des unbereinigten Textes (text) iteriert und der Counter (CountExclamatorySentences) immer um eins erhöht, wenn das Zeichen sich in der Variablen end_of_record befindet, also ein Ausrufezeichen ist. Analog dazu wurde auch die Anzahl der Fragesätze ermittelt (e.2.2). Hier wurde der Variablen end_of_record ein ‚ ?‘ als Wert zugewiesen.

Der prozentuale Anteil der Aufforderungs- und Ausrufesätze an der Gesamtanzahl der Sätze wurde berechnet, indem die Anzahl der Aufforderungs- und Ausrufesätze (CountExclamatorySentences) durch die Gesamtanzahl der Sätze (countSentences) geteilt und mit 100 multipliziert wurde (e.2.3):

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 14: Berechnung des prozentualen Anteils der Aufforderungs- und Ausrufesätze an der Gesamtanzahl der Sätze

Analog dazu wurde der prozentuale Anteil der Fragesätze an der Gesamtanzahl der Sätze berechnet (e.2.4).

Die Anzahl an Doppelpunkten im Korpus wurde wie folgt ermittelt (e.3):

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 15: Berechnung der Anzahl an Doppelpunkten

Zuerst wurde eine Variable colon erstellt, der als Wert der String ‚:‘ zugewiesen wurde. Danach wurde ein ‚Counter‘ (CountDashs) erstellt und mit dem Wert ‚ 0‘ initialisiert. Mit einer For-Schleife wurde über jedes Zeichen im unbereinigten Text (text) iteriert und der Zähler für jedes Zeichen, dass sich in der Variablen colon befindet, also ein Doppelpunkt ist, um eins erhöht.

Analog dazu wurde die Anzahl an Gedankenstrichen ermittelt (e.4):

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 16: Berechnung der Anzahl an Gedankenstrichen

Die in 3.2 und 3.3 beschrieben Funktionen werden im folgenden Kapitel aufgerufen.

3.4 Main

In der Hauptfunktion main() (f.) wurden alle zur Analyse des Korpus erstellten Funktionen aufgerufen und die Ergebnisse mit dem Befehl print() in der Shell ausgegeben:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 17: Hauptfunktion

4. Ergebnisse

4.1 Darstellung in der Shell

Die Ergebnisse wurden in der Shell wie folgt dargestellt:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 18: Darstellung der Ergebnisse in der Shell

Eine einfache Ausgabe in der Shell ist ausreichend, da mit den Daten nicht weitergearbeitet wird. Hätten mit den Daten weitere statistische Analysen durchgeführt werden sollen, wäre eine Darstellung als Dataframe oder ein Export in eine CSV-Datei besser geeignet gewesen.

4.2 Auswertung und Reflexion

Im Folgenden werden die Ergebnisse der linguistischen Analyse quantitativ ausgewertet und parallel dazu Schwächen des Programmes analysiert. Die Ergebnisse der quantitativen Analyse sind in der folgenden Tabelle dargestellt:

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Ergebnisse der linguistischen Analyse der Emotionalisierungen (eigene Darstellung)

Die emotionalisierenden Strategien Diminutive und Superlative konnten mehrfach im Korpus gefunden werden. Insgesamt waren es 67 Diminutive und 40 Superlative. In Relation zur Gesamtanzahl der Wörter (15205) ist ihr Anteil jedoch gering. Der Anteil der Diminutive an der Gesamtanzahl der Wörter beträgt 0,44 Prozent und der Anteil der Superlative 0,26 Prozent. Die Aussagekraft der Ergebnisse ist einzuschränken, da es sowohl bei den Diminutiven als auch bei den Superlativen fehlerhafte Bestimmungen gab. Bei den Diminutiven sind nur die als Diminutiv eingeordneten Substantive ‚teilchen' und 'skandälchen' tatsächlich Diminutive. Bei allen anderen handelt es sich um Nomen, die zwar auf die Suffixe -chen oder -lein enden, aber keine Diminutive sind, wie ‚epochen‘ oder ‚wochen‘. Folglich kann dem Korpus kein emotionalisierendes Potential aufgrund des Einsatzes von Diminutiven zugewiesen werden, denn zwei Diminutive sind bei einer Wortanzahl von 15205 Wörtern mathematisch vernachlässigbar. Bei den Superlativen hat die Zuordnung zuverlässiger funktioniert, es gab lediglich vier fehlerhafte Zuordnungen: ‚unterbewussten‘, ‚faschisten‘, ‚robusten‘ und ‚erlösten‘. Insgesamt wurden, abzüglich der vier fehlerhaft bestimmten, 36 Superlative gefunden. Diese Anzahl ist bei einer Wortanzahl von 15205 nicht auffallend hoch, deutet aber dennoch auf eine leichte Tendenz zur Emotionalisierung hin.

Die durchschnittliche Wortanzahl beträgt 14,86 Wörter pro Satz. Dieser Wert liegt über der durchschnittlichen Satzlänge im Schriftdeutschen, die zwölf Wörter pro Satz beträgt.46 Die durchschnittliche Satzlänge ist leicht nach oben verfälscht, da die Sätze anhand der Interpunktionen Punkt, Fragezeichen und Ausrufezeichen gezählt wurden. Die Überschriften der Artikel sind jedoch auch Sätze, enden aber nicht mit einer Interpunktion und wurden deshalb nicht als einzelner Satz gezählt. Dieses Problem ließe sich lösen, indem hinter jede Überschrift manuell ein Semikolon eingefügt wird und dieses in der Funktion mit ausgewertet wird. Im Rahmen der vorliegenden Arbeit hat die Autorin diese Abweichung aufgrund der kleinen Korpusgröße von 20 Artikeln, d.h. 20 Überschriften, jedoch als mathematisch vernachlässigbar erachtet. Bei größeren Korpusanalysen müssten entsprechende Anpassungen durchgeführt werden. Zusammenfassend wurde im Untersuchungskorpus keine emotionalisierende Wirkung aufgrund eines kurzatmigen Satzbaus nachgewiesen.

Der prozentuale Anteil der Aufforderungs- & Ausrufesätze an der Gesamtanzahl der Sätze beträgt 1,56 Prozent und der Anteil der Fragesätze 6,55 Prozent. Insgesamt sind folglich 8,11 Prozent der Sätze keine Aussagesätze. Die emotionalisierende Strategie Aufforderungs-, Ausrufe- und Fragesätze kann im Korpus zwar nachgewiesen werden, die dadurch entstehende emotionalisierende Wirkung ist aufgrund des geringen Anteils (8,11 Prozent) jedoch schwach. Laut Mittelberg wirkt eine Syntax insbesondere dann, wenn sie von Aufforderungs-, Ausrufe- und Fragesätzen dominiert wird, emotionalisierend.47 In dem Untersuchungskorpus dominiert der Anteil an Aussagesätzen mit 91,89 Prozent jedoch deutlich.

Die Anzahl an Doppelpunkten (161) und Gedankenstrichen (184) ist im Korpus hoch. Der ermittelte Wert der Gedankenstriche ist nach oben verfälscht, da im Skript alle Bindestriche gezählt wurden, d.h. auch diejenigen, die nicht als Gedankenstriche, sondern zur Verbindung zweier Wörter eingesetzt wurden. Aufgrund der hohen Werte und der minimalen Verfälschungen ist dennoch anzunehmen, dass durch diese zwei Strategien Emotionalisierungen erzeugt wurden.

5. Fazit

In der vorliegenden Arbeit wurde ein Python-Skript erstellt mit dem Ziel, den Einsatz sprachlicher Strategien der Emotionalisierung in der ZEIT ONLINE zu analysieren. Konkret sollte die Frage beantwortet werden, welche emotionalisierenden, sprachlichen Strategien in Artikeln der ZEIT ONLINE vorhanden sind.

Zusammenfassend lässt sich sagen, dass den Artikeln der ZEIT ONLINE ein schwach emotionalisierendes Potential zugeschrieben werden kann. Ein stark emotionalisierendes Potential wird ausgeschlossen, da nur vier der sechs untersuchten, emotionalisierenden Strategien im Korpus bestätigt werden konnten und zwei der vier nachweisbaren Strategien in sehr geringem Ausmaß vorkamen. Nicht im Korpus zu finden waren die Strategien Diminutive und kurzatmiger Satzbau. Die Strategien Superlative und Aufforderungs-, Ausrufe- und Fragesätze wurden zwar eingesetzt, ihr Anteil war im Verhältnis zur Korpuslänge jedoch gering. Deshalb ist ihr emotionalisierendes Potential begrenzt. Eindeutig emotionalisierendes Potential haben die Strategien Doppelpunkte und Gedankenstriche, die im Verhältnis zur Korpuslänge in hoher Anzahl nachgewiesen werden konnten. Vergleicht man die Ergebnisse dieser Arbeit mit denen der Analyse der BILD-Zeitung von Voss, so lässt sich zeigen, dass das emotionalisierende Potential in der ZEIT ONLINE deutlich geringer ist als das in der BILD-Zeitung.48

Die Gültigkeit der Ergebnisse ist jedoch einzuschränken. Für allgemeingültige Ergebnisse wäre die Analyse eines größeren Korpus und weiterer sprachlicher Strategien der Emotionalisierung erforderlich gewesen, wie zum Beispiel direkte Rede, Doppelkonstruktionen oder ein affektischer Wortschatz.49 Auch die technischen Schwächen des Programmes, die die Ergebnisse teilweise verfälscht haben, müssten ausgebessert werden. Eine Möglichkeit, um die Suche nach Diminutiven zuverlässiger zu gestalten wäre zum Beispiel, anstatt einer Suffixsuche eine Liste mit Diminutiven in das Programm einzulesen und jedes Wort aus dem Korpus mit dieser Liste abzugleichen.

Aus der vorliegenden Arbeit ergeben sich zahlreiche interessante Themen für Anschlussarbeiten, zum Beispiel eine größere Korpusanalyse, die Strategien der Emotionalisierung einer nachrichtenjournalistischen mit einer boulevardjournalistischen Zeitung vergleicht. Interessant ist auch die Frage, inwiefern sich verschiedene Zeitungen des Nachrichtenjournalismus in ihrem Emotionalisierungspotential unterscheiden. Ferner wäre ein interessantes, aktuelles Thema die Untersuchung der Emotionalisierungstendenzen in der Berichterstattung zu COVID-19. Hier würde es sich insbesondere anbieten zu untersuchen, in welchem Ausmaß affektische Wörter eingesetzt werden. Dies könnte operationalisiert werden, indem jedes Wort des Untersuchungskorpus mit der Bibliothek spaCy lemmatisiert und anschließend geprüft wird, ob das Wort in Dornseiffs Werk Der deutsche Wortschatz nach Sachgruppen in dem Kapitel Fühlen. Affekte. Charaktereigenschaften. vorkommt.50 Auch Sentiment-Analysen eigen sich zur Untersuchung von Emotionalisierungstendenzen. Hierfür könnte die deutschsprachige NLP-Bibliothek textblob-de verwendet werden, die sich allerdings noch im Entwicklungsstadium befindet. 51

Wie die vorliegende Arbeit gezeigt hat, eigenen sich Python-Programme gut als Analysewerkzeug für quantitative, linguistische Analysen. Es bleibt gespannt abzuwarten, inwiefern Python-Programme in Zukunft für linguistische Analysen genutzt werden und wie sich entsprechende Python-Bibliotheken weiterentwickeln bzw. neue Bibliotheken entstehen werden.

Literaturverzeichnis

Primärliteratur

Bahnsen, Ulrich. „Covid-19: Bin ich Blutgruppe 0?“Die Zeit 26/2020. 17. Juni 2020, Abschn. Wissen. https://www.zeit.de/2020/26/covid-19-krankheitsverlauf-blutgruppe-0.

Böhm, Andrea, Heike Buchter, und Michael Thumann. „Coronavirus in den USA: Verletzliche Supermacht“. Die Zeit 14/2020. 25. März 2020, Abschn. Wirtschaft. https://www.zeit.de/2020/14/coronavirus-usa-gesundheitssystem-versicherung-versorgung.

Buchter, Heike. „Ölpreise: Plastik statt Benzin“. Die Zeit 4/2020. 21. Januar 2020, Abschn. Wirtschaft. https://www.zeit.de/2020/04/oelpreise-golfstaaten-usa-fracking-technologie-exxonmobil-plastikproduktion/komplettansicht.

Dieckmann, Christoph. „Manfred Stolpe: Ein Mann mit zwei Leben“. Die Zeit 2/2020. 2. Januar 2020, Abschn. Politik. https://www.zeit.de/2020/02/manfred-stolpe-brandenburg-ministerpraesident-tod-nachruf.

Finger, Evelyn. „Papst Benedikt XVI.: Ratzinger, gegen seine Liebhaber verteidigt“. Die Zeit 20/2020. 6. Mai 2020, Abschn. Gesellschaft. https://www.zeit.de/2020/20/papst-benedikt-xvi-joseph-ratzinger-skandale.

Flügge, Erik. „Gesellschaftsbild: Katholische Zeitreisen“. Die Zeit 40/2020. 25. September 2020, Abschn. Gesellschaft. https://www.zeit.de/2020/40/gesellschaftsbild-katholische-kirche-frauen-tenet-film.

Fulterer, Ruth. „Pink Lady: Diese Äpfel werden überwacht“. Die Zeit 34/2020. 17. August 2020, Abschn. Wirtschaft. https://www.zeit.de/2020/34/pink-lady-apfel-sorte-anbau-landwirtschaft-kontrolle/komplettansicht.

Hähnig, Anne. „Maskenpflicht in Jena: Die Masken-Wut“. Die Zeit 30/2020. 16. Juli 2020, Abschn. Gesellschaft. https://www.zeit.de/2020/30/maskenpflicht-jena-corona-krisenmanagement/komplettansicht.

Hartung, Manuel J. „Abitur: Der Zweifel“. Die Zeit 16/2020. 7. April 2020, Abschn. Wissen. https://www.zeit.de/2020/16/abitur-pruefungen-corona-krise-zweifel.

Krupa, Matthias. „Europäische Union: Gesicht gewahrt“. Die Zeit 32/2020. 30. Juli 2020, Abschn. Politik. https://www.zeit.de/2020/32/europaeische-union-sondergipfel-viktor-orban-eu-kommission/komplettansicht.

Kümmel, Peter. „Theater: Geheimnisvolle Spiele im Nebel“. Die Zeit 28/2020. 1. Juli 2020, Abschn. Kultur. https://www.zeit.de/2020/28/theater-corona-krise-kirill-serebrennikow.

Lau, Mariam. „CSU: Der neue Mr. Ernsthaft“. Die Zeit 22/2020. 20. Mai 2020, Abschn. Politik. https://www.zeit.de/2020/22/csu-markus-soeder-ministerpraesident-bayern.

Löbbert, Raoul. „Katholische Kirche: Kein Wort mehr zum Missbrauch? Doch!“Die Zeit 10/2020. 26. Februar 2020, Abschn. Gesellschaft. https://www.zeit.de/2020/10/katholische-kirche-sexueller-missbrauch-canisius-kolleg.

Rauterberg, Hanno. „Berlin Biennale: Hoffen auf Heilung“. Die Zeit 38/2020. 10. September 2020, Abschn. Kultur. https://www.zeit.de/2020/38/berlin-biennale-ausstellung-zeitgenoessische-kunst-esoterik.

Rauterberg, Hanno. „Moderne Kunst: Reißt euch die Masken ab“. 18/2020. 26. April 2020, Abschn. Kultur. https://www.zeit.de/2020/18/moderne-kunst-radikalitaet-wirklichkeit.

Rohwetter, Marcus. „SpaceX: Raketen sind keine Schwimmbäder“. Die Zeit 24/2020. 6. Juni 2020, Abschn. Wirtschaft. https://www.zeit.de/2020/24/spacex-falcon-9-rakete-iss-raumstation-menschliche-errungenschaft.

Schmitt, Stefan. „Klimaziel 2020: Europas Werk, Coronas zweifelhafter Beitrag“. Die Zeit 36/2020. 27. August 2020, Abschn. Wissen. https://www.zeit.de/2020/36/klimaziel-2020-corona-pandemie-europa-klimaschutz.

Schmitt, Stefan, und Anna-Lena Scholz. „Spanische Grippe: ‚Die Mutter aller Pandemien‘“. Die Zeit 6/2020. 2. Februar 2020, Abschn. Wissen. https://www.zeit.de/2020/06/spanische-grippe-virus-seuche-pandemie/komplettansicht.

Soboczynski, Adam. „Uwe Tellkamp: Es muss doch ein Problem geben“. Die Zeit 8/2020. 13. Februar 2020, Abschn. Kultur. https://www.zeit.de/2020/08/uwe-tellkamp-lava-sachsen-literatur.

Thumann, Michael. „Griechenland: Worte wie Waffen“. Die Zeit 12/2020. 12. März 2020, Abschn. Politik. https://www.zeit.de/2020/12/griechenland-tuerkei-fluechtling-konflikt-lesbos.

[...]


1 Anmerkung: Die Literaturverwaltung wurde in dieser Arbeit mit dem Programm Zotero vorgenommen. Zitiert wurde in der deutschen Zitierweise mit dem Zitierstil Chicago Manual of Style. Aus Gründen der besseren Lesbarkeit verwendet diese Arbeit sprachlich das generische Maskulinum und impliziert gleichermaßen die weibliche Form.

2 Vgl. Cornelia Voss, Textgestaltung und Verfahren der Emotionalisierung in der BILD-Zeitung (Frankfurt am Main [u.a.]: Lang, 1999). S. 104

3 Vgl. Christoph Neuberger und Peter Kapern, Grundlagen des Journalismus (Wiesbaden: Springer VS, 2013). S. 31; Dagmar Lorenz, Journalismus, 2. Aufl., Sammlung Metzler (J.B. Metzler, 2009). S. 158.

4 Vgl. Neuberger und Kapern, Grundlagen des Journalismus. S. 31.

5 Vgl. Heike Ortner, Text und Emotion: Theorie, Methode und Anwendungsbeispiele emotionslinguistischer Textanalyse (Tübingen: Narr, 2014). S. 13. Voss, Verfahren der Emotionalisierung in der BILD-Zeitung. S. 20.

6 Vgl. Dieter Ulich, Das Gefühl: eine Einführung in die Emotionspsychologie, 2., durchges. und erg. Aufl. (München: Psychologie-Verl-Union, 1989). S. 29.

7 Vgl. Ortner, Text und Emotion. S. 14.

8 Vgl. Monika Schwarz-Friesel, Sprache und Emotion, 2. Aufl. (Tübingen / Basel, 2013). S. 57.

9 Voss, Verfahren der Emotionalisierung in der BILD-Zeitung. S. 20.

10 Vgl. Voss. S. 20.

11 Vgl. Voss. S. 22.

12 Vgl. Schwarz-Friesel, Sprache und Emotion. S. 130.

13 Vgl. Schwarz-Friesel. S. 134.

14 Vgl. Helmut Glück und Michael Rödel, Hrsg., Metzler Lexikon Sprache, 5. Aufl. (Stuttgart, 2016). S. 446.

15 Vgl. Andreas Wittwen, Infotainment: Fernsehnachrichten zwischen Information und Unterhaltung (Bern [u.a.]: Lang, 1995). S. 134; Ortner, Text und Emotion. S. 190-191; Voss, Verfahren der Emotionalisierung in der BILD-Zeitung. S. 58. Wittwen, Infotainment. S. 134.

16 Vgl. Glück und Rödel, Metzler Lexikon Sprache. S. 697.

17 Vgl. Wittwen, Infotainment. S. 134; Voss, Verfahren der Emotionalisierung in der BILD-Zeitung. S. 37-41, 44-46.

18 Vgl. Schwarz-Friesel, Sprache und Emotion. S. 212-213.

19 Vgl. Claudia Mast, Hrsg., ABC des Journalismus: ein Handbuch, 11., überarb. Aufl. (Konstanz: UVK-Verl-Ges, 2008). S. 259.

20 Vgl. Ortner, Text und Emotion. S. 190.

21 Vgl. Glück und Rödel, Metzler Lexikon Sprache. S. 151.

22 Vgl. Glück und Rödel. S. 151.

23 Vgl. Ortner, Text und Emotion. S. 191; Voss, Verfahren der Emotionalisierung in der BILD-Zeitung. S. 58; Wittwen, Infotainment. S. 134.

24 Voss, Verfahren der Emotionalisierung in der BILD-Zeitung. S. 58.

25 Vgl. Hadumod Bußmann, Lexikon der Sprachwissenschaft, 2., völlig neu bearb. Aufl. (Stuttgart: Kröner, 1990). S. 756.

26 Vgl. Glück und Rödel, Metzler Lexikon Sprache. S. 690.

27 Vgl. Ekkehart Mittelberg, Wortschatz und Syntax der Bild-Zeitung (Marburg: Elwert, 1967). S. 183; Voss, Verfahren der Emotionalisierung in der BILD-Zeitung. S. 37; Wittwen, Infotainment. S. 134.

28 Vgl. Voss, Verfahren der Emotionalisierung in der BILD-Zeitung. S. 38.

29 Vgl. Wolf Schneider, Deutsch für Profis (Hamburg: Goldmann, 1986). S. 82.

30 Vgl. Voss, Verfahren der Emotionalisierung in der BILD-Zeitung. S. 37.

31 Mittelberg, Wortschatz und Syntax der Bild-Zeitung. S. 194.

32 Vgl. Voss, Verfahren der Emotionalisierung in der BILD-Zeitung. S. 44-45.

33 Vgl. Glück und Rödel, Metzler Lexikon Sprache. S. 161.

34 Vgl. Voss, Verfahren der Emotionalisierung in der BILD-Zeitung. S. 44-45.

35 Glück und Rödel, Metzler Lexikon Sprache. S. 224.

36 Vgl. Voss, Verfahren der Emotionalisierung in der BILD-Zeitung. S. 45.

37 Vgl. Voss. S. 45.

38 Vgl. Ralph Steyer, Programmierung in Python: Ein kompakter Einstieg für die Praxis (Springer Vieweg, 2018). S. 198.

39 Vgl. Yuli Vasiliev, Natural Language Processing with Python and SpaCy: A Practical Introduction (No Starch Press, 2020). S. 20.

40 Vgl. Glück und Rödel, Metzler Lexikon Sprache. S. 151.

41 Swantje Westpfahl, POS-Tagging für Transkripte gesprochener Sprache: Entwicklung einer automatisierten Wortarten-Annotation am Beispiel des Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) (Tübingen: Narr Francke Attempto, 2020). S. 13.

42 Vgl. Westpfahl. S. 13.

43 Vgl. „Annotation Specifications. Schemes Used for Labels, Tags and Training Data.“, spaCy API Documentation, zugegriffen 19. August 2020, https://spacy.io/api/annotation.

44 Vgl. Steyer, Programmierung in Python. S. 129.

45 Vgl. Bußmann, Lexikon der Sprachwissenschaft. S. 756.

46 Vgl. Schneider, Deutsch für Profis. S. 82.

47 Vgl. Mittelberg, Wortschatz und Syntax der Bild-Zeitung. S. 194.

48 Vgl. Voss, Verfahren der Emotionalisierung in der BILD-Zeitung. S. 36-41, S. 44-46, S.58-59.

49 Vgl. Voss. S. 62; Wittwen, Infotainment. S. 134.

50 Vgl. Franz Dornseiff, Der deutsche Wortschatz: Der deutsche Wortschatz nach Sachgruppen (Berlin: De Gruyter, 2020, 2020). S. 301-338.

51 Vgl. Markus Killer, „Textblob-de Documentation, Release 0.4.4a1“, 2019, https://readthedocs.org/projects/textblob-de/downloads/pdf/latest/. S. 1.

Ende der Leseprobe aus 74 Seiten

Details

Titel
Emotionalisierungen im Nachrichtenjournalismus. Eine linguistische Analyse der ZEIT ONLINE in Python
Hochschule
Universität Trier
Veranstaltung
Programmieren 1: Textprozessieren
Note
2,0
Autor
Jahr
2020
Seiten
74
Katalognummer
V988104
ISBN (eBook)
9783346346711
ISBN (Buch)
9783346346728
Sprache
Deutsch
Schlagworte
python, programmieren, thonny, Linguistik, Korpusanalyse, ZEIT ONLINE, Emotionalisierungen, Nachrichtenjournalismus, Morphologie, Syntax, spaCy, Natural Language Processing, NLP
Arbeit zitieren
Amelie Probst (Autor), 2020, Emotionalisierungen im Nachrichtenjournalismus. Eine linguistische Analyse der ZEIT ONLINE in Python, München, GRIN Verlag, https://www.grin.com/document/988104

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Emotionalisierungen im Nachrichtenjournalismus. Eine linguistische Analyse der ZEIT ONLINE in Python



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden