Verfasst ein Wissenschaftler, ein Lehrer oder auch ein Schüler einen Text, ist es wichtig, dass dieser Text für denjenigen, der ihn lesen soll, verständlich ist.
Um Lehr- oder Gebrauchstexte verständlicher zu machen, wurden verschiedene Verständlichkeitskonzeptionen entwickelt. In dieser Arbeit soll die schriftliche Ausarbeitung zum Thema „Frequentielle Lesbarkeitsanalyse“ folgen.
Beginnen möchten wir mit dem Konzept der Lesbarkeitsforschung. Hierzu zählen unter anderem die Verständlichkeit von Texten, die Lesbarkeitsformeln, mit deren Hilfe solch eine Verständlichkeit hergestellt oder diese leichter gemacht wird. Außerdem stellen wir verschiedene Konzeptionen einiger Forscher über Verständlichkeit dar.
Im zweiten Teil gehen wir näher auf die Software für Textanalysen, speziell auf das Programm TextQuest, ein.
Inhaltsverzeichnis
Einleitung
1. Das Konzept der Lesbarkeitsforschung
1.1 Verständlichkeit von Texten
1.2 Lesbarkeits- und Verständlichkeitsformeln und ihre Verwendung
1.3 Verständlichkeitskonzeptionen
1.3.1 Die Hamburger Verständlichkeitskonzeption
1.3.2 Die Verständlichkeitskonzeption von Groeben
1.3.3 Die Verständlichkeitskonzeption von Kintsch und Vipond
2. TextQuest – Software für Textanalysen
Schluss
Literaturverzeichnis
Einleitung
Unserem Referat zugrunde liegend, soll nun die schriftliche Ausarbeitung zum Thema „Frequentielle Lesbarkeitsanalyse“ folgen.
Beginnen möchten wir mit dem Konzept der Lesbarkeitsforschung. Hierzu zählen unter anderem die Verständlichkeit von Texten, die Lesbarkeitsformeln, mit deren Hilfe solch eine Verständlichkeit hergestellt oder diese leichter gemacht wird. Außerdem stellen wir verschiedene Konzeptionen einiger Forscher über Verständlichkeit dar.
Im zweiten Teil gehen wir näher auf die Software für Textanalysen, speziell auf das Programm TextQuest, ein.
1. Das Konzept der Lesbarkeitsforschung
1.1 Verständlichkeit von Texten
Verfasst ein Wissenschaftler, ein Lehrer oder auch ein Schüler einen Text, ist es wichtig, dass dieser Text für denjenigen, der ihn lesen soll, verständlich ist.
Um Lehr- oder Gebrauchstexte verständlicher zu machen, wurden verschiedene Verständlichkeitskonzeptionen entwickelt, welche sich in zwei Richtungen verzweigen. Entweder sind sie empirisch induktiv, dass heißt, dass sie anwendungsorientiert sind. Hier versucht man, aus dem Text die verständnisfördernden Bedingungen zu finden und dann, aufgrund der Textmerkmale, eine Prognose über die Verständnisleistungen zu machen. In dieses Feld gehört auch das Konzept der Lesbarkeitsforschung.
Sind sie theoretisch deduktiv, stützen sie sich auf theoretische Annahmen über den Ablauf von Verstehensprozessen. Grundlage dafür ist die Theorie der Textverarbeitung. Hier zählt beispielsweise die Verständlichkeitskonzeption von Groeben (1972) hinein, welche weiter unten näher vorgestellt wird. Um die Konzeptionen darstellen und sie mittels Leser-Text-Interaktion bewerten zu können, werden Lesbarkeits- und Verständlichkeitsformeln verwendet. Diese sind problemlos anwendbar und erfassen primär die Leseleichtigkeit. So konnten Oberflächenmerkmale berücksichtigt und Lehrtexte weiterentwickelt werden.
Allerdings sind sie nicht geeignet für die Unterscheidung zwischen einer geordneten und einer ungeordneten Reihenfolge von Wörtern und Sätzen. Außerdem sind Prädiktoren und Kriterien, auf deren Grundlage solch eine Formel entwickelt wird, in keiner Theorie der Textverarbeitung verankert. Noch dazu werden statt Verarbeitungsprozessen korrelative Zusammenhänge berücksichtigt.
Trotz alledem spricht man heute von einer „Wiedergeburt“ der Lesbarkeitsformeln, da neue hochwertige EDV-Programme für den Umgang mit Formeln entwickelt wurden. Große textproduzierende Unternehmen beispielsweise setzen solche Programme oft als Filter ein, um grobe Verständlichkeitsmängel aufzudecken. Jedoch kann hier nur auf kleinere Hinweise zurückgegriffen werden, da aus den Formeln nur ableitbar ist, wann kurze bekannte Wörter und kurze Sätze verwendet werden sollen. Dies ist also nur eine sehr einfache Anweisung und für Lehrtexte mit komplizierten Inhalten kaum realisierbar.
1.2 Lesbarkeits- und Verständlichkeitsformeln und ihre Verwendung
Seit den dreißiger Jahren arbeiten Forscher an Formeln, mit denen sie die Lesbarkeit und die Verständlichkeit von Texten messen.
Die Verständlichkeit eines Textes kann nur in Bezug zum Leser oder zu den Lesegruppen bestimmt werden.
Aus Kriterien, wie Behaltensleistung, Lesegeschwindigkeit und aus Urteilen von Experten wird mittels multipler Regression eine Formel abgeleitet, um später eine Vorhersage über die Verständlichkeit machen zu können. Zur Vereinfachung beschränkte man sich auf leicht zählbare Textmerkmale wie Wortschwierigkeit und Satzkomplexität. Das heißt, dass Verständlichkeit ein textimmanentes Merkmal ist und sich auf lexikalische und syntaktische Eigenschaften des Textes beschränkt.
Um sich eine Vorstellung davon machen zu können, ist zu erwähnen, dass es allein fünfzig Formeln für den angloamerikanischen Bereich gibt.
Die gebräuchlichste Formel ist die von Flesch[1] (1948). Bei ihm spielt die durchschnittliche Wortlänge und die Satzlänge eine wesentliche Rolle. Zur Berechnung genügt eine Stichprobe in Höhe von einhundert Wörtern. Es gilt ein Intervall von [120; 0], in dem 120 sehr leicht verständlich, und 0 sehr schwer verständlich bedeutet. Diese Formel wurde damals für die englische Sprache entwickelt.
Amstadt[2] hat 1978 die ursprüngliche Formel von Flesch überarbeitet und für die deutsche Sprache modifiziert. Wie bei Flesch spielen auch hier Wortlänge und Satzlänge eine Rolle, allerdings mit anderer Gewichtung. Die Satzlänge wurde aufgewertet, weil deutsche Wörter, nicht aber deutsche Sätze, länger sind als in der englischen Sprache. Weiterhin änderte er Konstante, um eine Streubreite der Lesbarkeitswerte zwischen [100; 0] zu erreichen, die bei Flesch von [120; 0] geht. Bei Textstichproben in Schulbüchern und Zeitschriftenartikeln fand er eine Streubreite von nur [96; 6], wobei 96 für sehr leicht verständlich, und 6 für sehr schwer verständlich steht. Speziell für die deutsche Sprache wurden unter anderem Formeln von Briest 1946, 1976 von Bosshart und 1977 von Steinwer[3] entwickelt.
Da die elektronische Datenverarbeitung eine große Anzahl an lexikalischen und semantisch-syntaktischen Prädiktoren berücksichtigen kann, arbeiteten die Autoren drei Formeln aus. Die erste ist eine exakte Formel, in welche 25 Prädiktoren eingehen. Die zweite ist eine Computerformel, bei der für die maschinelle Auswertung der Texte ausschließlich mit Prädiktoren gerechnet wird. Die dritte ist eine Handformel, bei welcher wiederum nur leicht erhebbare Prädiktoren berücksichtigt werden können. Grundlage waren sechzig Texte mit rund zweihundert Wörtern und das Vorhersagekriterium war der Lückentext.
Die Dokumentationen der Lesbarkeitsformeln sind nicht immer identisch. Da auch in der Literatur fehlerhafte Angaben gemacht werden, können überall Fehler auftreten.[4]
1.3 Verständlichkeitskonzeptionen
1.3.1 Die Hamburger Verständlichkeitskonzeption
Beginnen wir mit der Hamburger Verständlichkeitskonzeption. Schulz von Thun, Goebel und Tausch als Vertreter dieser Konzeption kritisierten den Ansatz der Lesbarkeitsforschung als zu eng. Sie wollten die Textverständlichkeit unter Verwendung von Expertenurteilen mittels Ratings ermitteln. Zumindest in Deutschland gilt dieses als empirisch gesichertes Verfahren.
[...]
[1] s. Anhang S.I Punkt 1.
[2] s. Anhang S.I Punkt 2.
[3] s. Anhang S.I Punkt 3.
[4] Harald Klein, Lesbarkeitsformeln und ihre Implementierung in TextQuest. September 2002, S.9
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.