Zur Diffusion von DAB


Thesis (M.A.), 2004

104 Pages, Grade: 2,0 - gut


Excerpt


Inhaltsverzeichnis

Referat, Abstract

Abbildungsverzeichnis

Tabellenverzeichnis

1 Einleitung

2 Zur Diffusionstheorie
2.1 Diffusion als spezieller Fall von Kommunikation
2.2 Aspekte der Diffusion technischer Innovationen in der Telekommunikation
2.3 Ansichten zur Prognostizierbarkeit technischer Innovationen in der Telekommunikation

3 DAB - der neue Standard für Hörfunkübertragungen?
3.1 Die Entwicklung von Digital Audio Broadcasting
3.2 Technischer Stand von DAB
3.3 Prognosen zur Zukunft von DAB und die Realität

4 Wer würde von DAB profitieren?
4.1 Interessenlage der Empfangsgeräteindustrie und des Handels
4.2 Interessenlage der Netzbetreiber
4.3 Interessenlage der Werbewirtschaft
4.4 Interessenlage der Programmanbieter
4.5 Interessenlage der Zulassungsbehörden
4.6 Interessenlage der Rezipienten

5 Anlage der Untersuchung
5.1 Forschungsstand
5.2 Fragestellung
5.3 Operationalisierung
5.4 Fragebogendesign
5.5 Entscheidung für eine Telefonumfrage
5.6 Stichprobendesign
5.7 Datenauswertung

6 Ergebnisse der Untersuchung
6.1 Kennzahlen zum Stand der Diffusion von DAB
6.2 Einflussfaktoren auf den Diffusionsprozess von DAB

7 Fazit
7.1 Interpretation der Untersuchungsergebnisse
7.2 Zukunftsszenarien für DAB
7.3 DAB - am Anfang oder am Ende?

Abkürzungsverzeichnis

Literaturverzeichnis

Anhang - Fragebogen der Untersuchung

Erklärung des Verfassers

Referat:

Ziel dieser Arbeit ist es, aufbauend auf den theoretischen Konzepten zur Diffusion von Innovationen den derzeitigen Stand der Markteinführung von Digital Audio Broadcasting (DAB) zu überprüfen. Dazu wird ein neues Erhebungsinstrument entwickelt, das in einer Pilotstudie erste Anwendung findet. Die dabei gewonnenen Daten geben Aufschluss über die bisherige Diffusion von DAB, allerdings in einem räumlich eng begrenzten Untersuchungsgebiet. Ferner identifizieren sie Einflussfaktoren auf diesen Diffusionsprozess. Basierend auf diesen Ergebnissen werden notwendige Änderungen der Markteinführungs­strategie sowie mögliche Szenarien einer Zukunft dieser Technologie entworfen.

Abstract:

This paper aims to examine the current rollout level of Digital Audio Broadcasting (DAB), based on the theoretical concepts of the diffusion of innova­tions. Therefore a new measuring instrument is developed and used in a pilot study. Data gained in this survey show the previous diffusion of DAB, admittedly in very endemic area under investigation. Furthermore factors influencing this diffusion process are identified. Based on these results the author constructs necessary changes in the strategy of market introduc­tion as well as possible scenarios of this technology’s future.

Abbildungsverzeichnis

6-1 Bedarfsindikator „Zufriedenheit mit dem rausch- und störungsfreiem Empfang von terrestrischem UKW“

6-2 Abbildung 6-2: Bedarfsindikator „Zufriedenheit mit der Klangqualität von terrestrischem UKW“

6-3 Bedarfsindikator „Zufriedenheit mit der Anzahl und Vielfalt der über terrestrisches UKW empfangbaren Programme“

6-4 Bedarfsindikator „Einschätzung der Notwendigkeit von Zusatzdiensten“

6-5 „DAB“ und/oder „Digitalradio“ kennende Befragte in den verschiedenen Altersgruppen

Tabellenverzeichnis

6-1 Wissensstand zu „DAB“ und/oder „Digitalradio“ nach Geschlecht.

6-2 Wissensstand zu „DAB“ und/oder „Digitalradio“ nach formaler Bildung.

6-3 Wissensstand zu „DAB“ und/oder „Digitalradio“ nach Häufigkeit des Hörens von „Rockland Sachsen-Anhalt“.

6-4 Bedarf nach Zusatzdiensten auf einem Bildschirm am Radio nach Alter.

1 Einleitung

Terrestrischer Hörfunk ist im Zeitalter der „Digitalisierung des Medienbereichs“ (Vowe/Will 2004: 11) eine der letzten Inseln analoger Informationsübertragung. Eventuell aber nicht mehr lange. Nach Planungen des Bundes und der Länder soll der in Deutschland dann mehr als 60 Jahre alten UKW-Technik spätestens im Jahr 2015 „administrativ der Hahn abgedreht“ (Kleinsteuber 2001: 329) werden. Terrestrischer Hörfunk wäre ab diesem Datum, abgesehen von Übertragun­gen auf Mittel-, Kurz- und Langwelle, nur noch über den neuen Standard Digital Audio Broadcasting zulässig.

Diese Technik des DAB ist seit Mitte der 1980er Jahre unter deutscher Feder­führung in einem europäischen Projekt entwickelt worden. Erklärtes Ziel dieses Projektes war es, mit der Einführung des neuen Standards „die Position der europäischen Unterhaltungselektronikindustrie zu stärken und verlorene Märkte zurück zu erobern“ (Vowe/Will 2004: 92). Schließlich gibt es nach unterschiedlichen Schätzungen allein in deutschen Haushalten zwischen 150 und 400 Millionen auf die UKW-Technik ausgelegte Radioempfangsgeräte (vgl. u.a. Ott 2003, Vowe/Will 2004: 12).

Eine Umstellung aller Hörfunk-Übertragungen auf den nicht mit UKW kompatiblen Übertragungsstandard DAB würde sämtliche dieser Geräte „faktisch entwerten“ (Vowe/Will 2004: 12). Die Deutschen würden aber auf das von ihnen am meisten genutzte Massenmedium (vgl. Josse 2002: 1, Klingler/Müller 2003: 415) sicher nicht verzichten wollen und deshalb im Idealfall alle ihre Geräte durch neue ersetzen. So die Überlegungen, mit denen Bund, Länder und EU ihre Sub­ventionen von bislang insgesamt 250 Millionen Euro (vgl. Ott 2003) in ein deut­sches DAB-Sendernetz als Unterstützung der europäischen Geräteindustrie rechtfertigten. Im Ergebnis dieser Investitionen gibt es nunmehr im zehnten Jahr in vielen Bundesländern über DAB ausgestrahlte Radioprogramme. Seit mehr als fünf Jahren haben diese auch nicht mehr den Status von Testsendungen, son­dern den eines Regelbetriebs.

Allerdings hört immer noch (beinahe) niemand zu. Während in der neueren wis­senschaftlichen Literatur der Tenor zu erkennen ist, damit sei die Markt­einfüh­rung von DAB zumindest vorerst „gescheitert“ (Vowe/Will 2004: 21), halten seine Lobbyisten unbeirrt optimistisch daran fest, „dass sich DAB unaufhaltsam durch­setzen wird“ (Herker 2003: 93). Dabei bauen sie offenbar nicht nur auf einen Er­folg „am Markt“ (Vowe/Will 2004: 35), sondern auch darauf, dass DAB nach wie vor ein „Politprojekt“[1] (zitiert nach Kleinsteuber 2001: 323) ist.

Doch die politische Unterstützung von DAB scheint inzwischen nicht mehr von der in den 1990er Jahren vorherrschenden Euphorie geprägt, als der damalige Bundeswirtschaftsminister Werner Müller noch „die hervorragenden Klang­eigen­schaften, die Flexibilität dieses innovativen Systems und die mitgelieferten nütz­lichen Zusatzinformationen“ (ebd.) lobte. Heute scheint es mehr darum zu gehen, die bislang getätigten öffentlichen Investitionen in das System nicht ab­schreiben zu müssen. „Wir sind bekanntermaßen Spezialisten im Versäumen von Techno­logien“, befürchtet Bundeswirtschaftsminister Wolfgang Clement (zitiert nach Ott 2003).

Dabei wird die technologische Qualität dieses Systems selbst von dessen här­testen Kritikern gelobt: „Vom Ansatz her ist DAB […] ein durchdachtes System für digitale Radioübertragung und wahrscheinlich das bis jetzt am besten getestete“, analysiert etwa Bischoff. Dennoch sei es lediglich „eine von Techni­kern vorange­triebene Entwicklung, für die der unmittelbare Bedarf beim Publikum wenig er­sichtlich ist“ (Bischoff 2001: 5). An dieser Stelle setzt die vorliegende Arbeit an. Aufbauend auf den medien- und kommunikationswissenschaftlichen Theorien zur Diffusion von Innovationen un­tersucht sie den status quo von DAB und erörtert dessen Zukunftschancen.

Dazu werden in Kapitel 2 die theoretischen Grundlagen der Diffusionsforschung vorgestellt. Es wird auf die speziellen Eigenschaften von Diffusionsprozessen bei Telekommunikationstech­nologien eingegangen. Die Modelle werden vorgestellt, anhand derer eine Prognose des Verlaufs solcher kommunikativer Prozesse möglich sein soll. Diese Modelle werden kritisch hinterfragt. Dabei zeigt sich, dass und warum Vorhersagen zur Diffusion von Telekommunikations­technologien in der Vergangenheit regelmäßig gescheitert sind.

Kapitel 3 beginnt mit einem Exkurs zu technischen Besonderheiten von DAB und Hintergründen von dessen Entwicklung. Dieses Vorgehen soll die folgenden Überlegungen zu den speziell für diese Telekommunikationstechnologie erstellten Prognosen nachvollziehbarer gestalten. Vorhersagen aus der Vergangenheit werden vorgestellt und mit der inzwischen eingetretenen Realität verglichen. Dabei werden erhebliche Divergenzen deutlich.

Dennoch, zeigt Kapitel 4, werden die bisher sichtbaren Ausprägungen des Diffusionsverlaufs äußerst kontrovers beurteilt. Einige Forscher und Praktiker sind nach wie vor euphorisch, andere haben offenbar längst resigniert. Begründungen dafür liefert ein Diskurs zu den unterschiedlichen Interessenlagen der einzelnen Marktakteure.

Die theoretischen Überlegungen zur Interessenlage der größten Gruppe poten­tieller Marktakteure, nämlich der Radiohörer, sowie der tatsächliche Stand der Diffusion sollen im Anschluss daran empirisch untersucht werden. Dazu wird in Kapitel 5 zunächst das Vorgehen in den bislang wenigen und wenig umfang­reichen Untersuchungen zum Thema begutachtet. Darauf aufbauend wird ein neues Erhebungsinstrument konstruiert. Es werden Fragestellung und Hypo­thesen formuliert. Operationalisierung und Makroplanung werden dargelegt. Die Entscheidung für eine Telefonumfrage wird begründet. Es werden das Stich­probendesign sowie das Vorgehen bei der Datenauswertung erläutert.

Das entwickelte Erhebungsinstrument wird in einer Pilotstudie eingesetzt. Kapitel 6 präsentiert deren Ergebnisse. Sie zeigen, wie weit die Diffusion von DAB im Untersuchungsgebiet tatsächlich vorangeschritten ist. Sie offenbaren aber auch, warum die Entwicklung bislang nicht anders verlaufen ist und identifizieren Fehler in der bisherigen Marketingstrategie für Digital Audio Broadcasting.

Aufbauend auf diesen Ergebnissen werden in Kapitel 7 Strategien aufgezeigt, die den weiteren Diffusionsverlauf positiv beeinflussen könnten. Basierend auf diesen Strategien werden mögliche Szenarien zur Zukunft von DAB skizziert. Dabei sollen keine genauen Prognosen abgegeben werden. Es wird jedoch deut­lich, dass ein Markterfolg des Systems aus heutiger Sicht eher fraglich erscheint.

2 Zur Diffusionstheorie

Während etwa Spieltheorie (vgl. u.a. Werle 1995: 135ff.), Transaktionskostentheorie (vgl. u.a. Dietrich 1994: 15ff.) oder Marketingtheorie (vgl. u.a. Kotler/Bliemel 2001: 441f.) Chancen und Fortgang der Ausbreitung von Innovationen in der für sie bestimmten Zielgruppe unter wirtschaftswissenschaftlichen Gesichtspunkten untersuchen, nähern sich die Kommunikationswissenschaften diesen Aspekten mit Hilfe der Diffusionsforschung (vgl. Kiefer 1967: 3ff.). Im Folgenden wird zunächst deren theoretisches Fundament vorgestellt. Im Anschluss daran wird auf spezielle Aspekte der Diffusion von Innovationen in der Telekommunikation eingegangen. Schließlich wird aufgezeigt, welche prognostischen Anwendungsmöglichkeiten Modellen der Diffusionstheorie auf diesem speziellen Gebiet zugesprochen werden.

2.1 Diffusion als spezieller Fall von Kommunikation

Jeder neuen Idee, jeder neuen Erfindung, jeder neuen Praxis, jeder Entdeckung steht zum Zeitpunkt ihrer „Geburt“ ein ungewisses Schicksal bevor. Vielleicht wird sie unser aller Leben beeinflussen. Vielleicht wird nie jemand von ihr erfahren. Vielleicht liegt ihre Zukunft irgendwo dazwischen. Diesem Prozess der „Ausbreitung einer neuen Idee von der Quelle ihrer Entdeckung bis hin zu ihren letzten Benutzern oder Übernehmern“ (Kaas 1973: 2) widmet sich die Forschung, die ihrem Forschungsgegenstand in Anlehnung an dessen naturwissenschaftliche Bedeutung[2] den Namen „Diffusion“ (vgl. u.a. Rogers 2003: 1ff., Kaas 1973: 1ff.) gegeben hat. In seiner in der Literatur als Standard allgemein anerkannten Definition umreißt Rogers diesen Begriff wie folgt: „Diffusion is the process in which an innovation is communicated through certain channels over time among the members of a social system.” (Rogers 2003: 5).

Oft beschränken sich die Untersuchungen solcher Prozesse lediglich auf die Betrachtung der Absatzzahlen neuer Produkte (vgl. u.a. Hesse 1987: 1ff.). Der Innovationsbegriff kann jedoch auch deutlich weiter gefasst werden (vgl. Kortmann 1995: 30), neue Verhaltensweisen (vgl. u.a. Kaas 1973: 2), neue Informationen (vgl. u.a. Rogers 2003: 79), sogar neue Meinungen und Einstellungen einschließen (vgl. Fantapié Altobelli 1990: 2).

Ob die Klassifizierung einer Idee als Innovation dabei objektiv messbar ist, darüber herrscht in der Literatur Uneinigkeit. Verschiedentlich ist versucht worden, Kriterien dafür zu finden, etwa eine Idee dann als neu zu erklären, wenn sie in einem bestimmten geografischen Gebiet (noch) weniger als zehn Prozent Verbreitung gefunden hat (Bodenstein 1971: 58). Kaas plädiert für einen ähnlichen Ansatz, der allerdings interindividuelle Divergenzen in der Bewertung von Innovationen berücksichtigt. Für jeden einzelnen Konsumenten sei ein Produkt so lange neu, „wie er es noch nicht gekauft bzw. konsumiert hat“ (Kaas 1973: 2). Anhand solcher Begriffsbestimmungen ohne zeitliche Dimension wären jedoch auch individuell als alt empfundene Ideen Innovationen, nur weil diese nicht übernommen worden sind und unter Umständen auch nie übernommen werden. Anerkennend, dass der Neuheitsgrad einer Idee nicht „in physikalischen Dimensionen messbar“ (Bodenstein: 55) sei, halten deshalb viele Autoren für ausschlaggebend, dass eine Idee von potentiellen Übernehmern subjektiv als neu eingestuft wird (vgl. Böcker/Gierl 1988: 33). Rogers schreibt dazu: “If an idea seems new to an individual, it is an innovation” (Rogers 2003: 12). Das Problematische an dieser Definition ist allerdings, dass eine Meinung über eine Idee als notwendige Bedingung zumindest Kenntnis dieser erfordert. Die Untersuchung des Diffusionsprozesses setzt jedoch regelmäßig früher an. Hilfreicher wäre also unter Umständen eine Erweiterung dieses Innovationsbegriffs wie folgt: Eine Idee wird von einem Individuum dann als Innovation aufgefasst, wenn es sie als neu empfindet oder sie zum Zeitpunkt ihres ersten Kontaktes mit ihr als neu empfinden wird.

Entscheidend für dieses Empfinden, so Mahler und Stoetzer, seien dabei lediglich wahrgenommene Charakteristika der Innovation (vgl. Mahler/Stoetzer 1995: 7f.). Diese individuelle Wahrnehmung kann, muss sich aber nicht mit tatsächlichen Neuerungen decken. Bodenstein weist in diesem Zusammenhang darauf hin, es seien selbst „Innovationen denkbar, die nur aus einer veränderten Werbeargumentation, Preisstellung usw. resultieren, ohne dass die technisch-qualitativen Eigenschaften des Produktes berührt werden“ (Bodenstein 1971: 56).

Wahrgenommene Neuheit einer Innovation beinhaltet für jeden potentiellen Übernehmer immer einen gewissen Grad an Unsicherheit (vgl. Rogers 2003: 14) über das in ihr enthaltene Risiko (vgl. Donelly 1970: 113). Dieses Risiko besteht vor allem in eventuell nicht oder zu gering vorhandenem Brutto- und Nettonutzen (vgl. Vowe/Will 2004: 70) bei einer Übernahme, sowohl in der wirtschaftlichen als auch in der sozialen Dimension (vgl. Kaas 1973: 57). Dieser Unsicherheit während des „innovation-decision process“ (Rogers 2003: 14) bzw. der „Adoptionsperiode“ (Kiefer 1967: 67, Kaas 1973: 13), also der Zeit zwischen erster Kenntnis von einer Innovation bis zu einer individuellen Entscheidung pro oder contra Übernahme der Idee, begegnen Individuen durch „information-seeking and information-processing activity“ (Rogers 2003: 14). Basis dafür ist nach Ansicht der Diffusionsforschung immer Kommunikation, sowohl massenmedial vermittelte als auch interpersonelle (Bodenstein 1971: 93ff.). Nach Ansicht von Kaas sei darüber hinaus auch Imitation als eine Form der den Diffusionsprozess beeinflussenden Kommunikation zu werten (Kaas 1973: 37). Rogers geht sogar so weit zu sagen, der komplette Diffusionsprozess sei „a particular part of communication in which the message content that is exchanged is concerned with a new idea” (Rogers 2003: 18).

Der zeitliche Prozesscharakter dieser speziellen Kommunikation wird besonders deutlich an ihrer von einigen Autoren vorgenommenen Unterteilung in verschiedene, allerdings nicht klar trennbare und auch nicht immer vollzählig vorhandene Phasen. So beschreibt Kiefer in chronologischer Reihenfolge die Stufe des Gewahrwerdens, die Stufe des Interesses, die Stufe des Bewertens, die Versuchsstufe sowie die Annahmestufe (Kiefer 1967: 40f.) als Teile der Adoptionsperiode. Rogers hat diese Phasen später um die Möglichkeit des Scheiterns einer Diffusion erweitert. Er unterscheidet nun Wissens-Stufe, Bewertungs-Stufe, Entscheidungs-Stufe, Implementierungs-Stufe sowie Bestätigungs-Stufe. (vgl. Rogers 2003: 169) Die jeweilige Länge der gesamten Adoptionsperiode und ihrer einzelnen Phasen sei dabei je nach potentiellem Übernehmer und je nach beobachteter Innovation verschieden. Als ein besonders schnelles Beispiel führt Rogers die Nachricht über die Terroranschläge vom 11. September 2001 an. Diese Neuigkeit sei nahezu im gesamten beobachteten sozialen System binnen weniger Stunden diffundiert (ebd.: 79ff.). Hellige hingegen beschreibt am Beispiel des Telefons eine Innovation, deren Diffusion in größeren Teilen des beobachteten sozialen Systems mehr als 70 Jahre gedauert habe (vgl. Hellige 1995: 197). Abhängig, so Kaas, sei die Länge der einzelnen Phasen von verschiedenen Faktoren. Unter anderem hebt er als entscheidend Art, Eigenschaften und Normen des sozialen Systems hervor, in dem die Diffusion beobachtet wird. Auf diesem Gebiet gebe es leider nach wie vor zu wenig Forschung, bemängelt Rogers. Er verweist aber gleichzeitig unter anderem auf eine eigene Studie, die Kaas’ Einschätzung belegt (vgl. Rogers 2003: 25f.). Konstituierend, merkt er darüber hinaus an, seien dafür vor allem kommunikative Strukturen innerhalb dieser Systeme (ebd.: 24f.).

Kaas stellt fest, generell vollziehe sich das Durchlaufen der verschiedenen Stufen der Adoptionsperiode stets unter „permanentem Kommunikationseinfluss“ (Kaas 1973: 35). Die jeweilige Wichtigkeit der verschiedenen Kommunikationseinflüsse divergiere dabei je nach Stufe. Rogers verallgemeinert, „mass media channels are relatively more important at the knowledge stage, and interpersonal channels are relatively more important at the persuasion stage in the innovation-decision process” (Rogers 2003: 205). Bodenstein schränkt jedoch ein, generell anwendbare Regeln gebe es nicht. Gelegentlich zeigten Studien auch ein komplett gegensätzliches Bild (vgl. Bodenstein 1973: 95f.).

Einig scheinen sich aber die meisten Forscher darin, interpersoneller Kommunikation in der Regel stärkeren Einfluss auf komplette Diffusionsprozesse zuzuschreiben als der Kommunikation über Massenmedien. „The diffusion of innovations is essentially a social process of people talking to people“ (Rogers 1995: 28), formuliert Rogers. Kaas beschreibt den Einfluss der Massenkommunikation in diesem Zusammenhang als „Wirkung einer extern sendenden Quelle, die auf das betrachtete System interpersoneller Kommunikation als Ganzes einwirkt“ (Kaas 1973: 37). Und Bodenstein weist darauf hin, bereits in den ersten Phasen des Adoptionsprozesses könnten „persönliche Einflüsse die der Massenmedien übersteigen“ (Bodenstein 1973: 95).

Dennoch sei der Einfluss massenmedial vermittelter Kommunikation auf den Diffusionsprozess nicht zu unterschätzen, proklamiert Rogers. Sie könnte in der Regel zwar lediglich schwache Einstellungen ändern, doch ihre Stärken lägen auf anderem Gebiet: „reach a large audience rapidly, create knowledge and spread information“ (Rogers 2003: 205). Darauf beschränke sich ihr Einfluss jedoch nicht, sie gäbe auch den größten Antrieb für potentielle Übernehmer einer Idee, von der Wissensstufe in die folgenden Stufen des Adoptionsprozesses zu wechseln (vgl. ebd.: 206). Und schließlich, das habe sich etwa bei einer Untersuchung zur Diffusion von Familienplanung in Bolivien gezeigt, könnte massenmedial vermittelte Kommunikation in Einzelfällen sogar die Rolle der interpersonellen Kommunikation komplett substituieren (ebd.: 207).

Im Normalfall gewinne jedoch im Verlauf des Diffusionsprozesses die Bedeutung interpersoneller Kommunikation immer mehr an Gewicht. Die meisten Individuen würden nämlich eine Entscheidung pro oder contra eine Innovation nicht nach Informationen treffen, die sie aus massenmedial vermittelter Kommunikation bezogen haben. „Instead, most people depend mainly upon a subjective evaluation of an innovation that is conveyed to them from other individuals like themselves who have already adopted the innovation” (ebd.: 18f.). Kiefer beschreibt diese verstärkte aktive Informationssuche durch interpersonelle Kommunikation als „einen mit den Adoptionsstufen parallel laufenden Trend“ (Kiefer 1967: 67). „Die von den unpersönlichen Medien vermittelten Informationen werden durch persönliche Medien interpretiert und die eventuelle Annahme legitimiert“ (ebd.: 69). Bodenstein sieht das Wirkungsmaximum dieser „Legitimationsfunktion […] im Stadium des Bewertens und der Auswahl unter den Alternativen“ (Bodenstein 1973: 93). Sie reiche jedoch darüber hinaus, meint Kiefer. Es gebe auch nach einer getroffenen Entscheidung über Übernahme oder Ablehnung einer Innovation weiter oder eventuell sogar noch mehr individuellen Bedarf nach interpersoneller Kommunikation darüber, „um eine potentielle oder schon vorliegende kognitive Dissonanz aufzulösen“ (Kiefer 1967: 70).

Zur vereinfachten Erklärung des Zusammenspiels von Massen- und interpersoneller Kommunikation ist immer wieder das auf Lazarsfeld zurückgehende Modell des Zwei-Stufen-Flusses von Kommunikation herangezogen worden (vgl. ebd.: 74ff., Bodenstein 1973: 88ff., Kaas 1973: 41ff., Rogers 2003: 300ff.). Auf die damit verbundenen Schwierigkeiten haben unter anderem Schenk, Dahm und Šonje hingewiesen. Es zeige weder eine Trennung in aktive und passive Meinungsführerschaft noch eine Trennung zwischen Information und Einfluss. Auch schenke es der Richtung des Informationsflusses, „Opinion Giving und Opinion Asking“, keine Beachtung. Man dürfe Meinungsführerschaft deshalb nicht als Dichotomie Meinungsführer versus Meinungsfolger sehen, sondern als Kontinuum, das durch Netzwerkanalysen sichtbar gemacht werden könne (vgl. Schenk/Dahm/Šonje 1996: 37f.). Ähnlich äußert sich Bodenstein, der Informationsfluss müsse als vielschichtiger Prozess gesehen werden (Bodenstein 1971: 117). Als Quintessenz der Lazarsfeldschen Theorie bleibt für die Diffusionsforschung jedoch nach einhelliger Meinung das Konzept der Meinungsführerschaft.

Ob einer Person Meinungsführerschaft zugesprochen werden könne, meint Bodenstein, hänge von mindestens drei Faktoren ab. Zum einen nennt er den Faktor „Person, wobei Einfühlungsvermögen, aktive Informationssuche und -abgabe, Ausbildung spezieller Interessen usw. im Vordergrund stehen.“ (ebd.: 115f.) Darüber hinaus beschreibt er als Faktoren den sozialen Status sowie die spezielle Situation. Innerhalb des gleichen sozialen Netzwerks könne ein Individuum in einer Situation Meinungsführer sein, in einem anderen Kontext wiederum nicht (ebd.). Ähnlich argumentiert Kaas: „Eine allgemeine Eigenschaft ‚Meinungsführerschaft’ gibt es nicht. Meinungsführer, die in mehreren Meinungsbereichen kompetent sind, treten allenfalls zufällig auf“ (Kaas 1973: 46). Rogers jedoch differenziert das etwas. Meinungsführerschaft könne einem Individuum durchaus unabhängig vom Thema relativ beständig zugesprochen werden: „Polymorphism is the degree to which an individual acts as an opinion leader for a variety of topics.“ (Rogers 2003: 314)

Dafür spricht, dass in Untersuchungen zu verschiedenen Themen immer wieder ähnliche Eigenschaften von Meinungsführern identifiziert werden konnten. Kaas schreibt, dass sozioökonomische Merkmale wie Einkommen, Bildung und beruflicher Status wahrscheinlich positiv mit Meinungsführerschaft korreliert seien. Das sei jedoch keineswegs ein Beleg für Modelle vertikaler Diffusion, wie die auf der Trickle-Down-Theorie (vgl. Fantapié Altobelli 1990: 28, Kiefer 1967: 85f.) aufbauenden. Vielmehr seien Meinungsführer „besonders typische Repräsentanten ihrer jeweiligen Umwelt“ (Kaas 1973: 44). Auch Rogers ist der Ansicht, Meinungsführer müssten in vielen Eigenschaften und Ansichten mit Meinungsfolgern übereinstimmen. Schließlich seien es gerade diese Gemeinsamkeiten, die sie überhaupt gegenseitig zu Mitgliedern ihrer sozialen Netzwerke mache (vgl. Rogers 2003: 305f.). Dennoch hätten Meinungsführer typischerweise einige Einstellungen und Merkmale, die sie von ihren Meinungsfolgern unterschieden. So bescheinigt Rogers ihnen mehr Kontakt zu Massenmedien, außerdem seien sie vergleichsweise kosmopolitischer als andere Mitglieder ihres sozialen Systems. Ihr eigenes soziales Netzwerk sei in der Regel größer als das ihrer Meinungsfolger und vor allem in generell innovationsaffirmativen sozialen Systemen seien auch die Meinungsführer tendenziell besonders innovativ. (ebd.: 316ff.)

Einen besonders hohen Anteil an Meinungsführern will Kaas deshalb unter den ersten Übernehmern einer Innovation ausgemacht haben. (vgl. Kaas 1973: 24f) Rogers hat diese „first 2.5 percent of the individuals in a system to adopt an innovation“ „Innovatoren” getauft (Rogers 2003: 280ff.). Dieser prozentualen Abgrenzung widerspricht Kaas nicht, merkt jedoch an, dass sie in der praktischen Feldforschung untauglich sei. Schließlich sei diese Einteilung erst möglich, nachdem der gesamte Diffusionsprozess abgeschlossen sei (Kaas 1973: 24). Die wissenschaftliche Betrachtung von Diffusionsprozessen findet in aller Regel jedoch deutlich früher statt. Kaas spricht Innovatoren diverse sozioökonomische, demografische und Persönlichkeitsmerkmale zu. Sie hätten in der Regel eine bessere Schulbildung, höheren Lebensstandard und einen qualifizierteren Beruf, sie seien wagemutiger, aktiver, selbstbewusster und weltoffener, sie hätten ein größeres soziales Netzwerk und nutzten Massenmedien umfangreicher als spätere Übernehmer (vgl. ebd.: 24f.). Auch Rogers beschreibt Innovatoren ähnlich. Ihr vergleichsweise größerer finanzieller Spielraum ermögliche ihnen mehr Risikobereitschaft gegenüber Innovationen, ihr größerer Bildungsstand helfe ihnen etwa beim Verständnis neuer komplexer Technologien (vgl. Rogers 2003: 282f.). Kaas vermutet daher, „dass es sich bei den Meinungsführern und Innovatoren um dieselben Leute handelt“ (Kaas 1973: 47f.) Dies könnte jedoch aus zwei Gründen voreilig sein. Zum einen ist bereits oben ausgeführt worden, dass es eine klare Trennung zwischen Meinungsführern und Meinungsfolgern gar nicht gibt, sondern lediglich graduelle Abstufungen in der Meinungsführerschaft einzelner Individuen innerhalb eines sozialen Systems. Zum anderen sehen die meisten Autoren die von Kaas den Innovatoren zugesprochenen besonders großen sozialen Netzwerke eben nicht, jedenfalls nicht auf lokaler Ebene. Kiefer etwa beschreibt Innovatoren als „cosmopolite clique“ (Kiefer 1967: 47), deren Bemühen nicht auf die Durchsetzung ihrer Ansichten und Meinungen in ihrer Heimat gerichtet sei. Sie würden sich vielmehr sogar relativ freiwillig von lokalen Interaktionen isolieren. Auch Rogers umreißt die Position von Innovatoren in lokalen sozialen Systemen als eher außen stehend (vgl. Rogers 2003: 290). Er sieht die grundlegende Funktion von Innovatoren in einem Diffusionsprozess denn auch im bloßen „Importieren“ der Innovation in ein System (ebd.: 283). Kiefer nennt das den „Demonstrationseffekt“, ohne jedoch Innovatoren Meinungsführerschaft komplett abzusprechen. Deren Grad sei aber in der den Innovatoren folgenden Übernehmergruppe deutlich größer. (Kiefer 1967: 47)

Kaas meint, Arndt folgend, „dass bei der Diffusion von Konsumgütern fast ausschließlich die Kategorie der Innovatoren, also die ersten Käufer interessieren“ (Kaas 1973: 24, vgl. Arndt 1968: 71ff.). Er betrachtet deshalb alle den Innovatoren nachfolgenden Übernehmer einer Innovation als eine Gruppe. In weiten Teilen der Literatur findet jedoch in Opposition dazu die Kategorisierung nach Rogers Unterstützung. Er grenzt als nächste Gruppe die den Innovatoren nachfolgenden 13,5 Prozent aller Übernehmer einer Innovation ab und nennt sie „early adopters“ (Rogers 2003: 280). Für Kiefer sind diese die „‚Mediatoren’ zwischen der innovativen Außenorientierung der Neuerer und der statischen Binnenorientierung der Mehrheit“ (Kiefer 1967: 48). Im Gegensatz zu den Innovatoren seien sie im Grad ihrer Innovativität nicht zu weit entfernt vom Durchschnitt des lokalen Systems, sie seien in ihm verwurzelt und genössen deshalb darin deutlich mehr Respekt, notiert Rogers. „Potential adopters look to early adopters for advice and information about an innovation“ (Rogers 2003: 283). Auch Kiefer und Bodenstein sehen unter den „early adopters“ die besonders starken Meinungsführer (vgl. Kiefer 1967: 76, Bodenstein 1971: 88f.). Letztendlich, das scheint breiter Konsens in der Literatur, stehe und falle der Erfolg einer Innovation in einem bestimmten sozialen System mit deren Übernahme durch diese Gruppe. „In one sense, early adopters put their stamp of approval on a new idea by adopting it” (Rogers 2003: 283).

Eine dritte Übernehmerkategorie nennt Rogers die “early majority”. In diese Gruppe zählt er jene 34 Prozent aller Übernehmer einer Innovation, die nach den „early adopters“, aber noch vor dem Durchschnitt aller Übernehmer eine Innovation adoptieren (ebd.: 280f.). Diese seien Neuem gegenüber schon weitaus bedachter und hielten vergleichsweise weniger lokale Führungspositionen inne, analysiert Bodenstein diese Gruppe (Bodenstein 1971: 90). Wegen ihrer kommunikativen Nähe zu den stärksten Meinungsführern eines Systems sowie ihrer zahlenmäßigen Größe erklärt Rogers die „early majority“ zu einem „important link in the diffusion process“ (Rogers 2003: 284). Als „late majority“ betitelt Rogers die 34 Prozent aller Übernehmer einer Innovation, die auf die „early majority“ folgen und damit schon später als der Durchschnitt eine Innovation adoptieren (ebd.: 281). Diese Skeptiker, so Bodenstein, übernehmen Innovationen erst dann „wenn die Neuerung wirtschaftlich unumgänglich ist und von den vorangegangenen Gruppen als erfolgreich demonstriert und sozial legitimiert worden ist“ (Bodenstein 1971: 48). Rogers formuliert über die „late majority” noch etwas deutlicher: „The pressure of peers is necessary to motivate adoption“ (Rogers 2003: 284).

Als letzte, so Rogers, übernähmen „laggards“ eine Innovation (Rogers 2003: 281). Bodenstein bescheinigt dieser Gruppe „nur eingeschränkt formale lokale Interaktionen“, „häufig generations- und bildungsbedingte Handicaps und/oder bewussten Konservativismus“ (Bodenstein 1971: 49). Darüber hinaus hätte sie relativ zu den anderen Mitgliedern ihres sozialen Systems weniger sozialen Status und Einkommen. Gerade diese letztgenannte Eigenschaft sei einer der wichtigsten Gründe für das Verhalten von Individuen als „laggards“, so Rogers. „The laggard’s precarious economic position forces the individual to be extremely cautios in adopting innovations” (Rogers 2003: 284f.).

Mitgliedern aller dieser Gruppen gemeinsam scheinen einige Kriterien zu sein, nach denen sie über Annahme oder Ablehnung von Innovationen entscheiden. „These five attributes of innovations are relative advantage, compatibility, complexity, triability, and observability”, fasst Rogers zusammen (ebd.: 223). Obwohl diese Liste in der Literatur vielfach übernommen worden ist (vgl. u.a. Mahler/Stoetzer 1995: 7f.), hat sie doch der Diffusionstheorie auch Kritik eingebracht. Es bleibe unklar, in welchem Verhältnis diese von Rogers identifizierten Determinanten stehen, beanstanden etwa Schenk, Dahm und Šonje: „Besteht eine Rangreihe zwischen den Kriterien, aus der hervorgeht, ob in bestimmten Fällen die Kompatibilität einer Innovation bedeutsamer ist als der relative Vorteil, den man aus ihr ziehen kann?“ (Schenk/Dahm/Šonje 1996: 41f.) Auch werde nicht deutlich, ob die Merkmale untereinander substituierbar seien und ob diese Liste erschöpfend sei. Deshalb könne die Qualität einer bestimmten Innovation nicht anhand einer verallgemeinerbaren Prüfung mit diesen Determinanten bestimmt werden. (ebd.)

2.2 Aspekte der Diffusion technischer Innovationen in der Telekommunikation

Müller definiert Telekommunikation als „Kommunikation mit Hilfe nachrichtentechnischer Übertragungsverfahren über räumliche Entfernungen hinweg“ (Müller 1995: 18). Anders als etwa Rogers (vgl. Rogers 1995: 29) schließt sie mit dieser Definition, der hier gefolgt werden soll, ausdrücklich neben der Individualkommunikation auch die Massenkommunikation ein. Beiden gemeinsam sei, dass ihre technischen Systeme aus Übertragungs- und Vermittlungseinrichtungen bestünden, „die zusammen das Telekommunikationsnetz im engeren Sinne bilden, sowie den Endgeräten und den eigentlichen Telekommunikationsdiensten“ (Müller 1995: 20).

Prägend für deren Diffusionsprozess, so Schoder, sei die ihnen eigene Güterklassifikation als Netzeffektgüter in Abgrenzung zu Singulärgütern (Schoder 1995: 74). Bei letzteren, führen Mahler und Stoetzer aus, sei der Nutzen durch die Übernahme für ein Individuum „völlig unabhängig von der Gesamtzahl“ aller Übernahmen im sozialen System (Mahler/Stoetzer 1995: 9). Implizite Effekte wie aus der Massenproduktion resultierende Preissenkungen und Qualitätssteigerungen oder auch Imagegewinne innerhalb des sozialen Systems müssten bei dieser Definition allerdings abstrahiert werden, darauf weist Weiber hin. Im Gegensatz zu Singulärgütern zeichnen sich Netzeffektgüter für ihn dadurch aus, dass „sie durch eine, wie auch immer geartete, Kombination mit anderen Gütern für den Nachfrager einen Zusatznutzen erzeugen.“ (Weiber 1995: 41) Darüber hinaus versucht Weiber noch die Abgrenzung einer dritten Kategorie neben Netzeffektgütern und Singulärgütern. Diese „Systemgüter“ hätten im Gegensatz zu den anderen „keinen originären Produktnutzen, sondern nur einen Derivatnutzen“ (ebd.: 43). Dieser Abgrenzung ist verschiedentlich gefolgt worden (vgl. Mahler/Stoetzer 1995: 8). Allerdings kann sie hier nicht nachvollzogen werden. So ordnet Weiber etwa Computer und Software wegen der beiden innewohnenden Zusatznutzen durch das jeweils komplementäre Gut den Netzeffektgütern zu. Eine Erklärung dazu, worin der originäre Nutzen eines Computers ohne Software bestehen soll, bleibt er jedoch schuldig. (vgl. Weiber 1992: 16)

Im Folgenden sollen daher wie bei Schoder Netzeffektgüter lediglich in Abgrenzung zu den Singulärgütern klassifiziert werden, und zwar durch die ihnen eigenen direkten und indirekten Netzeffekte. Zu den indirekten Effekten zählt Schoder etwa „durch Anbieter vermittelte komplementäre Güter, die ein sachlich, zeitlich und räumlich vielfältigeres Angebot an Inhalten und Systemkomponenten ermöglichen“ (Schoder 1995: 72ff.). Ihnen gegenüber zu stellen seien direkte Netzeffekte, die einen unmittelbaren Nutzenzuwachs bei den Teilnehmern mit zunehmender Nutzerzahl begründeten. Allerdings seien beide Arten von Netzeffekten „für die Diffusion von Neuerungen von erheblicher Bedeutung, da sie die Adoptionsentscheidung wesentlich beeinflussen“ (ebd.). Weiber fordert deshalb für den Bereich der Telekommunikation eine Ausweitung des Übernahmebegriffs. In der klassischen Diffusionstheorie sei das Ereignis der Adoption mit dem Erstkauf einer Produktinnovation assoziiert. Wegen der Bedeutung der Netzeffekte könne hier jedoch erst dann von einer Adoption gesprochen werden, wenn drei Entscheidungstatbestände erfüllt seien, nämlich Kaufakt, Anschlussakt und Nutzungsakt (vgl. Weiber 1995: 53).

Eine der Auswirkungen der Netzeffekte auf den Diffusionsprozess von Innovationen im Bereich der Telekommunikation ist für Rogers die besondere Bedeutung des Erreichens einer „critical mass“ an Übernehmern. „This point usually ranges somewhere between 10 percent adoption (as a minimum) and 25 percent (as a maximum)” (Rogers 1995: 31ff.). Bis zu diesem Punkt, meint Schoder, hänge die Adoptionsentscheidung vom erwarteten zukünftigen Verhalten potentieller, späterer Nutzer ab (Schoder 1995: 78). Habe jedoch erst einmal eine kritische Masse der potentiellen Übernehmer eine Innovation adoptiert, schreibt Rogers, werde die Diffusion im sozialen System ein sich selbst tragender Prozess (Rogers 1995: 31). Weiber nennt die von ihm klassifizierten Systemgüter deshalb auch „Kritische Masse-Systeme“ (Weiber 1992: 19). Da die Aussagen von Rogers und Schoder jedoch genauso auf Netzeffektgüter im weiteren Sinne übertragbar sind, können auch jene in diesem Sinne als „Kritische Masse-Systeme“ bezeichnet werden.

Eine weitere Auswirkung von Netzeffekten auf die Diffusion von Innovationen in der Telekommunikation hat Schoder in der „Pfadabhängigkeit“ (Schoder 1995: 88) ausgemacht. Oft gebe es zu Beginn der Diffusion zwar mehrere konkurrierende Alternativen zu einer Innovation. In deren Verlauf könne jedoch regelmäßig nur eine der Alternativen eine kritische Masse an Übernehmern erreichen. „Da es in einer derartigen Situation aus der Sicht des jeweiligen Adopters sinnvoller ist, an der relativ erfolgreichen diffundierten Innovation festzuhalten, ist der weitere Diffusionsverlauf vorbestimmt“ (ebd.). Dabei sei im Prinzip unerheblich, ob die erfolgreiche auch die technisch beste oder volkswirtschaftlich optimale Innovation sei. Ähnlich argumentiert Werle: „Dieser Wirkungsmechanismus unterstützt alte Techniken und deren Weiterentwicklung gegenüber neuen Techniken, auch wenn letztere effizienter sind“ (Werle 1994: 202). Diese theoretischen Überlegungen sind verschiedentlich durch empirische Untersuchungen untermauert worden (vgl. Garrone/Mariotti/Sgobbi 2002: 17ff.).

Besonders deutlich können sich Effekte der „Pfadabhängigkeit“ (Schoder 1995: 88) zeigen, wenn ein konkurrierendes, nicht kompatibles Telekommunikationssystem zum Zeitpunkt der Markteinführung der Innovation bereits weit im sozialen System diffundiert ist. In diesem Fall erwartet Weiber gerade in der Anfangsphase der Diffusion starke Marktwiderstände (Weiber 1995: 61). Hervorzuheben seien dabei zum einen „Applikationswiderstände“ gegen die Übernahme „aufgrund der funktionalen Eigenschaften eines Systems sowie der aus der Nutzung erwarteten negativen Konsequenzen“ (Weiber 1992: 85). Diese Widerstände seien auch dann zu erwarten, wenn der Nutzen innovativer Kritischer Masse-Systeme von den Nachfragern nicht wahrgenommen werde (ebd.). Dazu komme ein „Beharrungseffekt“ (Weiber 1995: 62) durch das hohe Erfahrungspotential mit dem etablierten Telekommunikationssystem. Neben den Applikationswiderständen spielten auch „Substitutionswiderstände“ eine Rolle (ebd.: 61). Darunter zählt Weiber etwa den Inkompatibilitätseffekt, der darin bestehe, „dass Zeit- und Kostenaufwand der Kommunikation zwischen Personen aus unterschiedlichen (inkompatiblen) Kritische Masse-Systemen höher sind als zwischen Mitgliedern desselben Systems“. (Weiber 1992: 91) Dieser Fakt könne einen „Verzögerungs- oder Pinguineffekt“ (Weiber 1995: 62) auslösen. Der bestehe darin, dass jeder potentielle Übernehmer erst einmal auf alle anderen warte, bevor er selbst die Innovation adoptiere. Aus diesen Gründen befinde sich die Diffusion vor dem Erreichen einer kritischen Masse an Übernehmern in einer „Instabilitätsphase“ (ebd.). Wie lange sich ein Kritische Masse-System während dieser Phase am Markt halten könne, das sei von der Stärke der Rückkopplungen zwischen den Systemteilnehmern abhängig. Deren „Kommunikationsdisziplin“ könnte zu einer „Marktbeharrungstendenz“ des innovativen Systems führen (ebd.: 64f.). Vor allem seien dabei die andauernden Anstrengungen der Anbieter des Systems zu berücksichtigen, die die im Bereich der Telekommunikation typischerweise besonders hohen und spezifischen Anfangsinvestitionen nicht verlieren wollten. Langfristig, schränkt Schoder ein, spreche jedoch gerade im Bereich der Netzeffektgüter alles für eine „Dichotomie der Ausbreitungsentwicklung“ (Schoder 1995: 92). Eine Zwischenlösung im Sinne einer Stagnation, also eines beschränkten Diffusionsgrades, sei dagegen nicht zu erwarten. Entweder gebe es vollständige Adoption, oder vollständige Nicht-Adoption. Weiber nennt letzteren Fall „Marktflop“ (Weiber 1995: 65).

Diese Möglichkeit der letztendlichen vollständigen Nicht-Adoption ist eine Besonderheit der Diffusion von Netzeffektgütern im weiteren Sinne sowie ein weiterer Beleg für die von Weiber vorgenommene Erweiterung des Adoptionsbegriffs. Das Adoptionsmerkmal Kauf der klassischen Diffusionstheorie sei nicht mehr reversibel, lediglich Wiederholungskäufe könnten ausfallen. Deshalb zeige da eine kumulierte Diffusionskurve zwangsläufig immer einen steigenden Verlauf. Dagegen könnten Kritische Masse-Systeme vor allem während der instabilen Phase wieder abgemeldet oder nicht mehr genutzt werden. Und da nur beim gemeinsamen Auftreten aller drei Adoptionsmerkmale von Übernahme gesprochen werden dürfe, könne es bei ihnen „im Extremfall auch zu einem Rückgang der Diffusion kommen“ (Weiber 1992: 137).

2.3 Ansichten zur Prognostizierbarkeit technischer Innovationen in der Telekommunikation

Mit der Markteinführung neuer Telekommunikationssysteme ist ein besonders hoher Grad an Unsicherheit für deren Anbieter verbunden. Die Anfangsinvestitionen in neue Netzeffektgüter im weiteren Sinne sind regelmäßig bis zu zehn Mal so hoch wie Investitionen von Industrieunternehmen in ihre Produktionsanlagen, schätzt Weiber (Weiber 1995: 64). Diese Investitionen müssen deshalb wirtschaftlich und oft auch politisch begründbar sein. Bloßer Zukunftsglaube ist dabei selten überzeugend, die Entscheider verlangen vielmehr konkrete Aussagen darüber, wie sich das System am Markt entwickeln wird und wie sich damit die hohen Anfangsinvestitionen amortisieren. Gefordert werden daher genaue und langfristige Prognosen zur Diffusion dieser Innovationen. Besonders in der wirtschaftswissenschaftlichen Literatur sind deshalb in der Vergangenheit zahlreiche Prognosemodelle (vgl. Hesse 1987: 8ff.) entwickelt worden. Deren Ziel sehen Albers und Peters darin, „die Verbreitung einer Innovation innerhalb des definierten sozialen Systems, der potentiellen Adopterpopulation, über die Zeit zu beschreiben und deren zukünftigen Verlauf zu prognostizieren“ (Albers/Peters 1995: 177f.).

Unterschieden werden können dabei vor allem drei Grundtypen: „Expotentielle Diffusionsmodelle“ (Weiber 1992: 147f.) basieren auf der Annahme, lediglich externe Faktoren, speziell die massenmedial vermittelte Kommunikation, würden den Diffusionsprozess beeinflussen. Sämtliche Adoptoren wären danach als Innovatoren anzusehen. Zwar erscheint dieser Fall höchst unwahrscheinlich, dennoch hätte ein solches Modell Anwendungsmöglichkeiten, meint Fantapié Altobelli, „wenn in der Einführungsphase mit einem geringen Widerstand der Käufer zu rechnen ist, wenn die potentiellen Übernehmer voneinander isoliert sind […], wenn die Neuerung unbedeutend oder gar tabuisiert ist“ (Fantapié Altobelli 1990: 37ff.). „Ausschließliche Imitatorennachfrage“ unterstellt dagegen das „logistische Diffusionsmodell“ (ebd.: 39). Massenkommunikation spiele hier keine Rolle, „primäre Einflussgröße auf den Diffusionsverlauf sei „die persönliche Kommunikation potentieller Adoptoren mit den Käufern“, formuliert Weiber (Weiber 1992: 148). Fantapié Altobelli sieht Anwendungsmöglichkeiten für darauf aufbauende Modelle zum Beispiel bei komplexen und sozial auffälligen Neuerungen oder dann, „wenn ein Bedarf nach zuverlässigen Informationen besteht, die die Massenkommunikation nicht zu liefern vermag“ (Fantapié Altobelli 1990: 41). Bass hingegen plädiert für eine Mischform: „Initial purchases of the product are made by both ‚innovators’ and ‚imitators’” (Bass 1969: 217). Das von ihm auf dieser Annahme entwickelte „semilogistische“ Prognosemodell, führt Weiber aus, „kann heute als das Standardmodell der Diffusionsforschung angesehen werden und wird häufig auch als Bass-Modell bezeichnet“ (Weiber 1992: 149). In ihren Grundformen hält Fantapié Altobelli „alle Modelle bis auf das expotentielle für eine Prognose durchaus brauchbar“. Die besten Schätzungen liefere jedoch das Bass-Modell (Fantapié Altobelli 1990: 76ff.) Weiber argumentiert dagegen für Prognosen anhand des logistischen Modells, „da der aus dem Bass-Modell resultierende Diffusionsverlauf wesentlich durch den logistischen Modellteil bestimmt wird“ (Weiber 1992: 155). Beide prognostizieren die Diffusion von Innovationen anhand der Parameter Zeit und „Diffusionkoeffizient“. Letzterer ergebe sich aus den speziellen Charakteristika des Diffusionsprozesses. Er hänge zum Beispiel ab von der „Art der betrachteten Produktinnovation, den gegebenen Kommunikationsbeziehungen und den Kennzeichen des sozialen Systems“ (ebd.: 146). Zu beachten sei allerdings bei der Berechnung solcher Prognosen, dass bereits geringste Abweichungen des Diffusionskoeffizienten „zu gravierenden Systemänderungen führen“ könnten (ebd.: 165f.). Klassische Diffusionsmodelle müssten daher vor dem Hintergrund der Chaostheorie neu überdacht werden (Weiber 1995: 66). Fantapié Altobelli versucht, dieses Problem durch genauere Identifizierung der Parameter des Diffusionskoeffizienten zu lösen. So entwickelt sie Modelle, die ein dynamisches Marktpotential (Fantapié Altobelli 1990: 78), Einflüsse der Preisentwicklung (ebd.: 212) oder auch von Werbemaßnahmen (ebd.: 149) einbeziehen. Hesse denkt den letzten dieser Punkte noch etwas weiter. Einfluss auf den Diffusionskoeffizienten sei nicht nur der Werbung, sondern genauso der kaufhemmenden Kommunikation zuzuschreiben. „In einem allgemeinen Diffusionsmodell für Situationen kauffördernder und kaufhemmender Kommunikation sollte deshalb zum Ausdruck kommen, dass positive und negative Kommunikation diametral, asymetrisch, wechselseitig neutralisierend und direkt/indirekt dynamisch wirken“ (Hesse 1987: 110). Als weitere Faktoren mit Einfluss auf den Diffusionskoeffizienten identifiziert Kortmann unter anderem die Konkurrenzsituation, Veränderungen des Diffusionsobjektes während der Ausbreitungsphase oder die Dynamik des Diffusionssystems (Kortmann 1995: 219ff.). Von Pattay beschreibt darüber hinaus den Einfluss nicht direkt konkurrierender Telekommunikationssysteme auf den Diffusionsprozess, den er begründet durch sein „Paradoxon der Telekommunikation: Der Wettbewerb nicht miteinander verbundener Dienste wirkt innovationshemmend und preistreibend“ (von Pattay 1994: 182). Diese Auflistung beschriebener Parameter für ein Diffusionsmodell soll nicht vollständig sein, sondern lediglich ihr breites Spektrum illustrieren. Fantapié Altobelli hält es dank dieser immer größeren Ausdifferenzierung der Modelle für „möglich, für eine künftige Ausbreitung neuer Kommunikationstechniken fundierte Prognosen zu erstellen (Fantapié Altobelli 1990: V).

Der Vergleich dieser so erstellten Vorhersagen mit der Realität bietet jedoch Ernüchterung. „Vielfach haben diese Prognosen Erwartungen geweckt, die umso herberer Enttäuschung wichen, je überzogener sie waren“, merkt dazu von Pattay an (von Pattay 1994: 176). Weigand stellt diverse Anschlusszahlen zu Text- und Datenübertragungssystemen den ihnen vorausgesagten Werten gegenüber. Der Vergleich zeichnet ein verheerendes Bild von der Arbeit der Prognostiker. Dem Telekommunikationsdienst Teletex etwa waren mit Abstand von nur wenigen Jahren für 1990 je nach Studie zwischen 45.000 und 145.000 Teilnehmer vorausgesagt worden. Tatsächlich waren es dann gerade 16.600 (vgl. Weigand 1994: 194f.). Noch gravierender sind die Unterschiede zwischen Vorhersage und Wirklichkeit, die Kubicek und Reimers sowie Werle bei der Revision von Prognosen für den Dienst Bildschirmtext gemacht haben. Für 1990 wurden Btx nach optimistischen Schätzungen zwischen 1,8 und drei Millionen Teilnehmer prophezeit, tatsächlich wollten den Dienst zu dieser Zeit dann aber nur 260.000 Deutsche nutzen (Kubicek/Reimers 1996: 55ff., Werle 1994: 204). Etwas seltener, dennoch genauso falsch, scheinen zu pessimistische Prognosen der Diffusion von Innovationen in der Telekommunikation zu sein. So zitiert Werle unterschiedliche Studien zur Entwicklung des europäischen Mobilfunkmarktes, die er für „besonders optimistisch“ hält. Diese Studien erwarteten zwischen 13,2 Millionen Mobilfunknutzer für 2001 und 29,5 Millionen bereits für 2000, und zwar für ganz Westeuropa (Werle 1994: 205f.). Auch damit hatten die Prognostiker kräftig daneben gelegen. Im Jahr 2000 nutzen tatsächlich allein in Deutschland 48,2 Millionen Menschen Mobilfunktelefone (Informationszentrum Mobilfunk 2003). Ebenso sind die Entwicklungschancen des Dienstes Telefax komplett falsch eingeschätzt worden. „Telefax wurde [...] damals überwiegend als ein Spezialmedium der Bildkommunikation angesehen und ihm bestenfalls eine Entwicklung in der Größenordnung von Teletex zugebilligt“, rekapituliert Hellige die Vorhersagen (Hellige 1995: 199). Weigand belegt das mit Zahlen. Nach den Prognosen hätten 1990 in Deutschland nur zwischen 110.000 und 250.000 Faxgeräte angeschlossen sein dürfen, es waren jedoch dann bereits knapp 700.000. (Weigand 1994: 194) Für ihn liegt deshalb der Schluss nahe: „Die angewandten Prognoseverfahren sind allenfalls imstande, zufällig die Wahrheit zu treffen“ (ebd.: 198).

Über die Ursachen herrscht jedoch Uneinigkeit. Für Kubicek und Reimers sind bereits die den Prognosen zugrunde liegenden Modelle alle mit einem grundlegenden Fehler behaftet, ihrem Aufbau auf den Theorien von Kritischer Masse und Netzwerkeffekten. Diese Grundannahme sei etwa für das Telefon- und auch für das Faxnetz noch nachvollziehbar, nicht jedoch für die immer komplizierteren Netze der Telekommunikation. Hier müssten die Modelle deutlich differenziert werden. Dazu schlagen sie ein „Erweitertes Schichtenmodell der Datenkommunikation“ vor (Kubicek/Reimers 1995: 105ff.). Wie dieses konkret in Prognosen eingesetzt werden kann, das beantworten sie jedoch nicht. „Man muss sich wohl damit abfinden, dass die Prognose der Entwicklung solcher Dienste derzeit nicht wissenschaftlich begründet werden kann“ (ebd.: 122). Einen ähnlichen Standpunkt vertritt auch Weigand in Bezug auf die verwendeten Modelle. „So ist es denn auch nicht verwunderlich, dass die den Prognosen zugrunde liegenden Annahmen häufig nicht veröffentlicht werden“ (Weigand 1994: 194).

Andere Autoren sehen als Ursache für fehlerhafte Prognosen nicht das grundsätzliche Fehlen tauglicher Modelle, sondern falsche in die Modelle eingesetzte Parameter oder die falsche Schätzung dieser Parameter (vgl. Albers/Peters 1995: 190, von Pattay 1994: 178ff.). So zeigte sich für Albers und Peters bei ihrer Revision von Vorhersagen zu Btx, dass neben anderen Parametern vor allem das Marktpotential immer wieder falsch eingeschätzt wird (vgl. Albers/Peters 1995: 169). In seiner Prognose über Mobilfunk in Deutschland hat Delpho diesem Punkt darum besondere Aufmerksamkeit geschenkt und auch relativ genau ein Diffusionspotential identifiziert. Mit sechs Millionen für das Jahr 2000 vorhergesagten Nutzern lag er aber in der Prognose von dessen Ausschöpfung genauso weit von der Realität entfernt, wie fast alle seiner Vorgänger. Zumindest hat er sein Versprechen, Voraussagen zum Zwecke der Reduzierung von Unsicherheit zu erstellen (Delpho 1994: 173), nicht einlösen können. Es scheint fast so zu sein, wie Schnaars formuliert: „There is almost no evidence that forecasters, professionals and amateurs alike, have any idea what our technological future will look like" (Schnaars 1989: 33). Kubicek und Reimers plädieren daher für in Zukunft möglichst „anwendungsoffene“ neue Netze. „Die Forderung nach einer leistungsfähigen Telekommunikation kann […] die Investitionen in bestimmte Infrastruktur nicht mehr rechtfertigen, da heute nicht abgeschätzt werden kann, welches die richtige Infrastruktur sein wird.“ (Kubicek/Reimers 1995: 123) Dieses Dilemma lasse sich auch durch immer komplexere Prognosemodelle nicht reduzieren.

Die generellen Zweifel an Prognosen für Telekommunikation hält von Pattay dennoch für „voreilig“, die Verfahren für die Vorhersage der Entwicklung etablierter Dienste sei „bemerkenswert zuverlässig“ (von Pattay 1994: 176ff.). Ab dem Erreichen einer kritischen Masse gewönnen sie an Verlässlichkeit. Werle sieht darüber hinaus grundsätzlich für Prognosen über kürzere Zeiträume zumindest eine günstigere Ausgangslage (Werle 1994: 210). Und aus Vorraussagen über einen längeren Zeitraum will von Pattay immerhin noch qualitative Aussagen ableiten können (vgl. von Pattay 1994: 176ff.).

Für Weigand ist der Sinn von Vorhersagen für Diffusionsprozesse neuer Telekommunikationstechniken ohnehin ein völlig anderer als die möglichst genaue Beurteilung zukünftiger Entwicklungen. „Es wäre […] einseitig, die Prognosen ausschließlich nach ihrem Wahrheitsgehalt und nach ihren methodischen Prämissen zu beurteilen“ (Weigand 1994: 196). Schließlich, setzt Werle diesen Gedanken fort, schienen die Auftraggeber in Politik und Wirtschaft vor allem daran interessiert, Prognosen in die Hände zu bekommen, „die unter den von ihnen gewünschten Rahmenbedingungen und bei den Technologien, auf die sie setzen, möglichst günstig ausfallen“ (Werle 1994: 210ff.). Deshalb, folgert Weigand, müssten die publizierten Prognoseergebnisse einen wachsenden Telekommunikationsbedarf aufzeigen, „unabhängig davon, ob dieser Bedarf tatsächlich existieren wird“ (Weigand 1994: 196ff.). Den auf der Basis der oben aufgeführten Modelle erstellten Vorhersagen bescheinigt er darum, sie hätten offenbar vor allem eine politische und wirtschaftliche Legitimationsfunktion. Sie seien ein „Rechtfertigungsinstrument“ für Dienste, „die an den Bedürfnissen der Anwender vorbeigeplant wurden“ (ebd.). Darüber hinaus, merkt Werle an, könnten sie „zu einem Instrument für das Management von Erwartungen werden.“ Wenn nur jeder genug an sie glaubte, hätten sie vielleicht noch die Chance, zu einer „self fulfilling prophecy“ zu werden (Werle 1994: 211). Es dürfte jedoch äußerst risikoreich sein, darauf zu vertrauen. Und ob diese vage Aussicht allein die hohen Kosten der Erstellung von Prognosen für Innovationen in der Telekommunikation rechtfertigt, scheint zweifelhaft.

3 DAB - der neue Standard für Hörfunkübertragungen?

Das Massenkommunikationssystem Hörfunk ist in der digitalen Welt angekommen. Produktion, Archivierung, Sendeabwicklung, Übertragungen, Programmzuführung zum Senderstandort – all diese Bereiche sind in den meisten deutschen Hörfunksendern seit den 1990er Jahren von analoger auf digitale Technik umgerüstet worden. Lediglich die terrestrische oder an Kabel gebundene Übertragung zu den Rezipienten ist eine letzte analoge Insel in dieser digitalen Welt. Der neue Hörfunk-Übertragungsstandard Digital Audio Broadcasting (DAB), der in Deutschland auch als Digitalradio vermarktet wird, soll jedoch auch in diesem Bereich die analoge Technik ablösen. So wollen es jedenfalls seine Verfechter, die nicht müde werden, enthusiastisch die neue Technologie zu feiern. Lonsmann wertet DAB als „a success story“ (Lonsmann 2003: 29), Kozamernik ist sich sicher, „DAB will utimately succeed in all Euro­pean countries and many others worldwide“ (Kozamernik 2004: 17). Ihnen steht jedoch eine wachsende Zahl von Skeptikern gegenüber, die nicht (mehr) an DAB glauben wollen. Das System befinde sich, formuliert etwa Neitzel, irgendwo „zwischen Kinderschuhen und Sterbebett, nur wo genau, das weiß eigentlich niemand“ (Neitzel 2003: 17), Goldhammer stellt fest, „kein durchschnittlicher Hörer interessiert sich für Digital Radio, und wenn, könnte er es rasch bereuen“ (Goldhammer 2003), Vowe und Will meinen gar „die Einführung von digitalem Radio in Deutschland ist bislang gescheitert“ (Vowe/Will 2004: 89).

Es scheint ein Glaubenskrieg um die Zukunft des Hörfunks entbrannt, in dem es um Besitzstandwahrung und Technologieglauben und natürlich um hohe Investi­tionskosten und Fördergelder geht. Nur selten jedoch geht es um die, die letzt­endlich durch millionenfache Entscheidung pro oder contra Adoption ein wichti­ges Wort zum Thema DAB mitzureden hätten: die Radiohörer. Wenn sie denn überhaupt davon wüssten. Das System, konstatiert Moser, sei inzwischen zwar schon seit Jahren auf Sendung, jedoch „von der Öffentlichkeit weitgehend unbe­merkt“ (Moser 2001: 96ff.). Betroffene und zukünftige Nutzer, so Kleinsteubers inhaltlich immer noch aktuelle Kritik, „kommen nur in (zweifelhaften) Akzeptanz­studien vor“ (Kleinsteuber 1995: 28).

Aus diesem Grunde ist es für diese Arbeit wichtig, im Folgenden erst einmal die Entwicklung und den technischen Stand des Untersuchungsgegenstandes dar­zustellen. Im Anschluss werden die an DAB geknüpften Erwartungen aufgezeigt. Die bereits erwähnten Akzeptanzstudien sowie Prognosen auf der Basis der in Kapitel 2.3. beschriebenen Modelle zeigen die Hoffnungen im Vorfeld des Regel­betriebes. Sie werden jetzt mit der heutigen Wirklichkeit verglichen. Dabei offenbaren sich erhebliche Divergenzen.

3.1 Die Entwicklung von Digital Audio Broadcasting

Die Grundsteine für die Entwicklung von DAB sind in Deutschland gelegt worden. Bereits seit 1981 wurden hier von Entwicklern Überlegungen, Konzepte und Ver­suche ausgearbeitet mit dem Ziel, den UKW-Rundfunk durch ein digitales Über­tragungssystem abzulösen. Begründet wurden diese Anstrengungen mit der Notwendigkeit einer verbesserten Tonqualität sowie mit der angeblichen Unmög­lichkeit störungsfreier UKW-Übertragungen, besonders im mobilen Bereich. Ur­sache dafür, so Lauterbach, seien Reflexionen des Sendesignals, das wegen dieser Echos mehrfach zeitverzögert an der Antenne anliege. „Dies führt zu empfindlichen Störungen, die sich zum Beispiel durch Rauschen und Zischen bemerkbar machen“ (Lauterbach 1996a: 19f.). Insbesondere in Straßen­schluchten oder in bergigem Gebiet sei störungsfreier UKW-Empfang wegen dieser Signalechos oft „prinzipiell unmöglich“ (ebd.). Darüber hinaus, komplettiert Müller-Römer die Ausgangsüberlegungen, könnten im UKW-Band wegen der föderalen Struktur des Rundfunks „nur sechs bis sieben flächendeckende UKW-Senderketten neben weiteren einzelnen Sendern für eine lokale beziehungs­weise regionale Versorgung betrieben werden“ (Müller-Römer 1998b: 29f.). Aus all diesen Gründen hätten sich sowohl öffentlich-rechtliche, als auch private (die es damals jedoch noch gar nicht gab) Rundfunkbetreiber veranlasst gesehen, „nach neuen Wegen der Hörfunk-Programmverbreitung Ausschau zu halten“ (ebd.). Tatsächlich gingen die Entwicklungen wohl eher von Ingenieuren wie denen des Instituts für Rundfunktechnik (IRT) aus. Nach anfänglichen Überle­gungen zur schmalbandigen Ausstrahlung digitaler Programme im UKW-Band wechselten diese in den kommenden Jahren zur Entwicklung von Übertragungs­systemen für breitbandige „Programmbündel“ über. Aufbauend auf diesen Vor­überlegungen beauftragten die Landesrundfunkanstalten 1985 das IRT mit der Entwicklung von DAB (ebd.: 31ff.). Durch Beschluss einer Konferenz der euro­päischen Regierungschefs 1986 in Stockholm wurde dieses Entwicklungsprojekt auf Europa ausgeweitet. Die Arbeiten an der auf den Namen „Eureka-Projekt EU147“ getauften und vom deutschen Institut für Luft- und Raumfahrt feder­führend betreuten Forschung und Entwicklung starteten im darauf folgenden Jahr und sollten 1991 abgeschlossen sein. Veranschlagt war dafür ein Aufwand von ungefähr 41 Millionen Euro (ebd.: 33). Letztendlich dauerte es dann jedoch bis 1994, bis dieser von der Europäischen Union mit schließlich 75 Millionen Euro (vgl. Riehm/Wingert 1995: 224) „generös“ geförderte (Kleinsteuber 1995: 74) Forschungs- und Entwicklungsprozess vorerst abgeschlossen werden konnte. Digital Audio Broadcasting wurde als „EU 147-DAB“ zur europäischen Norm, die International Telecommunications Union empfahl diesen Standard als eine welt­weite Norm für terrestrischen Hörfunk (vgl. Vowe/Will 2004: 95). Weitere Empfehlungen, schränkten Riehm und Wingert jedoch bereits damals ein, seien „allerdings wahrscheinlich“ (Riehm/Wingert 1995: 224).

[...]


[1] Dieses unfreiwillige Wortspiel passierte dem bayrischen Staatsminister Erwin Huber anlässlich des Starts des bayrischen DAB-Pilotprojektes 1995.

[2] Diffusion beschreibt in den Naturwissenschaften den Prozess der Ausbreitung kleinster Partikel in Gasen oder Flüssigkeiten, frei oder durch (teil-)durchlässige Barrieren hindurch.

Excerpt out of 104 pages

Details

Title
Zur Diffusion von DAB
College
http://www.uni-jena.de/  (Bereich Medienwissenschaft)
Grade
2,0 - gut
Author
Year
2004
Pages
104
Catalog Number
V37063
ISBN (eBook)
9783638365161
File size
765 KB
Language
German
Notes
Die Arbeit untersucht mittels einer Befragung den Stand der Diffusion von DAB-Radio sowie Gründe für den bislang schleppenden Verlauf der Markteinführung.
Keywords
Diffusion
Quote paper
Gunnar Töpfer (Author), 2004, Zur Diffusion von DAB, Munich, GRIN Verlag, https://www.grin.com/document/37063

Comments

  • No comments yet.
Look inside the ebook
Title: Zur Diffusion von DAB



Upload papers

Your term paper / thesis:

- Publication as eBook and book
- High royalties for the sales
- Completely free - with ISBN
- It only takes five minutes
- Every paper finds readers

Publish now - it's free