Marketing 2.0? - Das Internet als Medium der Digitalisierung und Vernetzung und daraus abgeleitete Regeln für ein medienspezifisches Marketing


Bachelorarbeit, 2010

43 Seiten, Note: 1,0


Leseprobe


Inhalt

1 Thema und Zweck der Arbeit
1.1 Das Thema und seine Relevanz
1.2 Vorgehensweise

2 Medienanalyse des Internets
2.1 Digitalisierung und Vernetzung
2.1.1 Digitalisierung
2.1.2 Vernetzung
2.2 Merkmale, die sich aus der Digitalisierung und Vernetzung ergeben
2.2.1 Speicherbarkeit
2.2.2 Dezentralität
2.2.3 Digitale Kluft
2.2.4 Medienkonvergenz und Always-On-Mentalität
2.2.5 Durchsuchbarkeit
2.2.6 Netzeffekte
2.2.7 Manipulierbarkeit
2.2.8 Interaktivität und Social Software
2.2.9 Personalisierung und Data Mining

3 Regeln für ein medienspezifisches Marketing
3.1 Übersicht Online-Marketing Konzeption
3.1.1 Definition Marketing-Management nach Meffert
3.2 Analyse & Online-Marktforschung
3.2.1 Data Mining und Online-Marktforschung Primäre Marktforschung Sekundäre Marktforschung
3.3 Unternehmens- & Marketingziele
3.3.1 Aufbau eines positiven Image durch Content und Service
3.4 Online-Marketingstrategien
3.4.1 Eigenständige Strategien für unterschiedliche Plattformen Crossmedia-Marketing innerhalb des Internets Werbung nicht als Unterbrechung
3.5 Online-Marketinginstrumentarium
3.5.1 Long-Tail-Phänomen
3.5.2 Markttranzparenz
3.5.3 Interaktivität & Vernetzung One-to-One-Marketing Integration von Kunden in Wertschöpfungsprozesse
3.5.4 Suchmaschinenmarketing Suchmaschinen-Optimierung Suchmaschinen-Werbung
3.6 Ergebniskontrolle

4 Fazit und Zusammenfassung

Quellen- und Literaturverzeichnis
Publikationen
Internetressourcen

1 Thema und Zweck der Arbeit

1.1 Das Thema und seine Relevanz

Als das Radio sich in den 1920er Jahren anschickte, die privaten Haushalte zu erobern, bestand das Programm zum größten Teil aus Rückgriffen auf bereits etablierte Medien wie Zeitung, Oper und Theater. Nach einer Hörerumfrage aus dem Jahr 1924 lag die Operette auf Platz eins der Hörerwünsche, gefolgt von Tagesneuigkeiten, Zeitansagen und Kammermusik. An achter Stelle befand sich die Oper, an 24. das Schauspiel (vgl. Döhl 1994: Online).

Es dauerte nicht lange, bis man feststellte, dass der Rundfunk nicht wirklich für die Übertragung von Operetten geeignet war, weil diese für eine Bühne und ein betrachtendes Publikum geschrieben waren. So entstand das Hörspiel, das die Möglichkeiten und Grenzen des Mediums besser zu nutzen wusste (vgl. Wellnitz 2010:13). Ein sehr eindrückliches Beispiel für ein medienspezifisches Produkt ist Orson Welles’ Hörspiel ‚Der Krieg der Welten‘, das 1938 durch geschickten Einsatz von Reportage-Elementen für einige Verwirrung sorgte, weil viele Hörer die geschilderte Invasion durch Marsianer für echt hielten.

Was für die Anfänge des Rundfunks gilt, gilt für alle Medienumbrüche: jedes neue Medium durchläuft zunächst eine Findungsphase, bevor es sich von seinen Vorgänger-Medien emanzipieren und eigene Problemlösungen anbieten kann (vgl. Leschke 2003:35). Sowohl Versuch und Irrtum als auch Reflexion und Diskurs spielen eine große Rolle bei der Entdeckung von Möglichkeiten und Grenzen von Medien. Unvermeidbar scheint in diesem Zusammenhang auch die Kombination aus Utopie und Dystopie sowie deren Bestätigung und Enttäuschung (vgl. Doff et al. 2004:12f.).

Im Rückblick auf die mittlerweile über 20-jährige Geschichte des WWW lässt sich die Findungsphase sehr gut nachverfolgen. Faszination und Überforderung, neue Geschäftsideen und Fehlinterpretationen, Zusammenbruch und Auferstehung, Verdammung und Vergötterung wechseln sich ab und existieren immer noch dicht nebeneinander. Blumige Namen wie Cyberspace und Information Superhighway kamen und gingen; im Moment ist der Begriff Web 2.0 in Mode. Zwar bezeichnet er technisch gesehen kein Internet der zweiten Generation[1], ist aber ein Ausdruck dafür, dass das Internet als Alltagsmedium tatsächlich aus seinen Kinderschuhen wächst und seinen berechtigten Platz zwischen Medienplattformen wie Zeitung, Fernsehen, Stammtisch, Marktplatz und Bühne einnimmt.

Aber auch wenn es sich mittlerweile herum gesprochen hat, dass das Internet anders funktioniert als klassische Massenmedien, trifft man immer noch auf Marketingkonzepte, die online genauso funktionieren wollen wie vorher in der Offline-Welt: Werbebanner, die den Anzeigen in Zeitschriften entlehnt sind, Top-Down-Kampagnen, die zu Zeiten massenmedialer Einwegkommunikation gut funktionierten, störende Unterbrecher-Werbung wie man sie aus dem Fernsehen kennt oder unpersönliche Massenmails, die nur der Spam-Ordner willkommen heißt. Anscheinend versuchen einige Unternehmen immer noch, ‚Operetten übers Radio zu senden‘.

Natürlich können beim Online-Marketing nicht alle Regeln des bisherigen strategischen Marketings über Bord geworfen werden, wie uns das einige (vor allem amerikanische) Autoren mit reißerischen Buchtiteln weis machen wollen[2], aber einige Marketing-Grundsätze haben sich tatsächlich gewandelt und es bedarf einer gründlichen Medien-Reflexion, um auf das Internet zugeschnittene Marketing-Strategien zu entwickeln und in das bestehende Marketing zu integrieren (vgl. Bogner 2006:46).

1.2 Vorgehensweise

Ziel dieser Arbeit ist es, einigen medienimmanenten Eigenschaften des Internets auf den Grund zu gehen und daraus Schlüsse für ein medienspezifisches Marketing zu ziehen. Ausgehend von den Grundpfeilern Digitalisierung und Vernetzung werden im ersten Teil weitere, sich daraus ergebende Eigenschaften abgeleitet und untersucht. Dabei werden sowohl technische als auch historische Hintergründe angerissen, die zunächst noch nicht unbedingt etwas mit Marketing zu tun haben.

Der zweite Teil gibt zunächst eine kurze Übersicht über das klassische Marketing-Verständnis, um darauf die Erkenntnisse aus dem ersten Teil anzuwenden und Grundsätze für die Online-Marketingkonzeption abzuleiten.

Da Analysen aktueller Kampagnen und Internetauftritten aufgrund der gegenwärtig rasanten Entwicklung des Internet schnell ihre Relevanz verlieren, verfolgt die Arbeit einen abstrakteren Ansatz, um zumindest mittelfristig geltende Ergebnisse erzielen zu können. Auch kann sie lediglich einen Überblick über die Materie geben und geht aus diesem Grund nicht sehr in die Tiefe. Für mehr Details sei die Literatur empfohlen, auf die in reichlich vorhandenen Literaturangaben hingewiesen wird.

2 Medienanalyse des Internets

2.1 Digitalisierung und Vernetzung

„At the very core of the meaning of the Web is linkage and connection“, schreiben Burnett und Marshal in ihrem Buch Web Theory (2003:59). Sie verstehen das Internet als loose Web, bestehend aus verschiedenen, sich kreuzenden und überschneidenden Arten von Kommunikation.

Eine ähnliche, wenn auch stärker spezialisierte Richtung schlagen Blumauer und Pellegrini (2009:11) bei der Beschreibung von semantischen Netzen ein und sprechen von Konnektivität und Kontextualisierung. Konnektivität bezeichnet dabei Aspekte der Vernetzung von Personen, Inhalten, Diensten und Daten, Kontextualisierung hingegen Aspekte des Beschreibens, Ordnens, Filterns und Bewirtschaftens von Daten und Information.

Da diese Arbeit sich nicht mit dem semantischen Web befasst, muss von der Kontextualisierung aus ein technologischer Schritt zurück gegangen werden: Bevor Informationen im Internet über eine Meta-Ebene miteinander verknüpft, also kontextualisiert werden können, müssen sie zunächst erst einmal in digitaler, also maschinenverarbeitbarer Form vorliegen. Kontextualisierung ist in diesem Verständnis somit die letzte Stufe der Digitalisierung auf dem Weg von einem „web of documents“ zu einem von Tim Berners-Lee postulierten „web of data“ (Blumauer/Pellegrini 2009:459). Neben der Vernetzung wird also im Folgenden der Prozesse der Digitalisierung als zweite wichtige Säule des Internets behandelt.

2.1.1 Digitalisierung

Auf der ersten Stufe der Digitalisierung steht zunächst die Analog-Digital-Umwandlung eines analogen Mediums (Text, Bild, Video, Audio) oder die Generierung digitaler Informationen aufgrund von Gedanken, Sinneseindrücken und Gefühlen mit dem Ziel, ein Format zu erhalten, das von Maschinen weiter verarbeitet werden kann (vgl. Fritz 2004:71). Am Ende dieses verlustbehafteten Umwandlungs- oder Erstellungsprozesses (z.B. durch Scan, Überspielung, Aufnahme oder Verschriftlichung) liegt nun ein Dokument vor, das — technisch gesehen — aus Einsen und Nullen besteht und verlustfrei angezeigt, gespeichert, kopiert und bearbeitet werden kann. Die maschinellen Verarbeitungsmöglichkeiten sind aber begrenzt — man kann in dieser Form z.B. noch keine komplexen Suchanfragen durchführen (vgl. Blumauer/Pellegrini 2009:250).

Dafür muss das digitale Dokument in einer zweiten Stufe mit Zusatzinformationen versehen werden, was nach entsprechender Programmierung durch die Maschine selbst erfolgen kann (vgl. ebd.:8). Bei einem Textdokument (egal, ob bei eingescannten Buchseiten oder verschriftlichten Sinneseindrücken, Gedanken oder Gefühlen) kann dies z.B. mittels Text-, Wort-, Sprach- oder Rechtschreiberkennung geschehen, bei Bildern mittels automatischer Erkennung von Farben und Formen wie z.B. Gesichtern, Gegen­ständen und Orten, bei Videos zusätzlich auch durch die Erkennung von Bewegungen und Schnitten, bei Audio-Dokumenten durch das automatische Erkennen von Worten, Sprache, Stimme, Tonalität, Rhythmus, Geräusch-/ Instrumentenart etc.

Auf der dritten und letzten Stufe, der semantischen Kontextualisierung, geht es darum, durch das Verknüpfen von (Meta-)Informationen Maschinen zu befähigen, Informationen zu interpretieren und Zusammenhänge zu verstehen, die nicht ohne weiteres aus einer statistischen Regelmäßigkeit hergeleitet werden können. Diese Verknüpfung muss größtenteils von Menschen durchgeführt werden, weil sie auf Hintergrundwissen und Erfahrung basiert, über die Computer noch nicht verfügen (vgl. Blumauer/Pellegrini 2009:55).

Im Grunde genommen ist schon die zweite Stufe eine einfache Form der Kontextualisierung durch einen Menschen, schließlich muss der Programmierer ein bestimmtes Muster von Information mit einer Bedeutung verknüpfen. So muss die Software z.B. wissen, dass dunkle Pixel, die in einem Kreis angeordnet sind, ein kleines ‚o‘, ein großes ‚O‘ oder auch eine ‚0‘ darstellen könnten, je nachdem, in welchem Kontext sie stehen. Dieser Kontext wird durch das Einbinden eines Indexes hergestellt, in dem alle möglichen sinnvollen Buchstabenkombinationen und ihre wahrscheinliche Häufigkeit aufgelistet sind (vgl. Favre-Bulle 2004:327ff.). In einem Bild hingegen könnten die Pixel eine Pupille ergeben. Diese Pupille kann Bestandteil eines Auges sein, das wiederum zu einem Gesicht gehören könnte.

Während der Programmierer dabei auf statistische Regelmäßigkeiten zurückgreift[3] und somit nur allgemeine Aussagen zu häufig vorkommenden Fällen machen kann, geht es in der semantischen Kontextualisierung vor allem darum, Zusammenhänge zwischen Informationen herzustellen, die keine statistische Regelmäßigkeit erkennen lassen (vgl. Blumauer/Pellegrini 2009:55f.). Dass die Person, der die Pupille gehört oder deren Namensbestandteil das o ist, z.B. Monika heißt und die Schwester von Julia ist, einen Hasen besitzt, in Berlin-Schönefeld wohnt und am liebsten Spaghetti isst, kann die Software nicht wissen, wenn diese Informationen nicht in einem interpretierbaren Format an Orten abgelegt sind, auf die sie zugreifen kann. Nicht ohne Grund sind viele im Internet aktive Unternehmen bestrebt, möglichst viele Informationen zu sammeln und miteinander in Verbindung zu bringen.

2.1.2 Vernetzung

Auch die Vernetzung kann in mehrere Stufen untergliedert werden. Ihr Zweck ist die Kommunikation von Maschine-zu-Maschine (die bei jedem Kommunikationsvorgang auftritt), Mensch-zu-Maschine oder Mensch-zu-Mensch.

Auf der untersten Stufe steht zunächst die Vernetzung von Maschinen, die nach in Netzwerkprotokollen festgelegten Regeln miteinander kommunizieren, um Anfragen zu verarbeiten. Diese Vernetzung geht zurück auf das 1969 vom US-Verteidigungsministerium entwickelte ARPAnet, das vor dem Hintergrund eines denkbaren Atomschlags ein landesweites Netzwerk darstellen sollte, „das militärische Kommandostrukturen katastrophensicher abbildet und den Betrieb trotz Ausfall eines Netzteils gewährleistet“ (Bogner 2006:16).

Im 1970 entwickelten DoD-Modell wurden die vier Schichten Netzzugang, Internet, Transport und Anwendung definiert, die aufeinander aufbauen und auf denen jeweils unterschiedliche Protokolle den paketvermittelten Informationsaustausch ermöglichen. So besteht die Aufgabe der Netzzugangsschicht (mit Protokollen wie Ethernet, Token Ring, FDDI, ARCNET) darin, „die technische Infrastruktur zwischen Geräten in einem Netzwerk zu bewerkstelligen“ und Daten zu versenden (Rohr 2008:5). Die Internetschicht ermöglicht die gezielte Zustellung von Datenpaketen (Protokolle: ICMP, IGMP, IP, IPX), die Transportschicht sorgt für eine fehlergesicherte Ende-zu-Ende-Übertragung zwischen zwei Rechnern (Protokolle: TCP, UDP, SCTP, SPX) und die Anwendungsschicht, auf der die Daten ausgeliefert werden, bildet schließlich die Schnittstelle zum Benutzer (Protokolle: HTTP, FTP, SFTP, HTTPS, SMTP, LDAP, NCP).

Auf der zweiten Stufe steht die inhaltliche Vernetzung von Dokumenten, die im Wesentlichen durch die Entwicklung des WWW im Jahr 1989 durch Tim Berners-Lee am Cern in Genf ermöglicht wurde. Das Konzept basierte auf drei Standards: URL (für die eindeutige Adressierung einer Ressource), HTTP (als Protokoll für die Kommunikation zwischen Browser und Webserver) und HTML (als Dokumentenbeschreibungssprache, mit der das Dokument im Browser angezeigt werden kann). Entscheidend war die Möglichkeit, Dokumente durch Hyperlinks miteinander zu verknüpfen und so eine nichtlineare Dokumentrezeption zu ermöglichen (vgl. Meinel/Sack 2004:271).[4]

An dritter und letzter Stelle steht die sinngemäße Vernetzung von Daten und Daten-Aggregatoren. An diesem Punkt fällt die Vernetzung mit der dritten Stufe der Digitalisierung zusammen. In beiden Fällen geht es um den Prozess der Vernetzung von Meta-Informationen mit dem Ziel, Sinnzusammenhänge herzustellen, Informationen interpretierbar zu machen und eine sinngemäße Zuordnung zu ermöglichen.

Im Endeffekt ist das Ziel der Vernetzungsvorgänge im Internet auch immer eine Vernetzung von Menschen. Dieser Aspekt wird in den Kapiteln ‚Netzeffekte‘ (2.2.6) sowie ‚Interaktivität und Social Software‘ (2.2.8) extra behandelt, weil er sich auf einer anderen Ebene abspielt und weniger in diese technisch ausgerichtete Betrachtung eingeordnet werden kann.

2.2 Merkmale, die sich aus der Digitalisierung und
Vernetzung ergeben

2.2.1 Speicherbarkeit

Wie schon erwähnt, ermöglicht die Digitalisierung von Information eine Speicherung derselben in einem Format, das verlustfrei kopiert, angezeigt und bearbeitet werden kann. Das bedeutet, dass digitale Informationen sich prinzipiell gleichzeitig in identischer Form an mehreren Orten befinden und von verschiedenen Personen benutzt werden können. Mechanismen wie Kopierschutz und DRM versuchen zwar, dem ein Riegel vorzuschieben, haben bisher aber noch keine umfassend überzeugende Lösung geliefert.

Nimmt man zusätzlich den Aspekt der Vernetzung durch das Internet hinzu, vergrößert sich die potentielle Reichweite der Informationen um ein vielfaches. Ort und Zeit verlieren ihre Bedeutung, weil im Idealfall jeder jederzeit und von überall auf die Informationen zugreifen kann ohne dass dabei Kosten entstehen, die von der Entfernung abhängig sind.[5] Hinzu kommt, dass Bits und Bytes durch die Loslösung von Information und analogem Trägermedium weniger Platz benötigen als Bücherregale, Fotoalben, Kataloge oder Aktenschränke.

Eine weitere Folge der digitalen Speicherbarkeit ist die Möglichkeit, digitale Informationen wirksam und dauerhaft vor Verfall zu schützen. Hinderlich ist dabei jedoch zum einen die Anfälligkeit des physischen Datenträgers, auf dem die Information gespeichert ist und zum anderen auftretende Inkompatiblitäten durch Formatwechsel (wer kann heute noch Disketten lesen oder eine Corel-Draw-Datei öffnen?). Der Konservierungsprozess ist also mit einigem Aufwand verbunden: die Information muss auf mehreren, physikalisch voneinander getrennten Speicherorten vorhanden sein, anfällige Datenträger müssen rechtzeitig ersetzt und eine Überführung in kompatible Formate gewährleistet werden.

In manchen Fällen kann die Persistenz von Daten im Internet aber auch zu ungewünschten Nebenwirkungen führen, denn was einmal online ist, bleibt im Regelfall online. Selbst wenn es gelöscht wurde, kann es häufig noch in Suchmaschinen-Caches, oder im Internetarchiv (archive.org) wieder aufgefunden werden.

2.2.2 Dezentralität

Von Anfang an wurde das Internet mit dem Ziel entwickelt, den Ausfall eines Netzbestandteils durch Umleitung über alternative Verbindungsmöglichkeiten zu kompensieren. Es gibt also nicht eine einzige zentrale Vermittlungsstelle, sondern viele Netzwerke, die über Router (Netzübergangspunkte) miteinander verbunden sind und autonom miteinander kommunizieren. Dabei überprüft jeder einzelne Router, ob er eine Anfrage selbst bedienen kann, weil er über eine direkte Verbindung zur angeforderten IP-Adresse verfügt oder von verbundenen Routern auf der gleichen Hierarchie-Ebene verarbeitet werden kann. Ist dies nicht der Fall, wird sie über das Default-Gateway an die nächst höhere Router-Ebene weitergeleitet (vgl. netplanet.org:Online).

Fällt nun ein Router aus, ist lediglich das Segment, das er bedient, vom Ausfall betroffen und muss sich einen alternativen Verbindungsweg suchen. Versucht ein anderer Router, seine Anfrage über den ausgefallenen Router zu leiten, erfährt er über ein Time-Out, dass die Route nicht mehr verfügbar ist. Er aktualisiert seine Routing-Tabelle, in der seine Verbindungsmöglichkeiten aufgelistet sind und leitet den Verkehr über einen anderen Router, dessen Subnetzmaske (Filter, der Aufschluss darüber gibt, welcher IP-Bereich bedient wird) die nächsthöchste Übereinstimmung mit der Ziel-IP aufweist.

Aber nicht nur auf der physischen Ebene ist das Internet dezentral, sondern auch auf der inhaltlichen. Anstelle von einer festen Struktur mit Anfang und Ende herrscht Ungeordnetheit und Pluralität. Verzeichnisse und Portale versuchen zwar Ordnung zu schaffen, aber die hypertextuelle Verknüpfung von Dokumenten hat die lineare Rezeption mehr oder weniger abgelöst. Der Nutzer muss seinen eigenen Weg finden und bestimmt selber, welche Richtung er dabei einschlägt.

2.2.3 Digitale Kluft

Unter dem Stichwort ‚Digitale Kluft‘ wird darüber diskutiert, ob das Internet die bestehende Schere zwischen technologisch weit entwickelten Staaten und ärmeren Staaten ohne technologische Infrastruktur vergrößert.

Der Kommunikationswissenschaftler Phillip Tichenor und die Soziologen George Donohue und Clarice Olien formulierten bereits 1970 die These der Wissenskluft, nach der „höhere Medienkompetenz, höheres Bildungsniveau, ‚relevante‘ Sozialbeziehungen und eine selektierte Mediennutzung“ (Zillien 2006:73) zu einer vorteilhafteren Startposition bei der Ausschöpfung von medial bereit gestellten Informationen führen. Auch wenn die These teilweise kritisiert und weiter differenziert wurde (vgl. Zillien 2006:73-82), drückt sie deutlich das Paradoxon aus, dass sich die (Wissens-)unterschiede zwischen besser und schlechter Gestellten mit dem Anstieg verfügbarer Informationen anscheinend vergrößern. Das gleiche scheint für das Internet zu gelten, wo materielle und bildungsbezogene Aspekte eine noch stärkere Rolle spielen als bei klassischen Medien, weil zunächst ein Zugangsgerät erworben werden muss, dessen Bedienung einiges an Wissen voraussetzt und auch die Benutzung des Internet selbst nicht ohne Hürden ist.

Auf der anderen Seite gibt es aber auch Studien, die gerade dem Internet bescheinigen, mehr als frühere technologische Entwicklungen den Entwicklungsländern von Nutzen zu sein. So sieht der E-Commerce and Development Report 2001 der UN eine große Chance darin, dass sich Internet-Cafés und Mobiltelefone in Gegenden ausbreiten, in denen es kein Festnetz oder eine regelmäßige Stromversorgung gibt. Vor allem die Etablierung von drahtlosen Übertragungstechniken und die Einführung von relativ günstigen, einfach zu bedienenden mobilen internetfähigen Geräten könnte Entwicklungsländern zu einem Entwicklungssprung verhelfen (vgl. United Nations 2001: 194f.).

Eine andere Form der digitalen Kluft, die vor allem in Industrieländern anzutreffen ist, entwickelt sich aus der Tatsache heraus, dass heute in vielen Lebensbereichen ein Internetanschluss vorausgesetzt wird und infolge dessen nach und nach herkömmliche Kommunikations- und Interaktionswege abgeschafft werden. Auch wenn der Prozess aus wirtschaftlicher Sicht nachvollziehbar ist, stellt er eine Benachteiligung für Menschen dar, die das Internet (temporär oder dauerhaft) nicht oder nur eingeschränkt benutzen können oder wollen. So gibt es z.B. immer weniger Briefkästen, für vieles kann man sich nur online anmelden und wenn man zusätzliche Informationen zu einem Thema oder Produkt wünscht, wird man häufig auf eine Internetadresse verwiesen.

2.2.4 Medienkonvergenz und Always-On-Mentalität

Der Begriff Medienkonvergenz bezeichnet die Annäherung vormals getrennter Mediengattungen oder –träger und tritt in drei (und je nach Autor auch mehr) Ausprägungen auf (vgl. Weiss 2003:74ff.):

- Technologische Konvergenz
- Inhaltlich-funktionale Konvergenz
- Wirtschaftliche Konvergenz

Die technologische Konvergenz ist der Auslöser für jede weitere Form von Medienkonvergenz (vgl. ebd.:79). Sie basiert auf technologischen Innovationen im Bereich der Informationstechnologie und drückt sich hauptsächlich in der Konvergenz der Endgeräte und Übertragungsplattformen aus. Endgeräte, die durch die Entwicklung von mit dem Internet verbundenen Computern (programmierbaren Rechenmaschinen im weitesten Sinne) konvergieren, sind TV, Radio, (Mobil-)Telefon, Video- und Audio-Rekorder, Schnittpult und einige mehr, aber auch nicht-digitale Technologien wie Bücher, Zeitungen, Briefe, Kataloge, Telefonbücher, Straßenkarten usw. finden sich im Medium Computer wieder.

Bei der inhaltlich-funktionalen Konvergenz geht es um die Überschneidung von statischen und dynamischen Inhalten auf der einen und Massen- und Individualkommunikation auf der anderen Seite. Auf diese Weise entstehen hybride Angebote, wie z.B. Medieninhalte von Fernsehsendern im Internet, die man kommentieren, weiter empfehlen oder in andere Seiten einbinden kann.

Die wirtschaftliche Konvergenz findet zum einen auf der Ebene der Märkte und ihrer Wertschöpfungskette und zum anderen auf der Ebene der Unternehmen und ihrer strategischen Ausrichtung statt (vgl. Weiss 2003:100ff.). Auf der Ebene der Märkte bedeutet sie ein Zusammenwachsen vor allem innerhalb des Telekommunikations-, Medien- und IT-Sektors durch die Integration von vor- oder nachgelagerten Fertigungsstufen (vertikale Integration). Auf der Ebene der Unternehmen tritt die Integration sowohl vertikal als auch horizontal (Zusammenfassung von Unternehmen der gleichen Produktionsstufe) auf und äußert sich in Kooperationen und neuen Wettbewerbsformen.

In der Praxis bedeutet Konvergenz für die Nutzer, dass Mediengrenzen verschwimmen und die Online-Welt immer mehr zu einem Bestandteil der Offline-Welt wird. Die Spanne an internetfähigen Geräten reicht von Mobiltelefonen, e-Book-Readern, Tablet-Computern, Kameras und TV-Systemen bis hin zu Haushaltsgeräten, digitalen Bilderrahmen und Armbanduhren und wird immer breiter. Immer stärker werden Internetdienste mit dem Alltag verwoben. Egal ob Fahrplanauskünfte, Preisvergleiche, Ticketkäufe, Recherchen, Foto-Uploads oder Status-Updates — das Internet wird immer mobiler und führt zu einer Always-On-Mentalität.

[...]


[1] Vgl. dazu Tim Berners-Lee: “Web 1.0 was all about connecting people. It was an interactive space, and I think Web 2.0 is of course a piece of jargon, nobody even knows what it means. If Web 2.0 for you is blogs and wikis, then that is people to people. But that was what the Web was supposed to be all along. And in fact, you know, this Web 2.0, quote, it means using the standards which have been produced by all these people working on Web 1.0. […], the idea of the Web as interaction between people is really what the Web is. That was what it was designed to be as a collaborative space where people can interact.” (zit. n. Blumauer/ Pellegrini 2009:26).

[2] Z.B., David Meerman Scott (2009): Die neuen Marketing- und PR-Regeln im Web 2.0 oder Erik Qualman (2010): Socialnomics. Wie Social Media Wirtschaft und Gesellschaft verändern.

[3] Bei Texten ist die Null z.B. meist von weiteren Ziffern umgeben, ein großes O steht meist am Anfang eines Wortes und auf ein kleines o folgt (zumindest in diesem Dokument) am häufigsten ein n. Bei Bildern sind die meisten Pupillen dunkel, rund, und gehören zu einem Auge, das wiederum meistens zu einem Gesicht gehört.

[4] In der Literatur wird diese Vernetzung und ihre Auswirkungen unter dem Stichwort Hypertext behandelt (vgl. Roesler/ Stiegler 2005:86).

[5] Das Thema lokalisierter Internetangebote, bei dem Zeit und Ort wieder eine stärkere Relevanz erhalten, wird später unter dem Stichwort ‚Medienkonvergenz‘ behandelt.

Ende der Leseprobe aus 43 Seiten

Details

Titel
Marketing 2.0? - Das Internet als Medium der Digitalisierung und Vernetzung und daraus abgeleitete Regeln für ein medienspezifisches Marketing
Hochschule
Universität Siegen
Note
1,0
Autor
Jahr
2010
Seiten
43
Katalognummer
V153187
ISBN (eBook)
9783640655489
ISBN (Buch)
9783640655366
Dateigröße
1048 KB
Sprache
Deutsch
Schlagworte
Marketing, Internet, Medium, Digitalisierung, Vernetzung, Regeln, Marketing
Arbeit zitieren
Abel Hoffmann (Autor:in), 2010, Marketing 2.0? - Das Internet als Medium der Digitalisierung und Vernetzung und daraus abgeleitete Regeln für ein medienspezifisches Marketing, München, GRIN Verlag, https://www.grin.com/document/153187

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Marketing 2.0? - Das Internet als Medium der Digitalisierung und Vernetzung und daraus abgeleitete Regeln für ein medienspezifisches Marketing



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden