Der gläserne Hund - Cyberdemokratie und Machtinstanz unserer Informationsgesellschaft


Diplomarbeit, 2000
26 Seiten, Note: 1

Leseprobe

Inhaltsverzeichnis

1. Die Geschichte des Internet

2. Der Computer als Medium
2.1. Digital Divide
2.2. Bidirektionalität
2.3. Omnipräsenz

3. Die Informationsgesellschaft
3.1. Die Wahrheit zwischen TRUE & FALSE

4. Der gläserne Hund – Orwells elektronische Praxis
4.1. Die Microsoft Methode
4.2. Echelon
4.3. CCTV
4.4. Die Welt von innen und außen

5. Ein Dorf namens Babylon ? – Abschließende Bemerkungen
5.1. Fazit – Der Mensch und sein Medium

Literaturverzeichnis / Glossar

Vorwort

Sämtliche Institutionen des Landes werden durch das neuartige Sicherheitssystem „Gatekeeper“ von Gregg Computer Systems beschützt, welches sich als am resistentesten gegenüber ständigen Hackerangriffen am Markt behaupten kann. Als Angela Bennett, Programmsystemanalytikerin aus Santa Monica, eines Tages an eine Diskette gelangt, die ihr Zugang zur zentralen Datenbank des FBI gewährt, deckt sie Skandalöses auf.

Die „Gatekeeper“ Software entpuppt sich als trojanisches Pferd - absichtlich hat man Hintertüren einprogrammiert, um Zugang zu sämtlichen privaten und staatlichen Systemen zu erlangen. Noch am Tag ihrer Erkenntnis versucht man Angela Bennetts wahre Identität systematisch auszulöschen um einen globalen Gau zu vermeiden. In unserer Informationsgesellschaft verdrängen digitale Daten zunehmend das analoge Papier. Die Krankenakte, KFZ- und Sozialversicherung, Kreditkarte, was wir essen, welche Bücher wir lieben, woher wir kommen und wohin wir gehen – alles wird protokolliert, kontrolliert und registriert.

Ein Szenario aus dem Film „The Net“ von Irwin Winkler – das bereits vor Jahren der Utopie entwachsen ist. Das Netz ist längst nicht mehr das ideale Versteck. Der kleine elektronische Schatten liegt auf jedem von uns, wartet nur darauf, manipuliert zu werden und: „Deutschland geht T-Online“ - gehen Sie mit ?

Brechts illusorische Radiotheorie mit der Einsicht des Autors, dass diese „undurchführbar in dieser Gesellschaftsordnung, durchführbar in einer anderen“ sei, scheint seine Erfüllung im Internet gefunden zu haben. Das anonyme Medium, welches durch einen Comic illustriert wurde, in dem der beste Freund des Menschen nonchalant an der Tastatur verkündet „on the internet nobody knows you’re a dog“ und konträr dazu der transparente User, fördert eine seltsame Legierung zu Tage.

Die vielleicht größte Erfindung seit dem Faustkeil hat sich der sinnlichen wie humanistischen Komponente entledigt und sich der Zahlentheorie verschrieben. Abgerechnet wird im Netz in einem Machwerk aus Hits, Clicks, PageImpressions und AdViews, in dem wir selbst eine Chimäre, also „ein gläserner Hund“ sind.

1. Die Geschichte des Internet

Um die Position des Netzes gegenüber den anderen Medien besser verstehen zukönnen, wollen wir uns zunächst der jungen Historie zuwenden.

Im Herbst 1999 wurde in vielen Orten der Welt der Geburtstag des Internet gefeiert. Das genaue Alter des garantiert mutterlosen, aber von vielen Vätern erschaffenen Netzes ist angesichts der vielseitigen Interpretationen und vielfältiger Interessen an der Historie reine Spekulation. Auch wenn Anfang der 1970er Jahre parallel an Projekten gearbeitet wurde, die maßgeblich für das heutige Internet waren, empfand es damals keiner der Wissenschaftler als revolutionär, geschweige denn, dass jemand hätte erahnen können, dass diese „fixe Idee“ Weltökonomie verändern wird.

Vint Cerf, der bei der MCI Worldcom die „PR-Vaterrolle“ glänzend ausfüllt, definiert den 22.November 1977 als Geburtstag des Internet. An diesem Tag wurden erstmals drei unterschiedliche Netze zusammengeschaltet, denn „wenn ein Rechner mit einem Kommunikationsprozessor Daten austauscht sei das noch lange kein Internet“,so Cerf.

Leonard Kleinrock plädiert für den 2.September 1969, den Tag als an der University of California in Los Angeles (UCLA) der erste Computer an ein Interface Messaging Processor (IMP) angeschlossen wurde. Der Rechner musste mit einem Kran in das Labor Kleinrocks gehievt werden, wobei seine einzige Aufgabe darin bestand, Daten zu senden und zu empfangen. Der Bau des IMP-Rechners wurde, wen wundert es, von der amerikanischen Forschungsabteilung im Verteidigungsministerium ausgeschrieben. Nachdem zu dieser Zeit führende Unternehmen wie IBM den Bau des IMP-Rechners als nicht realisierbar ablehnten, wagte die Firma BBN den Bau von 4 IMPs unter der technischen Leitung von Bob Taylor von der Advanced Research Projects Agency (ARPA). Bob Taylor formulierte erstmals in „The Computer as Communication Device“ [i] die Idee der Vernetzung aller Computer.

1971 wurde das inzwischen mit 15 IMPs operierende Forschungsnetz ARPAnet der Öffentlichkeit vorgestellt. Zu diesem Zeitpunkt hatte das Netz etwa die Dimension wie auf den ersten Skizzen des Informatikers Larry Roberts aus dem Jahre 1966 erreicht, der die Idee eines dezentral verknüpften Netzwerks entwickelte. Heute ist Roberts einer der Väter, die am stärksten gegen die Idee vom kriegerischen Internet polemisieren. Vordergründig sei ein effizientes Netz gewesen; das Argument eines Atomschlages sei erst später dazugekommen, um Forschungsgelder des Militärs locker zu machen.

Anfang der 1970er Jahre kam die Idee auf, die IMPs durch Computer abzulösen die keine Spezialrechner waren. Der Informatiker Bob Metcalfe beschäftigte sich 1972 damit, das hausinterne Netz der Firma XEROX an das ARPAnet anzubinden und erfand eine Übertragungstechnik, die er Ethernet nannte. Diese Erfindung weckte das Interesse von Vint Cerf und Bob Kahn, die 1974 den Vorschlag für ein einheitliches Übertragungsprotokoll machten. Dieses Protokoll wurde TCP/IP genannt und am 1. Januar 1983 zum offiziellen Standard erklärt. Im Jahre 1989 schließlich, als schon etwa 100.000 Hostrechner am Datennetz hingen, wurde das in die Tage gekommene ARPAnet abgeschaltet. Wohl aber nicht nur wegen der technologischen Unnotwendigkeit, sondern auch weil der Warschauer Pakt in diesem Jahr zu zerfallen begann.

Bis zur Entwicklung des World Wide Web (WWW) durch Tim Berners-Lee [ii] Anfang der 1990er Jahre wurden die bis dahin rein textuellen Internetdienste wie eMail, FTP, BBS oder das heute fast schon wieder vergessene Gopher überwiegend universitär genutzt. Von kommerziellem oder künstlerischem Interesse war das Netz zum damaligen Zeitpunkt kaum, zumal die graphische Nutzung in skurriler ASCII & ANSI-Art das Ende der Fahnenstange markierte. ASCII/ANSI-Art versuchte dabei eine Visualisierung mittels des normalen, auf der Tastatur verfügbaren, Zeichensatzes zu erreichen - vergleichbar mit den graphischen Möglichkeiten des damaligen BTX oder des heutigen Videotextes. Durch den zusätzlichen WWW-Dienst, der völlig neue mediale Möglichkeiten etablierte und heute fast schon zum Synonym für das Internet schlechthin geworden ist, wurde das Netz nicht zuletzt kommerziell interessant.

Ab etwa 1993 ist ein exponentielles Wachstum des Internet zu verzeichnen, welches zur Jahrtausendwende in 56 Mio. registrierten Servern gipfelte. Die Anzahl der Clients kann heute nur noch geschätzt werden. Die Verbreitungsgeschwindigkeit des Mediums Netz sucht seines gleichen, laut einer Studie des Pacific Research Institute [iii] konnte sich das Internet 9x mal schneller als das Radio, 4x mal schneller als der Computer und 3x mal schneller als das TV etablieren.

Diese Tatsache mag auf den ersten Blick faszinieren, der rasante Wachstum hat jedoch seine Tücken. Von allen Medien, den neuen und den klassischen, war dem Internet die wenigste Zeit für eine Positionierung gegeben. Konträr zu den Entwicklungsprozessen des Buchdrucks oder des TV ist das Internet gewissermaßen die wässrige Gentomate im „Mediengemüsegarten“.

Wenn wir das Netz nicht nur als Technik, sondern tatsächlich mit den klassischen Medien vergleichen wollen, so hat man „nicht mehr als einen Schrotthaufen, in dem Gold und Perlen versteckt sind“ [iv], wie es der Computerkritiker Joseph Weizenbaum drastisch beschreibt. Dieser „Schrotthaufen“ soll im folgenden untersucht werden.

2. Der Computer als Medium.

Der Computer ist ein Multimedium, welches sequenziell die klassischen Medien zu subsumieren scheint. Das Internet explodiert dabei als ein Medium der Texte und der Schrift, auf der es genaugenommen basiert. Die dazugehörige Beschreibungssprache HTML, das Fundament sämtlicher Internetseiten, aber auch Bilder, Töne und Filme basieren in ihrer digitalen Architektur auf Schrift.

Dabei ergibt sich die Paradoxie, dass wir einerseits die technischen Bilder (Fotografie, Film und TV) offensichtlich aufgegeben haben und wie es scheint, zu Schrift und Sprache zurückfinden, aber andererseits das Ende der Gutenberg Galaxis verkünden.

Maschine, ebenso wie Mechanik, entstammt dem griechischen Wortstamm Mechus, was soviel wie List bedeutet. Vom Hebel bis zum Computer sind diese Vorrichtungen zum Überlisten der Natur, die wohl größte Leistung des menschlichen Gehirns, ohne das man sich jedoch selbst als Bestandteil der Natur sehen würde. Seit Turing [v] misst man den Maschinen künstliche Intelligenz bei und arbeitet damit an der Überlistung seiner selbst.

2.1. Digital Divide

Stets haben wir bei einschneidenden Umwälzungen der Informationstechnologie oder der Geburt eines neuen Mediums zwei klare – sozial bedingte Haltungsfronten erkennen können – Euphorie und Pessimismus. Die eine kennzeichnet das neue Medium als göttliches Geschenk zur Freisetzung der Möglichkeiten, als Machtzuwachs des Subjekts mit geradezu emanzipatorischer Kraft, die andere beklagt den Verlust humaner Eigenschaften und eine zunehmende Abhängigkeit und Fremdsteuerung des Subjekts durch das Medium selbst. Aus chronologischer Sicht beobachten wir immer kürzere Akzeptanzzeiten neuen Medien gegenüber.

Um 1450 war es Gutenberg, der denjenigen, die des Schreibens privilegiert waren, erstmals gehörige Zukunftsängste machte. Verlernt haben wir es bis heute nicht. Im 18. Jahrhundert fürchteten die Gelehrten die „Lesesucht“ und einen einhergehenden Verlust ihres Hoheitswissens. Von nun an, so der Glaube, könne jeder Ungebildete aus Wörterbüchern und Lexika Wissen konsumieren und dies für das seinige ausgeben. Heute bedauern wir sogar, dass die Menschen so wenig lesen. Beim Einzug des Telefons warnten Kritiker vor der Vereinsamung der Menschen. Heute treffen sich die Menschen, weil sie sich per Telefon verabreden können. Bei der Einführung des Privatfernsehens warnten viele vor unmäßigem Fernsehkonsum. Heute gibt es 50, morgen vielleicht 500 Kanäle, und die Menschen gucken trotzdem nicht länger.

„Für Kulturpessimismus besteht kein Grund. Die Diskussion über Medieneinflüsse ist alt, nur das Medium ist neu.“ [vi]

Doch Dr. Jürgen Rüttgers, damaliger Bundesminister für Bildung, Wissenschaft, Forschung und Technologie, unterschätzt das Medium Internet in eklatanter Art und Weise. Kann ein jeder, der das Alphabet beherrscht, ohne weiteres mit dem Printmedium umgehen, kann ein jeder der seiner Sinne mächtig ist (ein Empfangsgerät vorrausgesetzt), fernsehen oder Radio hören – so hat der Abstraktionsgrad des Zugangs zum Medium Internet stark zugenommen.

„Digital divide“ nennt die amerikanische Regierung das Phänomen der immer weiter klaffenden Schere zwischen Menschen mit und ohne Netzzugang. Dabei ist der Zugang innerhalb der Onlinegruppe kein soziologisches Parameter mehr, sondern manifestiert sich an den technologischen Polen. Die Geschwindigkeit des Prozessors und des Netzzugangs treten an die Stelle des sozialen Status, Ideologie ist eine Frage des Browsers oder des verwendeten Betriebsystems geworden und die Identität ist zur Seriennummer verkommen. Gibt es innerhalb der Fernsehzuschauer oder Radiohöher kein privilegierteres Moment mehr, so ist beim Netz ein zweites, inhärentes „digital divide 2“ absehbar. So wird der Benutzer mit den bestmöglichen technischen Vorraussetzungen zu den privilegiertesten Benutzern gehören. Schon heute ist ein Trend erkennbar, der dem Nutzer immer weitere Hard- und Softwareaktualisierung („PlugIns“) aufdiktiert, ohne die er vom Angebot schlichtweg ausgeschlossen wird. Der privilegierte Netznutzer wird künftig am schnellsten Informationen konsumieren und publizieren können, wodurch eine weitere wesentliche Differenz von Netz und dem Rest der Medien offenbar wird – die Bidirektionalität.

2.2. Bidirektionalität

Mediale Macht ist nicht erst seit dem Bau des Computers oder der weltweiten Vernetzung eine Tatsache, die Diktatoren und Militärs gleichermaßen weitsichtig erkannten wie die Demokraten. Dabei scheinen die Befürworter der Emanzipation, denen hinterherzuhinken, die durch die Emanzipation einen Machtverlust befürchten.

Schon früh setzte Siegfried Krakauer sehr große Hoffnungen in die Massenkultur. Bei Brecht gibt es die Utopie, den Massenmedien ihren monologischen Charakter zu nehmen (vgl.[vii]) – kaum drei Jahre später war in ganz Europa die „Wochenschau“ zu sehen und die „Göbbelsschnauze“ (Volksempfänger) zu hören. In Amerika gab es seit den 1970er Jahren periphere Versuche eines „PublicAccess Television“, wenig später fand man Verblend-ungsmethoden irgendwo zwischen „Superbowl“ und einem sterilen, virtuell aufbereiteten Golfkrieg. Der ewige Traum von der emanzipatorischen Kraft, von der Auflösung des Sender-Empfänger-Paradigmas, scheint erst heute durch den Computer in Erfüllung zu gehen. Dienten bislang Medien nicht zur Kommunikation, sondern zu ihrer Verhinderung, wie Enzensberger[viii] bemerkt, so steht dem heute selbstredend der Slogan eines Internetproviders gegenüber: „Kommunikation ist alles“.

Diese Kommunikation trägt bisweilen merkwürdige Früchte, die niemand hätte erahnen können – schließlich haben wir es hier mit einem historischen Novum zu tun. Das einst wissenschaftliche Distributionsnetz hat die Sphären des von Brecht geforderten Kommunikationsapparates längst wieder verlassen. Da die Sendeapparate, die Computer, so selbstverständlich zwischen Käsetheke und Wurstregal des Gemischtwarenladens verkauft werden und man sich fragt „bin ich schon drin?“ (AOL Werbekampagne) ohne auch nur minimal zu hinterfragen, warum ich denn rein soll, gibt es eine wahre Flut an emanzipatorischen Publikationen. Die totale Kommunikation wandelt sich zu heillosem Gebrüll. Kein Mikrokosmos, kein noch so abstruses Hobby, welches nicht über den großen „Publizieren“-Button den Weg ins Netz findet. Ganz davon abgesehen, dass sich nun auch jeder als Chefdesigner oder Künstler sehen kann, resultiert die Mehrzahl der Veröffentlichungen im Netz auch rein textuell in eine bizarre Form von Eigenbrötlerei, die zum Zwecke der Werbung mit Superlativen bespickt wird. Die Homepage des dörflichen Schützenvereins X koexistiert so neben dem Online Pendant eines klassischen Medienkonzerns Y. Wege aus diesem Rauschen fand das System trotz der kurzen Lebenszeit selbst.

Der Tatsache, dass im Sekundentakt neue Websites das Licht der Onlinewelt erblicken, steht die Erkenntnis gegenüber, dass das Netz subjektiv kleiner wird. Der Weg, den der User im Web zurücklegt wird kürzer – er erforscht weniger und bewegt sich in zunehmenden Maße auf den ihm bekannten Pfaden und Sites.

Der Fakt, dass nun jeder nach Belieben senden kann und demzufolge natürlich auch empfangen werden will, führt zu einem interessanten Phänomen, das ich als Portalboom bezeichnen möchte. Da das Netz dezentral ist, kann sich zwar jeder einbilden, er wäre im Zentrum des Geschehens - versierte Benutzer kennen allerdings die auch im Netz bestehende Hierarchiekette. Das Netz operiert inzwischen in Sphären von „Multi“ und „Meta“. Wer seine Homepage nicht bei Suchservices anmeldet oder anderweitig bewirbt, ist de facto nicht präsent. Er sendet also gewissermaßen auf einer unbekannten Frequenz und wird nicht empfangen. Suchmaschinen und zentrale Einstiegsseiten, die sich einer speziellen Thematik widmen und kleinere Homepages subsumieren, versprechen hier Linderung. Jedoch decken Suchmaschinen auch nur etwa 20% des Datenbestandes, daher werden inzwischen mehrere Suchmaschinen in einer Metasuchmaschine zusammengeschaltet (z.B. www.google.com) und „special interes“ Portalsites zu größeren „general interes“ Portalsites zusammengefasst. Die logische Konsequenz ist, dass es Websites gibt, die punktuell genaues Spezialinteresse ansprechen, wie etwa die Homepage unseres Schützenvereins X, die ja sehr wohl das Interesse der Mitglieder des Vereines bedient. Aber andererseits findet der Neueinsteiger immer mehr einen kommerziellen Interessensquerschnitt Y, ein „general interess“ Geplänkel. Man könnte genauso gut von einer Zweiteilung des Netzes, in ein ober- und ein unterweltliches, sprechen. Das „unterweltliche“, indem auch die Perlen versteckt sind, ist nur über geheime Insidertipps zugänglich.

2.3. Omnipräsenz

Ein weiteres Novum, welches der Computer, respektive das Internet, als Medium mit sich bringt, ist die „Auflösung“ von Zeit und Raum. Auch wenn inzwischen der Sendeschluss beim TV durch permanente Telefonsexwerbung und Wiederholungen des Tages überbrückt wird, kann man am Fernsehprogramm noch sehr deutlich die Eigenheiten des Empfängers „Mensch“ ablesen. Das Sendeschema ist in allen Ländern der Erde vergleichbar ähnlich, wodurch sich Informationsstoßzeiten wie die Abendnachrichten und Informationslöcher wie das Nachtprogramm wellenförmig gemäss den Zeitzonen von West nach Ost über den Globus ausbreiten.

Der Computer nimmt keinerlei Rücksicht auf die biologische Uhr des Menschen. Verkauft, informiert und gesendet wird rund um die Uhr in gleicher Konzentration und Menge. Zur Folge hat das Senden für ein imaginäres, zeitunabhängiges Publikum, dass die tägliche Distributionswelle nicht mehr am Sender, sondern am Empfänger ablesbar ist. Relativ zum Standort bzw. der Zeitzone des Senders lässt Abb.1 erkennen, dass sich die Empfänger überwiegend nah am Senderstandpunkt befinden. Der Server steht in Deutschland, nachts (zwischen 1.00 Uhr und 9.00 Uhr GMT) wird deutlich weniger empfangen, obgleich sich das nächtliche vom täglichen Angebot nicht unterscheidet. Die Unruhe, wie Geißler die Hektik der Zeit beschreibt, ist aus der Uhr ins Leben geflüchtet. [ix]

Abbildung in dieser Leseprobe nicht enthalten Abb.1

verybusy.org

[...]


[i] Bob Taylor, J.C.R. Licklider, „The Computer as Communication Device“, http://gatekeeper.dec.com/pub/DEC/SRC/research-reports/abstracts/src-rr-061.html

[ii] Tim Berners-Lee (mit Mark Fishetti): „Der Web-Report“, econ Verlag, München

[iii] Helen Chaney, Pacific Research Institute, “digital divide” veröffentlicht über “POLITECH - mailing list of politics and technology” http://www.politechbot.com/p-01014.html

[iv] Joseph Weizenbaum, auf dem „Unexpected Outcomes of Technology“ Kongress, 1998

[v] Alan Turing, „MIND - Computing Machinery and Intelligence”, 1950 http://www.abelard.org/turpap/turpar.htm

[vi] Dr. Jürgen Rüttgers, Internationale Konferenz über die Werte der Informationsgesellschaft, 9.Sep. 1996 (Petersberg bei Bonn)

[vii] Bertolt Brecht, „Radio - Eine vorsintflutliche Erfindung?“ (1927/28), S. 217-218, in Werke Berliner und Frankfurter Ausgabe

[viii] Hans Magnus Enzensberger, „Baukasten zu einer Theorie der Medien“, 3. S. 100 ff

[ix] Karlheinz A. Geißler, „Zeit leben“, 1997; Weinheim; Beltz Verlag

Ende der Leseprobe aus 26 Seiten

Details

Titel
Der gläserne Hund - Cyberdemokratie und Machtinstanz unserer Informationsgesellschaft
Hochschule
Hochschule für Grafik und Buchkunst Leipzig  (Medienwissenschaft)
Note
1
Autor
Jahr
2000
Seiten
26
Katalognummer
V10723
ISBN (eBook)
9783638170710
ISBN (Buch)
9783638641562
Dateigröße
523 KB
Sprache
Deutsch
Schlagworte
Überwachung, CCTV, camera control, Netzpolitik, Enzensberger, Brecht, Gates, Microsoft, Baudrillard, Luhmann, Digitale Macht, echolon
Arbeit zitieren
Master of Arts Stephan Schröder (Autor), 2000, Der gläserne Hund - Cyberdemokratie und Machtinstanz unserer Informationsgesellschaft, München, GRIN Verlag, https://www.grin.com/document/10723

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Der gläserne Hund - Cyberdemokratie und Machtinstanz unserer Informationsgesellschaft


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden