Problematische Inhalte im Internet - Möglichkeiten und Grenzen aktueller Regulierungsansätze


Diplomarbeit, 2004

153 Seiten, Note: Gut


Leseprobe

Inhaltsverzeichnis

0. EINLEITUNG
0.1 Ziele der Arbeit
0.2 Aufbau der Arbeit

1. GRUNDLAGEN DES INTERNET
1.1 Die historische Entwicklung des Internet
1.2 Die technische Struktur des Internet
1.2.1 Das Internet als Netzwerk von Netzwerken
1.2.2 Die zentrale Administration des Internet
1.2.3 Die dezentrale Organisation des Internet
1.2.4 Datenübertragung mittels Paketvermittlung
1.3 Die wichtigsten Dienste im Internet
1.3.1 Informationsdienste
1.3.1.1 Das World Wide Web
1.3.1.2 File Transfer Protocol (FTP)
1.3.1.3 Peer-To-Peer Netzwerke (P2P)
1.3.2 Kommunikationsdienste
1.3.2.1 E-Mail
1.3.2.2 Usenet Newsgroups
1.3.2.3 Internet Relay Chat (IRC)
1.3.2.4 Chats
1.3.2.5 Instant Messenger Tools

2. PROBLEMATISCHE INHALTE IM INTERNET
2.1 Kinderpornographie im Internet
2.1.1 Allgemeines
2.1.2 Kinderpornographie im World Wide Web
2.1.3 Kinderpornographie auf FTP-Servern
2.1.4 Kinderpornographie inFilesharing-Netzwerken
2.1.5 Kinderpornographie in Newsgroups
2.1.6 Kinderpornographie im IRC
2.1.7 Kinderpornographie und Chats
2.1.8 Kinderpornographie und Instant Messenger Tools
2.1.9 Kapitel-Zusammenfassung
2.2 „Cyberhate“ im Internet
2.2.1 Nationalsozialismus
2.2.2 Andere Ausprägungen von Rassismus
2.2.3 Unterschiedliche Gesetzgebungen zu Rassismus
2.2.4 Musik und Spiele als rassistische Propagandainstrumente
2.2.5 Rassismus im World Wide Web
2.2.6 Rassistische Inhalte auf FTP-Servern
2.2.7 Rassistische Inhalte in Filesharing-Netzwerken
2.2.8 Rassismus im Usenet
2.2.9 Rassismus im IRC
2.2.10 Rassismus in Chats
2.2.11 Kapitel-Zusammenfassung
2.3 Pornographie im Internet
2.3.1 Rechtliche Grundlagen
2.3.2 Pornographie im World Wide Web
2.3.3 Pornographie auf FTP-Servern
2.3.4 Pornographie in Filesharing-Netzwerken
2.3.5 Pornographie im Usenet
2.3.6 Pornographie im IRC
2.3.7 Pornographie und Chats
2.3.8 Pornographie in E-Mails
2.3.9 Kapitel-Zusammenfassung

3. REGULIERUNG PROBLEMATISCHER INTERNETINHALTE
3.1 Regulierungsbereiche
3.2 Relevante Akteure
3.2.1 Die User
3.2.2 Provider
3.2.2.1 Access Provider
3.2.2.2 Host Provider
3.2.2.3 Content Provider
3.2.3 Staatliche Akteure
3.2.4 Sonstige relevante Institutionen und Vereinigungen
3.3 Staatliche Regulierung
3.3.1 National-staatliche Regulierung
3.3.2 Über-staatliche Regulierung
3.3.3 Negativ-Beispiele für staatliche Regulierung
3.3.3.1 Beispiel 1: Der Communication Decency Act
3.3.3.2 Beispiel 2: Der Compuserve Skandal
3.4 Selbstregulierung
3.4.1 Verhaltenskodizes von Providern („Codes of Conduct“)
3.4.2 Internet-Hotlines
3.4.3 Filterung von Internet-Inhalten
3.4.3.1 Text-basierte Filterung
3.4.3.2 Filterung basierend auf„Zoning“
3.4.3.3 Filterung basierend auf„Rating“
3.4.3.4 Server-seitige Filterung
3.4.4 Die Netiquette
3.4.5 Medienkompetenz und „Awareness“
3.5 KO-Regulierung
3.5.1 Ein Beispiel für KO-Regulierung: DerInternet Action Plander EU
3.6 Problembereich: Regulierung vs. Meinungsfreiheit

4. EVALUIERUNG AKTUELLER REGULIERUNGSMASSNAHMEN
4.1 Grundsätzliches zur Befragung
4.1.1 Aufbau des Fragebogens
4.1.2 Allgemeine Demographien der Stichprobe
4.2 Evaluierung von Verhaltenskodizes am Beispiel der ISPA
4.2.1 Evaluierungskriterien
4.2.2 Überprüfung der Kriterien
4.2.2.1 Evaluierung der inhaltlichen Qualität
4.2.2.2 Evaluierung der Anzahl von Mitgliedern
4.2.3 Anwendbarkeit von Verhaltenskodizes im Internet
4.2.4 Kapitel-Zusammenfassung
4.3 Evaluierung von Internet-Hotlines am Beispiel derStopline
4.3.1 Evaluierungskriterien
4.3.2 Überprüfung der Kriterien
4.3.2.1 Allgemeine Anforderungen
4.3.2.2 Bekanntheitsgrad und Akzeptanz bei den Usern
4.3.2.3 Anzahl und Art der eingegangenen Hinweise
4.3.3 Anwendbarkeit von Internet-Hotlines im Internet
4.3.4 Kapitel-Zusammenfassung
4.4 Evaluierung von Internet-Filtern
4.4.1 Evaluierungskriterien
4.4.2 Überprüfung der Kriterien
4.4.2.1 Genauigkeit und Effizienz von Internet-Filtern
4.4.2.2 Bekanntheitsgrad und Akzeptanz bei den Usern
4.4.3 Anwendbarkeit von Internet-Filtern im Internet
4.4.4 Kapitel-Zusammenfassung

5. ZUSAMMENFASSUNG

6. ABBILDUNGSVERZEICHNIS

7. LITERATURVERZEICHNIS

0. EINLEITUNG

Das Internet avancierte in den letzten Jahrzehnten zu einem festen Bestandteil unserer Gesellschaft. Mit seinen vielen Nutzungsmöglichkeiten hielt das Netz Einzug in die verschiedensten Bereiche unseres Lebens. Es dient zur Informationsbeschaffung, zur Kommunikation, zum Datenaustausch, u.v.m. Im privaten Bereich eröffneten sich für die User ganz neue globale Kommunikationsmöglichkeiten, die für viele Menschen heute nicht mehr wegzudenken wären. Im wirtschaftlichen Bereich ist das Internet zum fruchtbaren Boden für ganz neue Branchen und Berufszweige geworden (Stichwort „E- Business“). Keine andere technologische Entwicklung hat in jüngster Zeit unser Verständnis von Öffentlichkeit so verändert, wie der „Daten Highway“.

Obwohl das Internet lange Zeit als anarchistischer und rechtsfreier Raum galt, traten mit dem schnellen Siegeszug des Internet aber auch bald Probleme auf, die mit der immer weiteren Verbreitung des Netzes auch immer größer wurden. Dazu zählen die Verbreitung von illegalem oder moralisch bedenklichem Material (Pornographie, nationalsozialistisches Gedankengut, etc.), Datenmissbrauch, oder Computerkriminalität (Hacker). Der Ruf nach einer Regulierung wurde immer lauter. Doch während die einen das anarchistische Internet als ungeregelten Bereich gegen Zensurbestrebungen und staatliche Einflüsse verteidigen wollen, ist für die anderen die Einführung einer einheitlichen Regulierung unabdingbar.

Das Problem einer inhaltlichen Regulierung wurde von vielen Akteuren mehr oder weniger wirksam in Angriff genommen. Einerseits gab es etliche staatliche Bemühungen, die jedoch selten erfolgreich waren, was wohl daran liegt, dass die Politik das Internet immer noch als „weiteres Medium“ neben Fernsehen oder Radio sieht und auch ähnliche Kontrollmaßnahmen vorsieht. Dies ist natürlich oftmals zum Scheitern verurteilt, da sich das weltweite Netz grundlegend von seinen Vorgänger-Medien unterscheidet, indem zum Beispiel jeder Rezipient zum kommunizierenden Inhaltsanbieter werden kann. Es ist somit ein „many-to-many“ Medium und kein traditionelles „one-to-many“ Massenmedium.

Eine weitere Möglichkeit der Regulierung geht von der Internetindustrie selbst aus. Diese Selbst-Regulierung umfasst Internet Service Provider, Internet-Organisationen und auch normale Benutzer, und bietet verschiedene Möglichkeiten der Involvierung aller beteiligten Akteure in die Regulierung des Internet. Dieser Ansatz der Kontrolle von Innen heraus und durch die Industrie selbst hat sich in den letzten Jahren als wesentlich erfolgreicher erwiesen, als eine staatliche Regulierung von außen.

Als dritte Möglichkeit ergibt sich eine Ko-Regulierung von staatlichen Institutionen und selbst-regulativen Maßnahmen, die in den letzten Jahren immer wieder forciert wurde. Besonders die Europäische Union versuchte, Projekte der Internetindustrie zu unterstützen die die Zusammenarbeit von Staat und Industrie zu fördern.

0.1 Ziele der Arbeit

Diese Arbeit befasst sich mit verschiedenen Fragestellungen im Bereich problematischer Inhalte im Internet. Zuerst sollten grundlegende Zusammenhänge von den technischen Strukturen des Internet und einer möglichen Regulierung erläutert werden. Primär geht es hierbei um den Einfluss dieser Strukturen auf eine mögliche Regulierung. In diesem Zusammenhang wird auch die historische Entwicklung des Internet beleuchtet werden. Schließlich sollten auch die verschiedenen Dienste, die es im Internet gibt, beschrieben werden, und Dienst-spezifische Probleme bei einer möglichen Regulierung dargestellt werden.

Der nächste große Forschungsbereich befasst sich mit einigen Inhalten, die im Allgemeinen als problematisch eingestuft werden. Dies sind Kinderpornographie, Rassismus bzw. Nationalsozialismus und schließlich (legale) Pornographie. Ein Ziel dieser Arbeit sollte sein, die Problematiken, die diese Inhalte aufwerfen, genau zu beleuchten. Es sollten sowohl die rechtlichen Grundlagen, der Umfang, und auch die Form, in der solche Daten im Internet vorkommen, betrachtet werden. Hierbei wird immer auf die einzelnen Dienste im Internet Bezug genommen, da man das Internet nicht als homogenes Ganzes, sondern nur als Konglomerat von verschiedenen Diensten sehen kann, in denen die zu behandelnden Inhalte in unterschiedlicher Form und unterschiedlichem Umfang auftreten können.

Weiters werden verschiedene Regulierungsmöglichkeiten präsentiert. Wie schon erwähnt können diese in staatliche, selbst-regulative oder ko-regulative Mechanismen unterteilt werden. Ein weiteres Ziel dieser Arbeit sollte sein, diese Mechanismen genau und kritisch zu beleuchten, und Probleme und Vorteile aufzuzeigen. Hierbei wird stets auf den aktuellen Stand der Diskussion Bezug genommen. Besonderes Augenmerk sollte jedoch auch auf eine grundlegende Problematik gelegt werden, nämlich auf die Streitfrage Meinungsfreiheit versus Regulierung. Wie weit sollte Meinungsfreiheit gehen, und wann sollte Regulierung beginnen? Dieses Dilemma wird bei der Beschreibung aller Regulierungsmöglichkeiten beachtet werden.

Zuletzt sollten aktuell vorhandene Regulierungsinstrumente evaluiert werden. Dies geschieht anhand von Kriterien, die für den Erfolg und die Effizienz der zu untersuchenden Mechanismen relevant sind. Diese Kriterien werden dann einerseits durch die Ergebnisse von bestehenden Untersuchungen überprüft. Für solche Fragen, für die noch keine empirisch belegten Antworten vorliegen, wurde eine eigene Fragebogenuntersuchung durchgeführt. Bei der Evaluierung der aktuellen Regulierungsinstrumente wird auch wieder auf die unterschiedlichen Dienste Bezug genommen. Denn oftmals sind diese Mechanismen nur auf traditionelle Dienste (hauptsächlich das World Wide Web) ausgerichtet.

Die genannten Ziele und Fragestellungen werden anhand von folgenden Hypothesen überprüft:

1. Illegale und problematische Internetinhalte stellen ein sehr schwer bekämpfbares Problem dar.
2. Aktuelle Maßnahmen in Österreich und der Europäischen Union sind zu wenig effizient. "Zu wenig effizient" heißt:
3. Es ist für Interessierte nach wie vor leicht, an illegales und problematisches Material zu kommen.
4. Aktuelle Maßnahmen beschränken sich auf herkömmliche Internetdienste. Bei neuen Technologien (wie z.B. P2P Filesharing Netzwerke) greifen sie wenig oder gar nicht.
5. Einige Maßnahmen der Bekämpfung von problematischen Internetinhalten basieren auf der Involvierung der Internet-User selbst. Diese sind jedoch zu wenig informiert.

Der Verwertungszusammenhang dieser Arbeit bewegt sich in verschiedenen Bereichen. Zum einen ist eine umfassende und stark auf die unterschiedlichen Internetdienste bezogene Darstellung des Umfangs und der Form der erwähnten problematischen Inhalte sehr interessant, und zwar sowohl für die regulierenden Akteure, als auch für den Internetuser. In der Literatur und den Medien ist zwar oft von (Kinder-) Pornographie oder Nationalsozialismus im Internet die Rede, wirkliche Untersuchungen über den tatsächlichen Umfang dieser Inhalte gibt es aber wenige. Auch wird oftmals nur auf das World Wide Web Bezug genommen. Andere Dienste werden diesbezüglich nur selten betrachtet. Diese Arbeit sollte einen aktuellen Überblick über das Ausmaß der zu behandelnden Problembereiche liefern.

Auch die umfassende und kritische Darstellung von Regulierungsmöglichkeiten ist sowohl für Policy-Maker und sonstige für eine Regulierung relevante Akteure, als auch für Internetnutzer interessant. Besonders aufschlussreich ist jedoch die Evaluierung aktueller Regulierungsmaßnahmen. Politik und Industrie können dadurch erkennen, wo Handlungsbedarf herrscht, und ob aktuelle Maßnahmen überhaupt effizient sind. Da einige aktuelle Regulierungsinstrumente beim Internetuser selbst ansetzen, sind die Ergebnisse der Evaluierungen natürlich auch für diesen von Interesse (zum Beispiel bei Internet-Filtern).

0.2 Aufbau der Arbeit

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Logischer Aufbau der Arbeit

Im ersten Kapitel geht es um allgemeine Erläuterungen über das Internet als technisches Phänomen. Es sollte zuerst kurz die historische Entwicklung des Internet im Hinblick auf aktuelle Regulierungsprobleme erläutert werden, da diese Probleme teilweise auf die Grundkonzeption des Internet zurückgehen. Mit demselben Augenmerk werden in diesem Kapitel auch die technischen Grundlagen und Eigenschaften erklärt, die eine Regulierung erschweren oder erleichtern könnten. Zum Schluss werden die wichtigsten Internetdienste kurz erklärt und spezifische Regulierungsprobleme aufgezeigt, da in den späteren Kapiteln Problembereiche immer auf die verschiedenen Dienste bezogen betrachtet werden.

Das zweite Kapitel behandelt problematische Internetinhalte. Darunter fallen einerseits illegale Inhalte (Kinderpornographie und Nationalsozialismus) und andererseits für Kinder schädliche Inhalte (Pornographie). Neben den rechtlichen Grundlagen wird auch aufgezeigt, in welchen Diensten sie in welcher Form und in welchem Umfang auftreten. Methodisch wird in diesem Kapitel sowohl auf bestehende Untersuchungen zurückgegriffen, als auch mittels Beobachtung und Online-Recherche ein aktuelles Bild über das Ausmaß der Problematik erarbeitet.

Mit dem dritten Kapitel beginnt der Teil der Arbeit, die sich mit Internetregulierung beschäftigt. Hier wird zuerst ein möglichst breiter Überblick über die verschiedensten Regulierungsbereiche und die beteiligten Akteure gegeben. Es werden aktuelle Modelle zur Regulierung von Internetinhalten aufgezeigt. Diese lassen sich unterteilen in: Staatliche Regulierung, Selbstregulierung und Ko-Regulierung. Es werden hierbei in allen Bereichen Theorien und sich ergebende Probleme, Vorteile und Risiken behandelt. Gesondert wird in diesem Kapitel auch der Problembereich der Meinungsfreiheit im Kontext einer Inhaltsregulierung betrachtet und bewertet.

Im vierten Kapitel werden praktische Umsetzungen der im Kapitel drei behandelten Regulierungstheorien erläutert. Es werden Maßnahmen, Institutionen und praktische Beispiele in Österreich und auf europäischer Basis dargestellt und schließlich ihr Erfolg und Ihre Effizienz untersucht. Für die Evaluierung werden Kriterien aufgestellt, anhand derer die Effektivität dieser Instrumente untersucht wird. Die Überprüfung dieser Kriterien erfolgt hauptsächlich mit der Hilfe von Statistiken und schon bestehenden empirischen Untersuchungen. Es werden jedoch auch Ergebnisse einer eigenen Fragebogenuntersuchung in die Evaluierung mit einfließen. Diese empirische Untersuchung behandelt die Involvierung von Internetnutzern in die Regulierungs- prozesse. Schließlich werden Aufgrund der erhobenen Daten und Statistiken die aktuellen Maßnahmen in der EU und Österreich bewertet und ihre Schwächen und Grenzen aufgezeigt. Wiederum wird auch hier verstärkt auf die verschiedenen Internet-Dienste Bezug genommen werden.

Schließlich werden in der Zusammenfassung die Ergebnisse dieser Arbeit nochmals präsentiert und insbesondere die in der Einleitung aufgestellten Hypothesen einer Untersuchung unterzogen.

Am Ende dieser Arbeit findet sich auch ein Glossar, in dem die vielen technischen Begriffe, die in dieser Arbeit verwendet werden, erklärt sind.

1.GRUNDLAGEN DES INTERNET

1.1 Die historische Entwicklung des Internet

Das heutige Internet geht in seiner Struktur zurück auf das im Jahre 1969 in den USA entwickelte Netzwerk ARPANET. Die ARPA (Advanced Research Projects Agency), von der die Entwicklung des ARPANET ausging, war eine Forschungsagentur, die dem US-Verteidigungsministerium unterstand und 1957 gegründet wurde. Zu dieser Zeit befand sich das amerikanische Verteidigungsministerium unter besonderem Druck, da die Sowjetunion im selben Jahr den ersten künstlichen Erdsatelliten, den „Sputnik“ in seine Erdumlaufbahn befördert hatte. Die ARPA sollte die amerikanische Vorherrschaft im Bereich der militärischen Wissenschaft und Technik sicherstellen.

Die eigentliche Intention zur Schaffung des ARPANET war die Sicherstellung eines funktionierenden Kommunikationsnetzwerkes im Falle eines atomaren Krieges. Dieses Kommunikationsnetzwerk sollte dezentral strukturiert sein und damit auch bei partiellen Ausfällen noch funktionieren können. Ein weiteres wichtiges Merkmal war die Paket-vermittelte Datenübertragung. Hierbei wurde die zu übertragende Information in einzelne Datenpakete aufgeteilt, die dann unabhängig voneinander auch über verschiedene Leitungen ans Ziel kommen konnten. Dadurch wurde einerseits gewährleistet, dass die Pakete auch beim Ausfall einer Teilstruktur des Netzes ans Ziel gelangen konnten, indem sie einfach auf eine andere Route auswichen. Andererseits wurde so auch eine bessere Aufteilung der Leitungskapazitäten erreicht. Beim Empfänger konnten dann die Datenpakete wieder zur ursprünglichen Information zusammengefügt werden. Verlorene Pakete wurden einfach so oft wiederholt gesendet, bis sie eine funktionierende Route fanden und ans Ziel kamen. Die dezentrale Struktur und die Paket- vermittelte Datenübertragung sind heute noch wesentliche Strukturmerkmale des Internet. (vgl. Kröll 1998, S. 11f)

Anfänglich waren im ARPANET lediglich vier Computer miteinander verbunden. Bald erwies sich aber das neue Netzwerk als so attraktiv, dass es schnell zu einer starken Expansion des Netzes kam. Neben militärischen Akteuren nahmen nun auch Universitäten an der Erweiterung des Netzes teil.

Die weitere Entwicklung des Internet gestaltete sich folgendermaßen: (vgl. Tonninger 1998, S. 10f)

1971 wurden Universitäten, wie Stanford oder Harvard an das ARPANET angeschlossen.

1972 wurde das ARPANET dann öffentlich bei der „Conference on Computer Communications“ präsentiert, was natürlich die Entwicklung stark beschleunigte. Immer mehr Universitäten klinkten sich in das Netz ein.

1973 kam es mit dem Anschluss des University College in London zu den ersten internationalen Verbindungen zum amerikanischen ARPANET. In den Siebzigern folgten viele weitere europäische Universitäten.

In den achtziger Jahren kam es zu einer enormen Beschleunigung des Wachstums des ARPANET. Viele kleinere Netzwerke entstanden und wurden schließlich in das ARPANET integriert.

1983 schuf das amerikanische Militär das MILNET, das zwar ein Teil des ARPANET war, aber strengen Sicherheitsvorkehrungen unterlag und ausschließlich für militärische Zwecke genutzt wurde.

1986 gründeten die größten amerikanischen Universitäten das rein zivile NFSNET (National Science Foundation Network), das das technisch veraltete ARPANET bald darauf ablöste. Für das neue Netzwerk wurde ein so genanntes „Backbone“ eingerichtet, das aus 5 großen Computerzentren bestand, die hauptsächlich in Universitäten platziert waren. Dieses „Backbone“ sollte die nötige Kapazität für den weiteren Ausbau des Netzes gewährleisten. Andere Länder, wie z.B. Kanada, Dänemark, Finnland, Frankreich, etc. wurden angeschlossen und das NFSNET wurde 1988 in seiner Kapazität verdreißigfacht.

Anfang der neunziger Jahre zogen sich die involvierten Institutionen der US-Regierung immer mehr aus der Verwaltung des Internet zurück. Das ARPANET wurde 1990 schließlich aufgelöst und das NFSNET setzte sich entgültig durch. Mit der weiteren Entwicklung des NFSNET und dem Anschluss von immer mehr Ländern wurde das Backbone immer mehr ausgebaut um die benötigten Kapazitäten zu gewährleisen. Von 1990-1994 wurden über 70 Länder in Süd Amerika, Asien, und Europa an das NFSNET angeschlossen.

Die Strukturen des heutigen Internet beruhen auf denselben technologischen Grundideen wie seine Vorgänger. Für das ARPANET war seine dezentrale Form im Hinblick auf seine eigentliche militärische Funktion natürlich eine positive Eigenschaft, denn von außen konnte im Falle eines Krieges das Netzwerk somit kaum beschädigt werden. Mit dem Wachstum des Netzes wurden aber immer mehr negative Nebeneffekte deutlich. Beispielsweise sind dadurch die Vorgänge im Internet nur schwer kontrollierbar und regulierbar. Weiters ist das Netz zwar durch äußere Einflüsse geschützt, aber durch Attacken von innen (z.B. durch Computerkriminalität) besonders verwundbar.

Es ist durchaus erkennbar, dass bei der Entwicklung der Struktur des Internet seine heutigen kommerziellen Anwendungsformen noch keine Rolle spielten. Die Entwickler des ARPANET waren sich vermutlich nicht im Klaren, welche enorme Größe das Internet innerhalb nur weniger Jahrzehnte annehmen würde, und welche Probleme damit durch die dezentrale Struktur des Netzes auftreten könnten.

1.2 Die technische Struktur des Internet

1.2.1 Das Internet als Netzwerk von Netzwerken

Das Internet ist ein globales Computer-Netzwerk, das einen Zusammenschluss vieler kleinerer lokaler Rechner-Netzwerke darstellt, die sich mittlerweile über die ganze Welt erstrecken. Es ist also ein Netzwerk von Netzwerken. Diese vielen kleinen Netzwerke sind teilweise permanent an das Internet angeschlossen, können aber auch nur temporär ein Teil des globalen Netzes sein. Die eigentliche Größe des Internet schwankt also von Minute zu Minute indem neue Netzwerke hinzukommen oder alte verschwinden.

Die Struktur dieser Netzwerke ist hierarchisch aufgebaut. Beim Internet handelt es sich um ein großes, globales Metanetzwerk, das wiederum aus vielen kleineren Netzwerken besteht, die wiederum in noch kleinere Netzwerke unterteilt sein können. Am unteren Ende dieser Hierarchie befindet sich beispielsweise ein lokales Firmennetzwerk (LAN = Local Area Network), oder ein einzelner Rechner einer Privatperson.

Hinter den kleineren Netzwerken stehen meistens so genannte Host-Provider, die Firmen und Privatpersonen Zugang zum Internet gewähren. Es kann sich aber auch um Non-Profit-Organisationen, Unternehmen, Forschungseinrichtungen, Universitäten, oder um Privatpersonen handeln, deren LAN-Netzwerke (Local Area Network) mit dem globalen Metanetzwerk Internet verbunden sind. Prinzipiell kann also jeder, der über die nötigen technischen Ressourcen und über das nötige Know-How verfügt, sein Netzwerk zum Internet hinzufügen.

Diese Netzwerke sind durch einen Host-Computer an das Internet angeschlossen. Dieser Host ist prinzipiell ein Großrechner, über den alle ihm unterstehenden Rechner ins Internet gelangen. Die Anzahl der Hosts im Internet hat in den vergangenen Jahrzehnen enorm zugenommen. Eine Untersuchung des „Internet Software Consortium“ hat ergeben, dass sich die Anzahl der Hosts in den letzten zehn Jahren von 1.313.000 im Jänner 1993 auf 171.638.297 im Jänner 2003 mehr als verhundertfacht hat (siehe Abbildung 2). (vgl. ISC.org 2003)

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Internet Domain Survey Host Count (Quelle: http://www.isc.org/ds/hosts.html; am 8.5.2003)

Der Aufbau des Internet ist also streng heterogen und der Zusammenschluss von unzähligen Netzwerken, die das Internet darstellen, ist mittlerweile undurchschaubar geworden. Eine inhaltliche Kontrolle ist deshalb äußerst schwierig, da bei der enormen Anzahl an Hosts nur schwer geprüft werden kann, ob ein Host illegalen Content ins Internet schleust, oder nicht.

1.2.2 Die zentrale Administration des Internet

Obwohl das Internet eine starke dezentrale Struktur aufweist, gibt es eine Form der Administration, die zentral durchgeführt wird und eine Ordnungsfunktion für das gesamte Internet übernimmt.

Ein wesentliches Merkmal eines Netzwerkes ist, dass jeder Computer durch eine eigene so genannte IP Adresse eindeutig identifiziert werden kann. Bei einer IP Adresse handelt es sich um eine Zahl mit 32 Bit (Digitalstellen). Jeweils acht dieser Digitalstellen werden zu einer Zahl zwischen 0 und 255 zusammengefasst. Diese Zahlen werden dann durch einen Punkt getrennt. Gültige IP Adressen wären also beispielsweise 255.0.47.16 oder 168.1.62.255.

Durch diese Notation sind theoretisch bis zu vier Milliarden verschiedene IP Adressen möglich, und somit auch bis zu vier Milliarden unterschiedliche Rechner in einem Netzwerk ansprechbar. Da sich das Internet aber derartig schnell ausbreitet und die Anzahl der ungenutzten IP Adressen immer geringer wird, wird bereits an einer Erweiterung des IP Protokolls gearbeitet, durch die deutlich mehr IP Adressen möglich sind. (vgl. Roessler 1999, S. 1f)

Diese IP Adressen müssen zentral vergeben und verwaltet werden, damit eine doppelte Vergabe nicht möglich ist. Die Koordination dieser einzigartigen Adressen hat die Non-Profit-Organisation ICANN (Internet Corporation for Assigned Names and Numbers) über. Bei ICANN handelt es sich um die zentrale administrative Stelle des Internet. Neben den IP Adressen verwaltet ICANN auch die Domain Namen und die Protokolle, mit denen die Kommunikation im Internet vereinheitlicht und reguliert wird. Domain Namen sind Übersetzungen von IP Adressen, die bei der Navigation im Internet oder für E-Mail Adressen verwendet werden, da ja die IP Adressen selbst nur schwer zu merken sind. Beispiele für Domain Namen wären orf.at, microsoft.com oder icann.org.

Die eigentliche Administration und Vergabe von Domain Namen werden für ICANN aber von den einzelnen NICs (Network Information Center) übernommen. Jedes Land hat eine solche zentrale Vergabestelle für die Domain Namen des Landes. In Österreich ist beispielsweise die „nic.at Internet Verwaltungs- und Betriebsgesellschaft m. b. H.“ für alle Domain Namen mit der Endung .at zuständig (siehe www.nic.at). Neben den Vergabestellen für länderspezifische Domains gibt es noch einige andere länderunabhängige NICs, die für so genannte „Generic Top-Level Domains“ zuständig sind.1 Ein Beispiel wäre „Verisign“, wo .com, .net und .org Domains registriert werden können. (siehe www.verisign.com)

Die Adressenzuordung durch IP Adressen und Domain Namen und die Festlegung von Kommunikationsprotokollen stellen die einzigen Strukturierungen des Metanetzwerkes Internet dar, die durch eine zentrale Stelle verwaltet werden. Die ICANN verfügt in diesen Bereichen über eine enorme kontrollierende und regulierende Macht, da sie dadurch in den weltweiten Informationsfluss jederzeit eingreifen kann. Die Möglichkeiten der Regulierung durch ICANN beschränken sich jedoch hauptsächlich auf den technischen Bereich. Bei der inhaltlichen Regulierung des Internet stehen ihr jedoch nur wenige Mittel zur Verfügung.

1.2.3 Die dezentrale Organisation des Internet

Wie schon erwähnt ist das Internet dezentral, als ein Netzwerk von Netzwerken, organisiert. Die Typologie des Gesamtnetzwerkes spielt eine entscheidende Rolle für die technische Struktur und die daraus resultierenden Auswirkungen auf eine mögliche Regulierung und Kontrolle der Datenströme innerhalb des Netzes.

Es gibt verschiedene Typen von Netzwerken. Üblicherweise sind die einzelnen Client-Computer sternförmig an den Host-Computer (Server) angeschlossen (siehe Abbildung 3).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Sternförmige Netzwerktopologie (Quelle: Musch 2000, S. 18)

Hierbei ist jeder einzelne Computer mit dem Host direkt verbunden. Zwischen den einzelnen Client-Rechnern besteht hierbei keine direkte Verbindung. Bei diesem Typus von Netzwerk wird sämtliche Kommunikation vom Host zentral geregelt. Dadurch entsteht natürlich ein Maximum an möglicher Kontrolle, da jeglicher Datentransfer von Client zu Client über den Hostcomputer gehen muss.

Diese Art von Netzwerk bringt aber auch einen enormen Nachteil mit sich. Wenn nämlich der Host-Computer ausfällt, bricht sämtliche Kommunikation zusammen und es können keine Daten mehr übertragen werden. Durch einen Ausfall des Zentralrechners käme es also auch zu einem Ausfall des gesamten Netzwerkes. Einerseits würde der Server eine Regulierung des Datenflusses enorm erleichtern, andererseits ist er aber auch ein erheblicher Schwachpunkt im Netzwerk-System (vgl. Musch 2000, S. 18).

Um diese Schwachstelle zu beseitigen wurde das Internet als so genanntes „ distributed network “ konzipiert, in dem die einzelnen Rechner spinnwebförmig untereinander verbunden sind (siehe Abbildung 4).

Abbildung 4: Verteilte Netzwerktopologie (Quelle: Musch 2000, S. 18)

Abbildung in dieser Leseprobe nicht enthalten

Die Datenströme haben hierbei mehrere mögliche Wege zur Verfügung. Sollte eine der möglichen Verbindungen ausfallen, so kann der Informationsfluss auf eine andere Route umgeleitet werden. Somit kann die Kommunikation zwischen zwei Rechnern solange funktionieren, wie es mindestens eine mögliche Verbindung zwischen den beiden gibt. Dies war, wie schon erwähnt, bei der anfänglichen militärischen Funktion des Internet äußerst wichtig.

Eine Regulierung oder gar Zensur der Datenströme ist bei der verteilten Netzwerktypologie natürlich viel schwieriger, da es keinen zentralen Kommunikations- Knotenpunkt mehr gibt. Es müssten unzählige Rechner überwacht werden, die über den gesamten Globus verteilt sind. Bei der enormen Größe des Internet ist das schwer möglich.

1.2.4 Datenübertragung mittels Paketvermittlung

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Paketvermittelte Übertragung einer Datei von Computer A zu Computer B (Eigendarstellung)

Eine ebenfalls sehr wichtige strukturelle Eigenschaft des Internet ist die Kommunikation mittels Paketvermittlung. Hierbei wird eine Nachricht nicht über eine fest vorgelegte Leitung, wie z.B. beim Telefon übertragen, sondern in viele kleine Pakete aufgespalten. Dieses so genannte „ packet switching “ hat mehrere Vorteile. Es wird beispielsweise das Datenaufkommen besser über sämtliche Leitungen verteilt, da jedes einzelne Paket immer die beste Route nimmt. Sollte eine Leitung überlastet sein oder ausfallen, wird das Paket einfach über einen anderen Weg geschickt. Falls nun ein Paket verloren geht, muss nicht die gesamte Nachricht neu geschickt werden, sondern nur das verlorene Paket. Auf dem Zielrechner werden dann die Pakete wieder zu der ursprünglichen Nachricht zusammengefügt (vgl. Abbildung 5). Auf diese Art können sämtliche binäre Daten übertragen werden, so z.B. Texte, Grafiken, Töne oder bewegte Bilder. (vgl. Musch 2000, S. 18f)

Die Festlegung der Transportrouten, das so genannte „ routing “, übernimmt das IP Protokoll (Internet Protocol). Es teilt die Nachrichten beim Sender in Pakete auf, und übernimmt auch das Zusammensetzen beim Empfänger. Da jedes einzelne Paket an die IP Adresse des Zielrechners adressiert ist, ist auch keine zentrale Steuereinheit erforderlich. Enorme Bedeutung bei der Übermittlung der Pakete haben auch die Router. Dies sind Netzwerkkomponenten, die verschiedene Netzwerke miteinander verbinden, und die Pakete an die Zielrechner weiterleiten. (vgl. Gets 2002, S. 33f)

Durch die Kommunikation mittels Paketvermittlung ergeben sich allerdings wiederum Schwierigkeiten bei einer möglichen Kontrolle oder Überwachung des Datenflusses. Da nämlich der Transfer der Datenpakete über verschiedene, sich ständig ändernde Wege verläuft, müssten entweder alle möglichen Kommunikationswege überwacht werden, oder aber der letzte Router vor dem Zielrechner, da bei diesem ja die einzelnen Pakete wieder zu der ursprünglichen Nachricht zusammengefügt werden. Beide Möglichkeiten sind allerdings technisch nur schwer umsetzbar.

1.3 Die wichtigsten Dienste im Internet

Das Internet stellt sich dem Benutzer natürlich nicht in der Form von Paketen, Leitungen und Routern dar. Unter dem „Internet“ verstehen viele Benutzer in erster Linie die Dienste, die ihnen zur Verfügung stehen. Diese Dienste sind Protokolle und Programme, die hauptsächlich zur Informationsbeschaffung und zur Kommunikation dienen. In diese beiden Hauptkategorien können generell auch sämtliche Dienste eingeteilt werden. Allerdings überschneiden sich die Funktionen der im Internet verfügbaren Dienste oftmals. Trotzdem ist eine grobe Einteilung der Internetdienste in Informations- und Kommunikationsdienste möglich.

Informationsdienste sind hierbei all jene Instrumente der Online-Kommunikation, mit deren Hilfe Daten aus dem Internet abgerufen und bereitgestellt werden können. Diese Daten können aus Text, Bild, Musik, Videos oder sonstigen Dateien bestehen. Eine aktive Kommunikation findet dabei nicht statt. Die Benutzer stellen nur passiv Informationen im Internet bereit, oder rufen diese ab.

Unter Kommunikationsdiensten kann man all jene Internetdienste verstehen, mit deren Hilfe aktiv kommuniziert werden kann. Diese Kommunikation kann synchron und in Echtzeit ablaufen, wie z.B. bei einem Chat, oder zeitversetzt und asynchron, wie es beispielsweise bei E-Mail der Fall ist.

Im Folgenden werden nun die wichtigsten Dienste in beiden Kategorien kurz beschrieben. Es wird hierbei auch jeweils auf mögliche Kontroll- und Regulierungsmechanismen und auf Eigenschaften der Dienste, die solchen Maßnahmen entgegenwirken können, hingewiesen.

1.3.1 Informationsdienste

1.3.1.1 Das World Wide Web

Das World Wide Web (WWW) ist wohl der bekannteste und am meisten genutzte Dienst im Internet. Dabei handelt es sich um eine relativ junge Form der Darstellung von Inhalten im Netz. Das WWW wurde 1989 im Forschungszentrum CERN2 in Genf entworfen. Ziel des Projektes war die vereinfachte Darstellung von Datenbeständen und die Integration von Grafik und Text in eine leicht bedienbare Benutzeroberfläche. (vgl. Rötlich 2000, S. 31)

Das World Wide Web ist ein hypermediales Informationssystem und beruht auf der Idee des Hypertexts. Darunter versteht man die Möglichkeit, in einem Text-Dokument direkt Querverweise einfügen zu können, die den Leser durch das Klicken auf ein Wort zu einem neuen Dokument oder einer neuen Textstelle bringen. Dadurch kann der Leser von einer allgemeinen Übersicht aus immer tiefer in einen Themenbereich vordringen, um die gewünschte Information zu erhalten. (vgl. Rötlich 2000, S. 31f)

Die Computer, die mit dem World Wide Web verbunden sind, kommunizieren miteinander über das Netzwerkprotokoll Hyper Text Transfer Protocol (HTTP). Die Dokumente des WWW sind in einer einheitlichen Programmiersprache, der Hyper Text Markup Language (HTML), geschrieben. Durch diese Standardisierung kann der Datenaustausch auch zwischen verschiedenen Computer- und Betriebssystemen problemlos erfolgen. HTML ist eigentlich nur ein standardisiertes Textformat, das es ermöglicht, Texte, Bilder und auch multimediale Inhalte auf einer Seite zusammenzufügen. Unter Verwendung eines so genannten Browsers können diese kryptisch anmutenden Textdokumente dann entsprechend interpretiert und dargestellt werden. Innerhalb dieser Dokumente können mit Hilfe der HTML-Sprache Querverweise, so genannte Hyperlinks, angegeben werden, durch die der Leser auf andere Seiten gelangen kann, bis er die gewünschte Information findet. Diese verlinkten Dokumente können sich auch auf einem anderen, räumlich entfernten Computer befinden. Somit entsteht ein weltumspannendes Netz von Dokumenten, die untereinander verbunden sind und das World Wide Web darstellen. Dadurch wird das Konzept des Hypertexts umgesetzt. (vgl. Tonninger 1998, S. 17f)

Ein großer Vorteil vom WWW ist, dass keinerlei Vorkenntnisse für die Suche nach Informationen notwendig sind, da HTML Seiten relativ einfach und intuitiv bedient werden können. Bis zu dessen Einführung waren erhebliche Programm- und Computerkenntnisse notwendig, um die oft umständlichen und komplizierten Programme nutzen zu können. (vgl. Finke 1998, S. 11f)

Das World Wide Web ist der am meisten benutzte Dienst im Internet und ist dadurch natürlich auch besonders für eine Regulierung von Internet-Inhalten interessant. Im WWW finden sich eine Vielzahl von illegalen Dokumenten, so zum Beispiel rechtsextreme oder kinderpornographische Webseiten, die Informationen, Bilder oder auch Videos anbieten. Durch die Einfachheit der Benutzung und auch der Erstellung von HTML Dokumenten, kann auch jeder, der sich ein wenig damit beschäftigt, eigene Inhalte im World Wide Web veröffentlichen. Somit steht die Exekutive oft einer Fülle von illegalen Inhalten gegenüber.

Erleichternd kommt jedoch für die Strafverfolgung hinzu, dass die Identität des Betreibers einer Webseite oftmals leicht ermittelt werden kann. Zumindest der Webserver, auf dem sich die Inhalte befinden, kann ohne größere Schwierigkeiten durch dessen IP Adresse herausgefunden, und die betreffenden Inhalte vom Netz genommen werden. Meistens befindet sich dieser Webspace jedoch nicht direkt beim Betreiber der Homepage, sondern bei einem Host-Provider. Über diesen kann jedoch theoretisch die Identität des Betreibers ermittelt werden, sofern dieser mit der Exekutive kooperiert und die Benutzerdaten seiner Kunden preisgibt. Leider gibt es in einigen Staaten für die Provider keinerlei gesetzliche Verpflichtung hierfür. Hinzu kommt auch noch, dass die Gesetzeslagen, zum Beispiel bei Kinderpornographie oder Nationalsozialismus, in vielen Staaten lockerer sind als anderswo. In diesen Ländern werden deshalb oftmals illegale Inhalte gehostet.

Aber auch der Besucher einer Webseite ist nicht anonym, da jeder Datenaustausch mit einem Webserver geloggt wird (vgl. Lambert 1998). Natürlich wird aber ein Betreiber, der selbst illegale Inhalte über eine Webseite anbietet, vermutlich diese Logs löschen oder durch andere Mittel von der Exekutive fernhalten.

1.3.1.2 File Transfer Protocol (FTP)

Das File Transfer Protocol (FTP) ist, wie der Name schon sagt, ein Dienst zum Übertragen von allen Arten von Dateien zwischen zwei Computern. Es gibt grundsätzlich zwei Arten von Übertragungen: Upload und Download. Beim Upload werden Daten zu einem anderen Server „hochgeladen“ und beim Download Dateien von einem fremden Server „heruntergeladen“. Der Server benötigt ein spezielles Programm, das es Ihm auch ermöglicht, Rechte an gewisse Benutzer zu verteilen und Passwörter festzulegen. Wenn jemand den benötigten Benutzernamen samt Passwort nicht kennt, bekommt er somit auch keinen Zugriff auf den FTP Server. Der Administrator des Servers kann aber auch anonyme Zugriffe erlauben. Der Client-Rechner benötigt ein spezielles FTP Client- Programm3, mit dessen Hilfe er sich mit dem gewünschten Server via dessen IP Adresse verbinden kann. Im Client Programm kann dann der Besucher in den freigegebenen Verzeichnissen navigieren und Dateien herunter- oder hochladen. (vgl. Finke 1998, S. 16f)

Prinzipiell kann jeder einen eigenen FTP Server eröffnen und somit anderen auch illegale Dateien zugänglich machen. Jedoch ist dieser eindeutig im Netz identifizierbar, da er ja eine eindeutige IP Adresse hat und somit auch nachverfolgt werden kann. Gerade deshalb wird FTP wohl eher weniger für illegale Aktivitäten verwendet. Oftmals werden aber auch fremde FTP Server „missbraucht“, die einen anonymen Zugriff und somit auch das Hinauf- oder Herunterladen von illegalen Dateien erlauben.

Man muss auch anmerken, dass ebenso der Zugriff auf einen FTP Server nie völlig anonym ist. Der Server loggt nämlich die IP Adressen der User und deren Aktivitäten. Mit der IP Adresse und dem genauen Zeitpunkt kann durch die Mithilfe des Internet Service Providers auch die wirkliche Identität des Benutzers herausgefunden werden. Wenn allerdings der Besitzer des FTP Servers selbst ein Täter ist, wird er vermutlich das Log löschen oder die Überwachung komplett ausschalten, wodurch eine Strafverfolgung erschwert wird.

1.3.1.3 Peer-To-Peer Netzwerke (P2P)

Als wahre Killerapplikationen haben sich in den letzten Jahren die so genannten Peer-To-Peer (kurz P2P) Netzwerke herausgestellt. Peer-To-Peer heißt frei übersetzt „Verbindung zwischen Einzelnen“. Das heißt, dass in einem solchen Netzwerk jeder Computer gleichzeitig Server und Client ist. Es gibt keine zentralisierte Serverstruktur und jeder Rechner kann mit einem anderen eine direkte Verbindung aufbauen. Somit können Daten zwischen zwei Computern übertragen werden, ohne dass sie, wie es normalerweise im Internet der Fall ist, zuerst auf die jeweiligen Host-Server transferiert werden müssen. (siehe Abbildung 6)

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Vergleich der Datenübertragung von a nach b im herkömmlichen Internet und in P2P Netzwerken. (Eigendarstellung)

Obwohl es verschiedene P2P-Systeme und Anwendungsmöglichkeiten gibt, werden mit dieser Art der Datenübertragung hauptsächlich so genannte Filesharing- Programme assoziiert. Hierbei handelt es sich um Tauschbörsen, in denen Dateien jeglicher Art ausgetauscht werden können. Jeder Benutzer kann zu diesem Zweck Dateien und Verzeichnisse festlegen, die er zum Download freigeben möchte. Über eine Suchmaske können dann sämtliche teilnehmenden Computer nach gewünschten Dateien durchsucht werden. Will man dann diese Datei herunterladen, wird eine direkte Verbindung zu demjenigen Teilnehmer aufgebaut, auf dessen Festplatte sie sich befindet. Die Datei wird bei der Übertragung nicht zwischengespeichert sondern in Echtzeit von einem Rechner zum anderen übertragen. Mittlerweile sind diese Programme schon so ausgefeilt, dass die gewünschte Datei, wenn sie sich auf mehreren Computern befindet, in mehrere Teile aufgeteilt und dann gleichzeitig von verschiedenen Rechnern heruntergeladen wird, wodurch sich ein enormer Geschwindigkeitsgewinn ergibt.

Die relativ junge Ära der P2P-Tauschbörsen wurde 1999 durch die US-Firma Napster eingeleitet. Diese entwickelte ein gleichnamiges Programm, mit dessen Hilfe Musikdateien zwischen Privatrechnern auf dem P2P-Prinzip basierend ausgetauscht werden konnten. Der Siegeszug von Napster vollzog sich in Windeseile. Nur ein Jahr nach der Firmengründung gab es schon 40 Millionen User. Allerdings wurde dadurch auch die Musikindustrie sehr schnell auf Napster aufmerksam und leitete eine Klage gegen die Firma ein. Napster musste schließlich als kostenlose Tauschbörse seine Pforten schließen. Jedoch waren inzwischen schon viele andere Firmen mit ähnlichen Programmen am Markt, die ähnlich erfolgreich waren und es immer noch sind (z.B. Morpheus, Kazaa oder WinMX). Im Gegensatz zu ihrem Vorgänger ist es bei den neueren Filesharing- Programmen möglich, jede Art von Dateien zu übertragen (so z.B. Musik, Videos, Software, etc.). Mittlerweile führt die Musik- und Filmindustrie einen, wie es scheint, aussichtslosen Kampf gegen diese Tauschbörsen. (vgl. Spiegel Online 2001)

Die P2P-Tauschbörsen eignen sich leider auch perfekt zum Verbreiten von illegalen Dateien. Neben urheberrechtlich geschütztem Material, wie Musik, Filme, oder Software, gibt es auch ein enormes Angebot an pornographischen und auch kinderpornographischen Bildern und Videos. Näheres dazu folgt aber im zweiten Kapitel dieser Arbeit.

Eine Kontrolle des Datenaustausches in Filesharing -Netzwerken ist äußerst schwierig. Erstens handelt es sich hierbei um riesige Netzwerke mit Millionen von Usern und zweitens findet der Austausch nicht über einen zentralen Server statt, sondern direkt zwischen den Benutzern. In den derzeit verfügbaren Programmen ist auch keinerlei Kontrollmöglichkeit vorhanden, welche Dateien die Teilnehmer austauschen. Alles in allem gibt es in diesem Bereich einen enormen Bedarf an inhaltlicher Regulierung. Da die P2P-Netzwerke jedoch eine relativ junge Erscheinung im Internet sind und sich derart rapide entwickelt haben, gibt es noch keine wirklich effektiven Regulierungsmaßnahmen. Vermutlich haben viele Politiker und verantwortliche Organisationen auch die enorme Gefahr, die ein Missbrauch von Filesharing -Programmen in sich birgt, noch nicht erkannt.

1.3.2 Kommunikationsdienste

1.3.2.1 E-Mail

E-Mail (kurz für Electronic Mail) ist wohl ebenso bekannt und viel benutzt wie das World Wide Web. Es war auch einer der ersten Internet-Dienste. Es handelt sich hierbei um das elektronische Pendant zum herkömmlichen Brief. Ähnlich wie bei diesem wird ein getippter Text mit einem Absender und einem Empfänger (via einer E-Mail Adresse) versehen und dann abgeschickt. Jede E-Mail Adresse muss hierbei natürlich eindeutig sein. Der große Vorteil zur herkömmlichen Post liegt dabei in der enormen Geschwindigkeit, mit der Nachrichten übertragen werden können. Gesendete E-Mails kommen in der Regel schon wenige Sekunden nach dem Absenden im Postfach des Empfängers an, egal ob sich dieser im Haus nebenan, oder auf der anderen Seite der Erdkugel befindet. Weiters ist eine elektronische Übertragung viel billiger, als der herkömmliche Postversand, da meistens nur Telefon- und Nutzungsgebühren von weniger als einer Minute anfallen. Aufgrund dieser Vorteile ist E-Mail mittlerweile aus der modernen Industriegesellschaft, sowohl im privaten, als auch im geschäftlichen Bereich, nicht mehr wegzudenken. (vgl. Finke 1998, S. 15)

Die Übermittlung von elektronischer Post erfolgt über Übertragungsprotokolle, die insbesondere auch das Verschicken von einzelnen Dateien jeglicher Art (z.B. auch Bilder, Videos, Dokumente, etc.), und zwar in der Form von so genannten Attachements (Anhängen), ermöglicht.

Eine inhaltliche Kontrolle von E-Mails gestaltet sich ebenfalls als schwierig. Zum einen handelt es sich um gigantische Datenmengen, die tagtäglich mit Hilfe der elektronischen Post übermittelt werden. Weiters gibt es mittlerweile schon sehr ausgereifte Datenverschlüsselungsmethoden, die, wenn überhaupt, nur mit enormem technischem Aufwand geknackt werden können.4 Und letztendlich stößt die Überwachung des E-Mail Verkehrs auch auf rechtliche Schranken, da sie wegen des Briefgeheimnisses nur in den wenigsten Fällen zulässig, und auch nur äußert eingeschränkt durchführbar ist. Die Tatsache, dass auch Bilder und kleine Videos auf elektropostalischem Weg übermittelt werden können, macht E-Mail besonders im Hinblick auf eine mögliche Übertragung von kinderpornographischem Material auch zum Ziel für Regulierungs- bestrebungen. Obwohl E-Mail grundsätzlich kein anonymer Kommunikationsvorgang ist, können findige User hierbei trotzdem durch diverse Programme ihre E-Mails anonymisieren. Ein Zurückverfolgen des Absenders gestaltet sich in diesen Fällen als schwierig. (vgl. Rötlich 2000, S. 26f)

1.3.2.2 Usenet Newsgroups

Besonders für Diskussionen auf elektronischem Weg werden die so genannten Newsgroups verwendet, die alle im „ Usenet “ zusammengefasst werden. Diese funktionieren wie elektronische „schwarze Bretter“, an die öffentliche Nachrichten „gepinnt“ werden können. Andere Benutzer können dann zu diesen Nachrichten Stellung beziehen und diskutieren. In jeder einzelnen Newsgroup finden sich spezielle Informationen zu einem bestimmten Thema. Newsgroups sind teilweise moderiert, d.h. dass ein Moderator die Themen überwacht und jeden hereinkommenden Beitrag inhaltlich überprüft, bevor er ihn der Newsgroup hinzufügt. Dies stellt natürlich einen enormen redaktionellen Aufwand dar. Deshalb sind die meisten solcher Diskussionsforen unmoderiert. (vgl. Finke 1998, S. 18f)

Der Zugriff auf das Usenet erfolgt durch spezielle News-Server, die meistens Provider zur Verfügung stellen. Wenn ein Benutzer nun einen Artikel in einer Newsgroup veröffentlichen will, wird dieser Beitrag zuerst an den Provider geschickt und dort in der gewünschten Newsgroup gespeichert. Periodisch vergleicht nun der News-Server sämtliche Newsgroups mit anderen News-Servern (z.B. von anderen Providern). Diese synchronisieren dann wiederum ihre Daten mit wieder anderen News-Servern, und so weiter. (siehe Abbildung 7) Somit sollte mit der Zeit jeder Server, der die entsprechende Newsgroup zur Verfügung stellt, den am Server des eigenen Providers veröffentlichten Artikel bekommen. Es herrscht also ein ständiger Austausch von Artikeln und Diskussionsbeiträgen zwischen den News-Servern auf weltweiter Ebene. Einen zentralen Server gibt es bei Newsgroups nicht.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Funktionsweise von Newsgroups (Eigendarstellung)

Zum Abrufen und Posten von Beiträgen benötigt der Benutzer einen speziellen Browser, der allerdings heutzutage schon in die herkömmlichen Browser Programme integriert ist. Im Browser-Fenster wird eine eindeutige Adresse eingegeben, durch die dann vom vorher definierten News-Server die entsprechende Newsgroup heruntergeladen wird. Eine solche Adresse wird aus verschiedenen Hauptgruppen (z.B. soc, comp, misc, etc.) gebildet, die wiederum hunderte von Untergruppen umfassen. So ergibt sich eine hierarchische Struktur. Die News-Adresse „soc.kids.computer“ führt zum Beispiel zu einer Newsgroup in der Hauptrubrik „Soziales“, die sich in erster Linie mit Kindern und speziell mit Computern beschäftigt. (vgl. Eichhorn 2000, S. 25f)

Da sich die Nachrichten von Newsgroups stationär auf Rechnern von Providern befinden, ist eine inhaltliche Kontrolle dieser weniger kompliziert, als zum Beispiel bei E- Mail. Derjenige Provider, auf dessen Server sich eine oder mehrere Newsgroups befinden, kann jederzeit Beiträge löschen oder sogar die ganze Newsgroup sperren. Leider ist aber eine inhaltliche Überprüfung jedes einzelnen Beitrages durch einen oder mehrere Moderatoren bei der enormen Fülle an Artikeln fast unmöglich. Außerdem wäre dann der entsprechende Artikel oder die entsprechende Newsgroup nur auf dem einen Server nicht mehr vorhanden. Auf allen anderen News-Servern von anderen Providern wären die Daten noch immer abrufbar. Der Provider kann aber selbst entscheiden, welche Newsgroups er anbieten möchte und welche nicht. Die meisten vermeiden natürlich eindeutig illegale Gruppen. Es gibt aber auch dutzende Anbieter von News-Servern im Internet, die bewusst sämtliche Newsgroups (inklusive jener, die ausdrücklich auf illegalen Content ausgerichtet sind) ohne jegliche Zensur zur Verfügung stellen.5 Wenn also ein Interessent die gewünschte Newsgroup nicht auf dem News-Server des eigenen Providers findet, kann er einfach die News bei einem dieser Anbieter gegen eine geringe Gebühr abonnieren und so zu den gewünschten Informationen oder Daten kommen.

Eine inhaltliche Kontrolle wäre wesentlich effizienter durch Textfilter möglich, die alle News-Server installiert haben müssten, und die einen Beitrag nach bestimmten Stichwörtern hin untersuchen, die z.B. auf harte Pornographie oder rassistische Äußerungen hindeuten. Allerdings ergibt sich bei dieser Art der Zensur das Problem, dass zwar nach einzelnen Wörtern gesucht wird, aber der Kontext nicht erkannt werden kann. So können zum Beispiel in einem unzulässigen Beitrag über illegale Pornographie dieselben Stichwörter vorkommen, als in einem durchaus legitimen Diskussionsforum einer Selbsthilfegruppe für Opfer von Sexualverbrechen. Einer Filterung würden aber beide Newsgroups zum Opfer fallen. Alles in allem ist das Usenet aufgrund seiner technischen Struktur (kein zentraler Server) äußerst schwer regulierbar.

Wie bei E-Mail können auch bei Newsgroups Dateien zu den Nachrichten beigefügt werden, was natürlich auch die Gefahr der Verbreitung illegalen Materials beinhaltet. Erschwerend kommt noch hinzu, dass es auch im Usenet möglich ist, seinen Beitrag unter einem anonymen Namen zu verfassen (vgl. Rötlich 2000, S. 29f). Trotzdem kann auch in diesem Fall unter Umständen die Identität des Benutzers herausgefunden werden. Und zwar wird bei jedem Posting die IP Adresse des Benutzers und der Zeitpunkt des Postings mitgespeichert. Mit diesen beiden Informationen ist es der Exekutive möglich, beim ISP dieses Benutzers dessen Identität herauszufinden (vgl. Lambert 1998). Doch auch dies kann umgangen werden, indem man seine Artikel über einen Anbieter von Newsgroups publiziert, der die IP Adresse nicht mitloggt und somit auch nicht mit dem Posting veröffentlicht.6 Somit bleibt man anonym und diese Anonymität bleibt auch bei der Verbreitung des Beitrages auf andere News-Server erhalten.

1.3.2.3 Internet Relay Chat (IRC)

Mit dem Internet Relay Chat (IRC) wurde 1998 eine synchrone Kommunikationsmöglichkeit eingeführt, die Kommunikation in Echtzeit durch Texteingabe ermöglicht. Die Diskussionen sind hierbei nach Themen in einzelne Kanäle (so genannte „ channels “) geordnet, in denen sich beliebig viele Personen aufhalten können. Die Benutzer können auch einen eigenen channel eröffnen und auch festlegen, ob dieser für Außenstehende gesperrt sein soll, oder nicht. Somit sind auch private Unterhaltungen möglich, zu denen unbeteiligte Dritte keinen Zugriff haben. (vgl. Kröll 1998, S. 15)

IRC funktioniert nicht über einen zentralen Server, sondern über viele kleine unabhängige Netzwerke. Einer Statistik auf netsplit.de zufolge gibt es derzeit 476 aktive solche Netzwerke, auf denen sich insgesamt 1.307.171 Benutzer in 628.313 channels aufhalten.7 Der Einstieg in ein IRC-Netzwerk kann über mehrere Server pro Netzwerk erfolgen, die meist über den ganzen Globus verteilt sind. Die Verbindung zu einem IRC Server wird mittels eines speziellen Client-Programms aufgebaut.8 Vorher kann der Benutzer einen Alias-Namen definieren, unter dem er im Chat kommunizieren will. Dieser kann völlig willkürlich sein und auch jederzeit problemlos geändert werden. IRC erscheint somit vorerst als ein anonymes Kommunikationsmittel. Völlige Anonymität gibt es jedoch auch beim IRC nicht. Mit Hilfe des Befehls „/whois nickname“ kann zum Beispiel in einem Chat-Raum die IP Adresse eines Users herausgefunden werden. Wird dann auch noch die genaue Zeit notiert, kann beim ISP dieses Benutzers grundsätzlich auch dessen Identität ermittelt werden (vgl. Lambert 1998). Der oben genannte IRC-Befehl ist jedoch nur während des Chattens und während sich der entsprechende User im selben „Raum“ aufhält, möglich und muss von einem anderen Benutzer ausgeführt werden. Es wird nicht allgemein mitgeloggt, welcher Nickname sich mit welcher IP im IRC zu welcher Zeit aufgehalten hat. In privaten channels, in denen sich nur Personen gleicher Gesinnung mit illegalen Absichten befinden, wird aber vermutlich niemand die IP Adresse des anderen aufzeichnen, um sie an Behörden weiterzuleiten. Es sei denn, ein Exekutiv-Beamter ist „ undercover “ in einem dieser channels unterwegs.

Mittels IRC können ebenfalls Dateien jeglicher Art ausgetauscht werden, allerdings nur innerhalb eines Kommunikationskanals. Diese Tatsache und die schon erwähnte Anonymität, sowie die Möglichkeit der privaten, von unerwünschten Dritten abgeschotteten Kanäle, machen das IRC leider auch zu einem beliebten Umschlagsplatz für illegale Inhalte. Eine Kontrolle ist hier äußerst schwierig, da nur die wenigsten Kanäle moderiert oder anderweitig kontrolliert werden. Es wird zwar in jedem channel der Kommunikationsverlauf mitgeloggt und somit gespeichert, aber diese Information geht verloren, sobald der Kanal geschlossen wird. Bei „privaten Sitzungen“ ist dies also ebenfalls keine erfolgreiche Kontrollmöglichkeit. (vgl. Gets 2002, S. 27)

1.3.2.4 Chats

Das System der in Echtzeit stattfindenden Kommunikation durch Texteingabe, wie sie für das IRC entwickelt wurde, hat im Netz vielerorts Anwendung gefunden und sich als äußerst beliebtes Kommunikationsmittel herausgestellt. Diese Chats sind meist eingebettet ins World Wide Web und mit jedem herkömmlichen Browser verwendbar. Im Wesentlichen umfassen diese Anwendungen dieselben Funktionen wie das IRC. Im Gegensatz zum IRC handelt es sich jedoch hierbei um Dienste, die nur zur reinen persönlichen Kommunikation dienen. Ein Datentransfer, wie beim Internet Relay Chat ist nicht möglich. Deshalb fällt bei Chats auch die mögliche Gefahr der Übertragung illegaler Dateien weg. Dennoch können auch in normalen Chat -Anwendungen Probleme und Gefahren auftauchen. Diese ergeben sich hauptsächlich durch die Möglichkeit der Anonymität und werden im zweiten Kapitel dieser Arbeit genauer beleuchtet werden.

1.3.2.5 Instant Messenger Tools

Instant Messenger Tools sind kleine Programme, die im Hintergrund von Windows laufen, und deren grundsätzliche Funktion es ist, anzuzeigen, welche Freunde gerade online oder offline sind. Zu diesem Zweck kann man in diesen Tools eine Liste von Personen anlegen, deren momentaner Status dann angezeigt werden kann. Geht einer dieser Kontakte online, leitet dessen Instant Messenger den neuen Status an alle weiter, die denjenigen in der Kontaktliste haben. Somit kann jeder sofort sehen, welche Freunde oder Bekannte gerade im Internet sind, sofern diese denselben Instant Messenger installiert und im Hintergrund laufen haben. Ist nun ein Kontakt online, kann sofort eine Nachricht an ihn übermittelt oder eine Chat-Sitzung eröffnet werden.

Es gibt mittlerweile einige solcher Programme. Das erste und vermutlich immer noch am meisten benutzte davon ist ICQ („I Seek You“)9. Ähnliche Tools wären der Windows Messenger von Microsoft oder der AOL Instant Messenger. Seit der Einführung von ICQ im Jahre 1996 entwickelten sich Instant Messenger Programme zu einer äußerst beliebten Form der Online Kommunikation. Alleine bei ICQ sind heute über 150 Millionen Benutzer registriert. (vgl. ICQ.com 2003)

Diese relativ neuen Internetdienste eignen sich aber auch perfekt zum schnellen und vor allem privaten Übertragen von Dateien. Mittels weniger Mausklicks können Dateien beliebiger Größe direkt an einen anderen User, der sich auf der Kontaktliste befindet, gesendet werden. Dieser Datenaustausch erfolgt direkt zwischen den beiden PCs und ist somit völlig privat und nicht von außen einsehbar. Instant Messenger Tools stellen somit leider auch die wohl idealste Form der Übertragung illegaler Daten im Internet dar. Eine Regulierung ist hierbei äußerst schwierig, wenn nicht gar unmöglich.

Ebenso schwierig ist es, das Ausmaß zu ermitteln, in welchem solche Dienste für illegale Aktivitäten genutzt werden, da ja jede Kommunikation rein privat abläuft. Positiv ist jedoch, dass man auch bei diesem Dienst nicht völlig anonym sein kann, weil über die Programme auch die IP der Kontakte angezeigt werden kann. Zusätzlich ist auch bei sämtlichen gesendeten Nachrichten die IP des Absenders einsehbar.

2. PROBLEMATISCHE INHALTE IM INTERNET

Es gibt viele Inhalte im Internet, die auf verschiedenste Weisen problematisch sein können. Ich verstehe problematische Inhalte in dieser Arbeit als Inhalte, die in der Form von Texten, Bildern, Videos und auch als Musik oder Computerspiele im Internet auftauchen können, und die einen rechtlich problematischen Gehalt haben. Diese kann man in illegale und jugendgefährdende Inhalte unterscheiden. Der Besitz bzw. die Verbreitung von illegalen Inhalten ist durch das Strafgesetzbuch sowohl im Internet, als auch in der „realen Welt“ verboten. Darunter fallen Kinderpornographie und Nationalsozialistische bzw. rassistische Inhalte. Jugendgefährdend sind Inhalte, die für Kinder und Jugendliche schädigend wirken können und deshalb diesen Personen nicht zugänglich gemacht werden dürfen, die aber für Erwachsene frei zugänglich sein müssen. Das wären legale Pornographie oder Gewalt-verherrlichende Inhalte. Darüber hinaus gibt es noch Inhalte, die zwar für verschiedene Personen oder Gruppen unerwünscht sind, die aber gesetzlich sowohl für Erwachsene, als auch für Kinder und Jugendliche zulässig sind. Ein Beispiel dafür wären Nacktbilder. Diese Unterscheidung in illegale, jugendgefährdende und unerwünschte Inhalte ist äußerst wichtig für eine wissenschaftliche Auseinandersetzung mit dem Thema, und wird oftmals von den Medien nicht getroffen. Die verschiedenen Arten von problematischen Inhalten müssen im Hinblick auf Rechtliches, und besonders auch im Hinblick auf Meinungs- und Informationsfreiheit getrennt und unterschiedlich bewertet werden. (vgl. Machill / Rewer 2001, S. 12f)

Natürlich ergeben sich bei dieser rechtlichen Betrachtung im weltweiten Metanetzwerk „Internet“ erhebliche Probleme, da das Internet geographisch nicht abgegrenzt ist und somit auch keiner Regierung und keinen Gesetzen untersteht. „Illegal“ und „jugendgefährdend“ sind deshalb sehr schwer zu definierende Begriffe. In dieser Arbeit wird jedoch primär von österreichischem und europäischem Recht ausgegangen. Es wird jedoch immer auch auf die internationale Rechtssituation hingewiesen werden.

2.1 Kinderpornographie im Internet

2.1.1 Allgemeines

Das schwerwiegendste Problem im Bereich des Internet-Content ist vermutlich die Verbreitung von kinderpornographischem Material. In fast allen Ländern der Welt ist Kinderpornographie illegal. In Österreich ist der Tatbestand der Pornographischen Darstellung mit Unmündigen im Strafgesetzbuch § 207a wie folgt definiert:

„ (1) Wer eine bildliche Darstellung einer geschlechtlichen Handlung an einer unmündigen Person oder einer unmündigen Person an sich selbst, an einer anderen Person oder mit einem Tier, deren Betrachtung nach den Umst ä nden den Eindruck vermittelt, dass es bei ihrer Herstellung zu einer solchen geschlechtlichen Handlung gekommen ist,

1. herstellt oder zum Zweck der Verbreitung einführt, bef ö rdert oder ausführt oder

2. einem anderen anbietet, verschafft,überl ä sst, vorführt oder sonst zug ä nglich macht, ist mit einer Freiheitsstrafe bis zu zwei Jahren zu bestrafen.

(2) Mit Freiheitsstrafe bis zu drei Jahren ist zu bestrafen, wer die im Abs. 1 bezeichnete Tat gewerbsm äß ig oder als Mitglied einer Bande begeht.

(3) Wer sich eine pornographische Darstellung mit Unmündigen (Abs 1) verschafft oder eine solche besitzt, ist mit Freiheitsstrafe bis zu sechs Monaten oder mit Geldstrafe bis zu 360 Tagess ä tzen zu bestrafen.

(4) Der T ä ter ist nach Abs.1, 2 und 3 nicht zu bestrafen, wenn die Tat nach einer anderen Bestimmung mit strengerer Strafe bedroht ist. “

(vgl. Stopline Jahresbericht 2001, S. 17f)

Als unmündig gelten hierbei Kinder, die das 14. Lebensjahr noch nicht vollendet haben. Hervorzuheben ist, dass bei kinderpornographischem Material schon das bloße Sich-verschaffen strafbar ist. Diese verschärfte Regelung wurde 1996 eingeführt. Zuvor war lediglich die gewerbsmäßige Verbreitung solchen Materials illegal.

In anderen Ländern gelten ähnliche Bestimmungen. In den USA sind beispielsweise die Verbreitung und auch der Besitz von Kinderpornographie sowohl durch das Bundesgesetz, als auch durch einzelstaatliche Gesetze verboten. Die Bestimmungen sind im Wesentlichen also ähnlich wie in Österreich. Nur die Altersgrenze beträgt in den USA 18 Jahre. Diesbezüglich gibt es in den Vereinigten Staaten also eine noch schärfere Regelung (vgl. Mayer-Schönberger 1997, S. 99).

Dennoch herrscht in der westlichen Welt weitgehend Einstimmigkeit bei der Frage nach der Notwendigkeit der Bekämpfung von Kinderpornographie im Internet. So haben beispielsweise 30 Staaten (26 europäische Staaten, sowie die USA, Kanada, Japan und Südafrika) das so genannte „Cybercrime Treaty“ unterzeichnet, das einen weltweiten Konsens bei der Bekämpfung von Internet-Verbrechen schaffen soll, und in dem neben Hacking und ähnlichen Computerverbrechen auch der Austausch von Kinderpornographie kriminalisiert wird (vgl. Computerweekly.com 2001). Man muss aber auch anmerken, dass viele Staaten der Welt dieses Abkommen nicht unterzeichnet haben, was selbstverständlich die Durchsetzungskraft der Gesetze um einiges verringert. Nichtsdestotrotz ist die Tatsache, dass bei Kinderpornographie allgemein rund um den Globus weitgehend Einstimmigkeit herrscht, bei der Verfolgung von solchen Delikten äußerst nützlich, da, gerade auch durch das Nutzen der neuen Kommunikations- technologien, kriminelle Banden oft über Grenzen hinweg operieren. Eine kooperative Strafverfolgung zwischen mehreren Ländern ist also oft unerlässlich. Leider gibt es aber erhebliche Unterschiede bei dem Setzen der Altersgrenze, auch innerhalb Europas, was natürlich bei der internationalen Strafverfolgung Probleme aufwirft.

Das Internet stellt leider ein perfektes Medium für die Verbreitung von kinderpornographischem Material dar. Dieses kann in digitaler Form als Bilder, Videos der auch in Computerspielen vorkommen. Eine Verbreitung ist durch fast alle im Kapitel 1 beschriebenen Informations- und Kommunikationsdienste möglich (ausgenommen sind Chats). Die Beschaffung und Verbreitung von solchem Material ist durch die neuen Informations- und Kommunikationstechnologien auch erheblich einfacher geworden. Vorher war es für pädophile Personen extrem schwer und auch riskant an solches Material zu kommen. Heute ist es leider relativ leicht und auch ungefährlich geworden, da kinderpornographisches Material bequem vom heimischen PC aus, und auch bis zu einem gewissen Grad anonym, beschafft werden kann. Das hat auch den Effekt, dass sich viele Personen solches Material beschaffen (können), die es aufgrund des Risikos und/oder der Schwierigkeit sonst nicht tun würden. Es ist auch viel leichter, Kontakt mit gleichgesinnten Personen herzustellen. Das steigende Interesse Pädophiler am Internet bestätigen auch aktuelle Statistiken der Exekutive. Die holländische Polizei vermerkte beispielsweise über 200 Anzeigen von Verbreitung von kinderpornographischem Material im Internet im Jahr 2002. Im Vergleich dazu waren es lediglich 35 Fälle im Jahr 2001. (vgl. Expatica 2003) Die Staatsanwaltschaft in Nordrhein-Westfalen kommt in diesem Bereich ebenfalls zu besorgniserregenden Ergebnissen. Ganze 94 Prozent der Strafverfahren zu Kinderpornographie in dem deutschen Bundesland haben sich auf Straftaten im Internet bezogen. Im Jahr 2001 sind 3600 diesen Bereich betreffende Verfahren anhängig gewesen. (vgl. heise-online 2003)

Im Folgenden werden nun die in Kapitel 1 beschriebenen Dienste, im Hinblick auf kinderpornographisches Material, genauer betrachtet.

2.1.2 Kinderpornographie im World Wide Web

Das World Wide Web wird als größter Internet-Dienst auch häufig zur Verbreitung und Beschaffung von kinderpornographischem Material benutzt. Wie stark die Verbreitung ist, lässt sich schon durch eine einfache Suchabfrage in einer Suchmaschine feststellen. Bei der Eingabe von „preteen“10 liefert etwa die bekannteste Suchmaschine Google (siehe www.google.de) 1.700.000 Treffer zurück. Es ist selbstverständlich anzunehmen, dass nicht alle getroffenen Webseiten explizites oder sogar illegales Material enthalten.11 Die Titel und Kurzbeschreibungen aller ersten zehn Webseiten im Ergebnis deuten aber trotzdem auf illegalen Content hin (siehe Abbildung 8).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: Die ersten sechs Suchergebnisse bei der Eingabe von „preteen“ bei Google (am 26.6.2003)12

Eine Durchsicht der Titel und Beschreibungen der ersten 200 Ergebnisse ergab folgende Ergebnisse:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 9: Aufteilung der ersten 200 Ergebnisse bei der Eingabe von „preteen“ bei Google (am 26.6.2003)

Das Angebot von Kinderpornographie im World Wide Web erscheint durchaus umfangreich und auch vermarktungs-orientiert organisiert. Ein Beispiel aus den Vereinigten Staaten deutet ebenfalls auf eine gewinnorientierte Vermarktung von pädophilen Bildern und Videos hin. Und zwar konnte dort einer Firma nachgewiesen werden, dass sie 300 kinderpornographische Webseiten im WWW bereitgestellt und damit 5,5 Millionen US-Dollar erwirtschaftet hatte (vgl. heise-online 2003). Es handelt sich also nicht nur um pädophile Einzelgänger, die illegale Bilder austauschen, sondern auch um eine eigene gut organisierte Industrie. Aber das Angebot richtet sich natürlich nach der Nachfrage. Deshalb ist es auch interessant, wie viele Internet-User sich denn für solches Material im World Wide Web interessieren. Einen Hinweis liefert hierbei die Suchmaschine Overture, die die Funktion bietet, festzustellen, wie oft nach einem Wort oder einer Phrase gesucht wurde.13 53.895 mal wurde beispielsweise im Mai 2003 das Wort „preteen“ in die Suchmaschine eingegeben. Natürlich kann man wieder nicht davon ausgehen, dass jede Suchanfrage mit der Intention gestartet wurde, an illegales Material zu kommen. Aber das Ergebnis deutet dennoch auf eine gewisse Nachfrage hin.

2.1.3 Kinderpornographie auf FTP-Servern

Das File Transfer Protocol eignet sich besonders zum Austausch von größeren Dateien, wie zum Beispiel Videos. Ob und in welchem Umfang damit auch kinderpornographische Filme ausgetauscht werden, lässt sich leider nicht so leicht feststellen wie beim WWW, da es keine umfassende Suchmaschine gibt. Über die Webseite www.oth.net kann allerdings eine begrenzte Anzahl von privaten FTP-Seiten nach Stichwörtern durchsucht werden. Eine Suchanfrage nach „ preteen “ ergab 19 Ergebnisse. 18 davon waren Videofiles mit durchgehend expliziten Titeln, die auf illegales Material hindeuteten.14 Der Datenaustausch findet oft im Verborgenen statt, da man die IP Adresse des Servers wissen muss, um darauf zugreifen zu können. Die Adressen werden dann privat oder innerhalb einer kleinen Mailingliste ausgetauscht. Im Vergleich zum World Wide Web ist es also für Pädophile, die keine entsprechenden Kontakte haben, schwerer an Material zu kommen. Der Nachteil ist allerdings, dass große Datenmengen relativ schnell und problemlos im Verborgenen übertragen werden können.

Die FTP-Server funktionieren oftmals nach dem Ratio 15 - Prinzip. Der Austausch findet hierbei nach einem vorher festgelegten Up- und Download-Verhältnis statt. Das heißt, dass ein Besucher von einem derartigen FTP-Server nur etwas herunterladen kann, wenn er vorher etwas hochgeladen hat. Eine Ratio von 1:2 würde bedeuten, dass er die doppelte Menge an Daten downloaden kann, als er vorher auf den Server hinauf geladen hat. Bei 1:3 wäre es das Dreifache und so weiter. Somit kann der Betreiber des Servers damit rechnen, dass sich seine „Sammlung“ von selbst vergrößert.

2.1.4 Kinderpornographie in Filesharing -Netzwerken

Die Peer-2-Peer Filesharing Netzwerke sind, wie bereits im ersten Kapitel beschrieben, eine relativ neue Form der Datenübertragung. Diese Internetdienste sind vor allem wegen des Austausches urheberrechtlich geschützter Musikdateien und durch den darauf folgenden ständigen Kampf mit der Musikindustrie ins Zentrum des Medieninteresses gerückt. Da aber mit den neuesten Produkten, die auf dieser Technologie beruhen, auch Video- und Bilddateien ausgetauscht werden können, wurden auch Pädophile relativ schnell auf diese Dienste aufmerksam. Mittlerweile hat der Anteil an kinderpornographischem Material in Filesharing - Netzwerken einen beängstigenden Umfang angenommen. Eine einfache Abfrage des Stichwortes „ preteen “ ergab bei der aktuellen Filesharing - Software „Kazaa“ 208 einschlägige Ergebnisse.16 Der Großteil davon waren Videodateien, der Rest hauptsächlich Bilder. Ein fünf Minuten langer, erweiterter Suchdurchlauf ergab ganze 4969 gefundene Dateien, die zum Großteil problemlos über einen Doppelklick auf den heimischen PC befördert werden könnten. Es waren jedoch auch Dateien doppelt vorhanden. Insgesamt handelte es sich um 1207 unterschiedliche Dateien. Zum Zeitpunkt der Suchabfrage waren 3.751.231 User online und insgesamt 813.084.330 Dateien verfügbar (siehe Abbildung 10).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 10: Die ersten Suchergebnisse bei der Eingabe von „preteen“ im filesharing-Programm „Kazaa“ (am 14.6.2003)

[...]


1 Eine Übersicht aller Generic Top-Level Domains ist unter http://www.iana.org/gtld/gtld.htm zu finden. (Stand 21.4.2003)

2 CERN ist ein europäisches Forschungszentrum für Teilchenphysik.

3 Ein übliches FTP Client Programm wäre zum Beispiel FlashFXP, zu finden unter http://www.flashfxp.com

4 Die wohl bekannteste Datenverschlüsselungsmethode für E-Mails ist PGP (Pretty Good Privacy). Nähere Informationen gibt es unter http://www.pgp.com.

5 Ein Beispiel unter vielen dafür wäre http://www.uncensored-news.com.

6 Der schon genannte Newsgroup Anbieter http://www.uncensored-news.com bietet zum Beispiel ebenfalls dieses „Feature“ an (vgl. http://www.uncensored-news.com/benefits.html, am 16.6.2003)

7 Abfrage unter http://irc.netsplit.de/networks/ am 24.6.2003

8 Ein übliches IRC Client Programm wäre zum Beispiel mIRC, zu finden unter http://www.mirc.com.

9 siehe http://www.icq.com

10 „preteen“ ist ein englischer Begriff, mit dem im Allgemeinen Kinder von 10-12 Jahren bezeichnet werden, und der oftmals mit Kinderpornographie assoziiert wird.

11 Eine genauere Recherche ist aus rechtlichen Gründen nicht möglich, da schon alleine durch das Aufrufen einer entsprechenden Webseite illegale Bilder auf meinen Computer übertragen werden können, und ich mich somit unter Umständen strafbar machen würde.

12 Die Links zu den Seiten habe ich einerseits aus moralischen Gründen verdeckt, und andererseits, um rechtlichen Problemen vorzubeugen.

13 Suchfunktion unter http://inventory.overture.com/d/searchinventory/suggestion/, am 28.6.2003

14 Abfrage am 13.6.2003

15 engl. für „Verhältnis“

16 Abfrage am 14.6.2003, Software: Kazaa v.2.0.2, erhältlich unter http://www.kazaa.com

Ende der Leseprobe aus 153 Seiten

Details

Titel
Problematische Inhalte im Internet - Möglichkeiten und Grenzen aktueller Regulierungsansätze
Hochschule
Universität Salzburg  (Institut für Kommunikationswissenschaft)
Note
Gut
Autor
Jahr
2004
Seiten
153
Katalognummer
V27015
ISBN (eBook)
9783638291668
Dateigröße
1885 KB
Sprache
Deutsch
Schlagworte
Problematische, Inhalte, Internet, Möglichkeiten, Grenzen, Regulierungsansätze
Arbeit zitieren
Gerald Buttinger (Autor), 2004, Problematische Inhalte im Internet - Möglichkeiten und Grenzen aktueller Regulierungsansätze, München, GRIN Verlag, https://www.grin.com/document/27015

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Problematische Inhalte im Internet - Möglichkeiten und Grenzen aktueller Regulierungsansätze



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden