Altersverifikation und Filtersystemen für den Jugendschutz im Internet. Eine Bestandsaufnahme


Bachelorarbeit, 2010
150 Seiten, Note: 1,0

Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1 Einleitung
1.1 Zielstellung
1.2 Aufbau der Arbeit

Theoretischer Teil

2 Methodologie
2.1 Literaturrecherche
2.2 Explorative Experteninterviews
2.3 Bestandsaufnahme
2.4 Vergleich

3 Forschungsstand und Quellenlage

4 Jugendschutz im Internet
4.1 Rechtliche Institutionen in Deutschland
4.2 Risiken des Internet für Kinder und Jugendliche
4.3 Jugendschutz für das globale Medium Internet

5 Altersverifikationssysteme
5.1 Definition
5.2 Gesetzliche Anforderungen in Deutschland
5.3 Umsetzung in der Praxis

6 Filtersysteme
6.1 Definition
6.2 Gesetzliche Anforderungen in Deutschland
6.3 Umsetzung in der Praxis

Empirischer Teil

7 Bestandsaufnahme Altersverifikationssysteme
7.1 Vorgehensweise
7.2 Ergebnisse

8 Vergleich Altersverifikationssysteme
8.1 Vorgehensweise
8.2 Steckbriefe Altersverifikationssysteme
8.2.1 18ok (18ok GmbH)
8.2.2 AVSKey.de (Digipay AG)
8.2.3 CHECK2GO (Inter Publish GmbH)
8.2.4 Freiab18.de (RT Entertainment Group)
8.2.5 Ueber18.de (RESISTO IT GmbH)
8.3 Auswertung des Vergleichs

9 Bestandsaufnahme Filtersysteme
9.1 Vorgehensweise
9.2 Ergebnisse

10 Vergleich Filtersysteme
10.1 Vorgehensweise
10.2 Steckbriefe Filtersysteme
10.2.1 Windows Live Family Safety 2011 (Microsoft)
10.2.2 Surf-Sitter PC (Cybits AG)
10.2.3 McAfee Family Protection (McAfee)
10.2.4 K9 Web Protection (Blue Coat Systems)
10.2.5 Cybersitter 11 (Solid Oak Software)
10.3 Auswertung des Vergleichs

11 Zusammenfassung

Literatur- und Quellenverzeichnis

Urteilsverzeichnis

Verzeichnis der Gesprächspartner

Verzeichnis der verglichenen Systeme

Anhang
A 1 Vergleich Altersverifikationssysteme
A 1.1 Bestandsaufnahme und Stichprobenauswahl
A 1.2 Rahmenbedingungen und Vorgehensweise
A 1.3 Analysebogen 18ok
A 1.4 Analysebogen AVSKey.de
A 1.5 Analysebogen CHECK2GO
A 1.6 Analysebogen Freiab18.de
A 1.7 Analysebogen Ueber18.de
A 1.8 Kriterien der Punktevergabe
A 1.9 Punktevergabe
A 2 Vergleich Filtersysteme
A 2.1 Bestandsaufnahme und Stichprobenauswahl
A 2.2 Rahmenbedingungen und Vorgehensweise
A 2.3 Erstellung und Inhalt der URL-Liste
A 2.4 Analysebogen Windows Live Family Safety 2011
A 2.5 Analysebogen Surf-Sitter PC
A 2.6 Analysebogen McAfee Family Protection
A 2.7 Analysebogen K9 Web Protection
A 2.8 Analysebogen Cybersitter 11
A 2.9 Kriterien der Punktevergabe
A 2.10 Punktevergabe

Abstrakt

Diese Arbeit enthält eine aktuelle Marktübersicht über für deutsche Nutzer relevante Altersverifikations- und Filtersysteme und einen Vergleich jeweils fünf ausgewählter Lösungen.

Altersverifikationssysteme, die auf einer einmaligen Identifizierung des Nutzers sowie einer Authentifizierung bei jedem Nutzungsvorgang basieren, bieten einen ausreichenden Jugendschutz. Es existieren effiziente Verfahren, die eine eindeutige Identifizierung ohne Wartezeit ermöglichen.

Die getesteten Filtersysteme mit einer Blacklist-Konfiguration bieten keinen vollständigen Schutz vor Inhalten, die für Minderjährige nicht geeignet sind. Sie blockieren zu viele oder zu wenige Inhalte und können zum Teil umgangen werden. Ihr Einsatz ist aufgrund zahlreicher Funktionen und der teilweise guten Filterleistung dennoch zu empfehlen.

Abstract (English)

This thesis contains an up-to-date market-overview on Age Verification Systems and Systems for Content Filtering, focusing solutions with relevance for German users. Five systems are being compared in each case.

Age Verification Systems based upon a unique identification and an authentication during each usage feature an effective protection of minors. There are efficient procedures for identification without latency.

The five compared Systems for Content Filtering with a blacklist- configuration do not provide an entire protection from content which is inappropriate to minors. Filters do overblock or underblock websites and can be by-passed to some extent. However usage of Systems for Content Filtering can be commended because they include many functions and some solutions show a high efficiency.

Executive Summary

Altersverifikations- und Filtersysteme sind technische Maßnah- men zur Gewährleistung des Jugendschutzes im Internet. Alters- verifikationssysteme werden einem Angebot vorgeschalten, sodass nur Erwachsene darauf zugreifen können (geschlossene Benutzer- gruppe). Filtersysteme regulieren die Aufrufbarkeit von Informa- tionen oder Diensten des Internet nach festlegbaren Kriterien auf der Ebene des Nutzers.

Diese Arbeit bietet eine aktuelle Marktübersicht der für deutsche Nutzer relevanten Systeme. Zudem wird überprüft, welche Lö- sungen den Jugendschutz im Internet am effektivsten, effizientes- ten und mit der höchsten Benutzerfreundlichkeit garantieren kön- nen. Dazu erfolgt eine Auswertung mithilfe von Anbieterinformatio- nen bzw. durch einen Test systematisch erhobener Merkmale.

Grundlage des theoretischen Teils dieser Arbeit sind Literatur- recherche und explorative Experteninterviews. Altersverifikations- systeme wurden bisher noch nicht in systematischen Untersu- chungen miteinander verglichen. Allerdings liegen einige Publikationen vor, in denen eine Beschreibung und Analyse von Filtersystemen erfolgt.

Das Internet wird von den meisten Kindern und Jugendlichen genutzt. Zahlreiche für Minderjährige ungeeignete Inhalte sind spe- ziell mit dem Dienst World Wide Web auffindbar, beispielsweise pornografische, gewaltverherrlichende und extremistische Ange- bote. Der Jugendschutz im Internet ist in Deutschland gesetzlich festgelegt. Die wichtigsten Regelungen trifft der Jugendmedien- schutz-Staatsvertrag. Unterschieden werden entwicklungsgefähr- dende Angebote, die nur für Erwachsene innerhalb einer geschlossenen Benutzergruppe zugänglich gemacht werden dürfen sowie entwicklungsbeeinträchtigende Angebote, welche für Kinder und Jugendliche bestimmter Altersstufen nicht aufrufbar sein dür- fen. Die übergreifende Durchsetzung dieser nationalen Bestim- mungen im globalen Medium Internet ist problematisch. Für Kin- der oder Jugendliche ungeeignete Inhalte, die sich auf ausländi- schen Servern befinden, können teilweise nicht reglementiert wer- den.

Zahlreiche Institutionen in Deutschland regeln den Jugend- schutz im Internet: Die Landesmedienanstalten haben die Kommis- sion für Jugendmedienschutz als zentrale Internetaufsicht ins Le- ben gerufen. Die organisatorisch angebundene Stelle Jugend- schutz.net prüft die Zulässigkeit von Internetangeboten. Des Weite- ren ist die Freiwillige Selbstkontrolle Multimedia-Diensteanbieter e. V. für die ihnen angeschlossenen Anbieter zuständig. Die Bundesprüfstelle für jugendgefährdende Medien kann Webseiten/Websites indizieren, woraus sich Vertriebs-, Verbreitungs- und Werbebeschränkungen ergeben.

Altersverifikationssysteme sind in Deutschland als eine Lösung zur Realisierung des gesetzlichen Jugendmedienschutzes vorgese- hen. Sie müssen eingesetzt werden, wenn jugendgefährdende Angebote im Internet zur Verfügung gestellt werden. In der Praxis finden sie vor allem bei pornografischen Inhalten Anwendung. Nach Eckwerten der Kommission für Jugendmedienschutz müssen die Systeme eine einmalige Identifizierung und eine Authentifizie- rung bei jedem Nutzungsvorgang ermöglichen. Ergebnis der Be- standsaufnahme ist, dass sich aktuell 17 deutschsprachige Sys- teme auf dem Markt befinden, welche die Altersverifikation als Dienstleistung für Anbieter von Inhalten im Internet zur Verfügung stellen. Aus einer Zufallsstichprobe von fünf Systemen erreichen die Lösungen 18ok und AVSKey.de die beste Bewertung. Diese ga- rantieren einen effektiven Schutz. Das effizienteste

Identifizierungsverfahren bei den verglichenen Lösungen ist der Identitäts-Check mit Q-Bit (Schufa Holding AG) in Verbindung mit einer sicheren Verifizierungsvariante ohne Wartezeit (beispielsweise Sofortüberweisung oder Überprüfung mittels Videoübertragung und Ausweiskontrolle).

Filtersysteme können u. a. von Eltern eingesetzt werden, um ihre Kinder vor ungeeigneten Inhalten zu schützen. Sie arbeiten mit Wortlisten, Listen geeigneter (Whitelists) und ungeeigneter (Black- lists) Webseiten/Websites oder mit Bilderkennungsverfahren. Zu- dem können einige Lösungen eine Einstufung durch Label vornehmen, die Informationen über den Inhalt eines Internetange- bots enthalten. Der gesetzliche Jugendschutz in Deutschland sieht auf Filtersystemen basierende Jugendschutzprogramme zur Regle- mentierung entwicklungsbeeinträchtigender Inhalte im Internet vor. Diese sollen nach Einschätzung der Kommission für Jugendmedienschutz Blacklists/Whitelists enthalten und Label auslesen können, mit denen Anbieter ihre Inhalte selbst klassifizie- ren. Bisher konnte allerdings noch kein Jugendschutzprogramm anerkannt werden. Filtersysteme sind in unterschiedlicher Form möglich (z. B. auf der Ebene des Internet Service Providers, einer Institution oder des Privatanwenders). Ergebnis der Bestandsauf- nahme ist, dass sich aktuell 26 deutschsprachige Filterprogramme für den PC auf dem Markt befinden. Die Programme weisen viele Funktionen auf, die über die grundsätzliche Filterleistung hinausgehen (beispielsweise Zeitkontrolle oder Protokollierung der Internetnutzung). In einem Vergleich von fünf zufällig ausgewähl- ten Systemen erhält McAfee Family Protecion die beste Bewertung. Der Blacklist-Filter dieser Anwendung weist eine hohe Effizienz auf. Die Abblockfunktion der meisten Filterprogramme konnte mit verschiedenen Varianten umgangen werden. Einzig die Software K9 Web Protection hielt allen Manipulationsversuchen stand. Zudem konnte festgestellt werden, dass pornografische Angebote zuverlässiger blockiert werden als andere für Minderjährige nicht geeignete Inhalte.

Abbildungsverzeichnis

Abb. 1: Organigramm der KJM

Abb. 2: Zugang zu einer geschlossenen Benutzergruppe über das Tor des Altersverifikationssystems x-check

Abb. 3: Online-Hilfe auf der Website von 18ok

Abb. 4: AVSCam: Software zur Nutzerverifizierung

Abb. 5: Freiab18.de: Abfrage der Personalausweisnummer. .

Abb. 6: Kategorisierung der erhobenen Filtersysteme

Abb. 7: Die Einstellung des Webfilters von Windows Live Fami- ly Safety erfolgt online

Abb. 8: Warnhinweis bei einem Zugriffsversuch auf ungeeigne- te Internetinhalte

Abb. 9: McAfee Family Protection: Auswahl inhaltlicher Kate- gorien

Abb. 10: K9 Web Protection: Warnsignal bei einem Zugriffsver-such auf eine blockierte URL

Abb. 11: Cybersitter 11: Einstellungsmöglichkeiten mithilfe re- gulärer Ausdrücke

Tabellenverzeichnis

Tab. 1: Deutschsprachige Altersverifikationssysteme als Dienstleistung für Dritte

Tab. 2: Punktevergabe Altersverifikationssysteme in den ein- zelnen Kategorien

Tab. 3: Punktevergabe Filtersysteme in den einzelnen Katego- rien

Tab. 4: Stichprobenauswahl Altersverifikationssysteme

Tab. 5: Stichprobenauswahl Filtersysteme

Tab. 6: Punktevergabe Altersverifikationssysteme im Detail.

Tab. 7: Punktevergabe Filtersysteme im Detail

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Das Internet 1 ist aufgrund seiner Struktur grundsätzlich kein auf Kinder und Jugendliche ausgerichtetes Medium. Da jeder Nut- zer als Kommunikator auftreten und Inhalte verbreiten kann, widerspiegelt dieses Medium die Gesellschaft und mit ihr alle Schattenseiten: Darstellungen von Pornografie oder Gewalt, extre- me politische oder religiöse Inhalte sowie Foren, in denen Möglichkeiten zum Suizid ausgetauscht werden, sind einige Bei- spiele für Inhalte, die für Minderjährige nicht geeignet sind.

Allerdings gehört das Internet inzwischen zum Alltag der Kinder und Jugendlichen, es erfüllt verschiedene Informations-, Unterhal- tungs- und Kommunikationsfunktionen. Um den Zugriff auf problematische Inhalte zu verhindern, sind Regulierungsmechanis- men notwendig. Es ist die Aufgabe von Eltern, ihre Kinder bei der Nutzung eines Mediums zu begleiten und Medienkompetenz zu vermitteln. Permanente Aufsicht ist allerdings nicht immer mög- lich. Zur Einhaltung des Jugendschutzes im Internet existieren da- her auch technische Lösungen.

1.1 Zielstellung

Altersverifikations- und Filtersysteme sind zwei Lösungen zum Schutz von Kindern und Jugendlichen im Umgang mit dem Inter- net. Ziel dieser Arbeit ist eine aktuelle Bestandsaufnahme der für deutsche Nutzer relevanten Systeme. Darüber hinaus werden fünf Altersverifikations- und fünf Filtersysteme hinsichtlich der Gewährleistung des Jugendschutzes im Internet verglichen.

1.2 Aufbau der Arbeit

Die Arbeit gliedert sich in einen theoretischen und einen empiri- schen Teil. Zu Beginn des theoretischen Teils werden die im Rah- men dieser Arbeit verwendeten Methoden erläutert und der For- schungsstand über Altersverifikations- und Filtersysteme darge- stellt. Anschließend erfolgt eine Einführung in das Thema Jugend- schutz im Internet: Welche Gesetze und Institutionen in Deutsch- land sind relevant? Welche Risiken bestehen und welche Inhalte bedürfen der Reglementierung? Welche Probleme ergeben sich aus der grenzüberschreitenden Struktur des Internet? Nachfolgend werden Altersverifikations- und Filtersysteme definiert, in die rechtlichen Regelungen eingeordnet und ihre Umsetzung in der Praxis dargestellt. Im empirischen Teil der Arbeit werden schließ- lich die Ergebnisse der Bestandsaufnahme dargelegt, die getesteten Systeme beschrieben und die Vergleichsresultate präsentiert.

Im Anhang ist die empirische Vorgehensweise beim Vergleich der Altersverifikations- bzw. Filtersysteme detailliert dokumentiert. Enthalten sind zudem die ausgefüllten Analysebogen und die numerischen Ergebnisse des Vergleichs.

Theoretischer Teil

2 Methodologie

2.1 Literaturrecherche

Grundlage des theoretischen Teils dieser Arbeit war eine Literaturrecherche im Bestand der Universitätsbibliothek Leipzig, der Deutschen Nationalbibliothek Leipzig sowie im Handapparat des Instituts für Kommunikations- und Medienwissenschaften. Darüber hinaus wurden verschiedene Datenbanken des Fachge- biets Medien- und Kommunikationswissenschaften durchsucht; besonders viele Fundstellen zum Thema wies das Informationssys- tem Medienpädagogik2 auf. Als Ressource aus dem informations- wissenschaftlichen Bereich dienten Fachzeitschriften, insbesondere das c't - magazin für computer und technik (c't) vom Heise Verlag. Außerdem erfolgten zur Wahrung der Aktualität umfangreiche Internetrecherchen zum Thema.

2.2 Explorative Experteninterviews

Zu Beginn der Bearbeitung des Themas wurden zwei explorative Experteninterviews durchgeführt. In einem telefonischen Interview gab O.V. (LL.M.), Referent für Suchmaschinen und Mobilfunk bei der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter e.V. (FSM), Auskunft über die rechtlichen Grundlagen für Filter- und Altersverifikationssysteme und die Rolle der FSM. Zudem erfolgte ein persönliches Gespräch mit Prof. (em.) Dr. Heribert Schumann vom Institut für Jugendschutzrecht und Strafrecht der Medien der Universität Leipzig, in dem ebenfalls auf die rechtlichen Grundlagen für Filter- und Altersverifikationssysteme eingegangen wurde und im Speziellen eine rechtliche Auseinandersetzung des Altersverifikationssysteme-Anbieters RESISTO IT GmbH bespro- chen wurde.

Das Experteninterview ist eine qualitative Form der Befragung mit einer weniger strukturierten Interviewtechnik - im Gegensatz zu einer stark strukturierten quantitativen Befragung (DIEKMANN 2010: 438; BOGNER/MENZ 2002a: 17). Experteninterviews sind zu- meist an einen Leitfaden gebunden (BOGNER/MENZ 2002a: 17). Als Gesprächspartner fungieren Experten. Das sind Personen, die im Kontext ihres beruflichen oder professionellen Handelns über technisches Wissen, Prozesswissen und Deutungswissen verfügen (BOGNER/MENZ 2002b: 46).

BOGNER und MENZ unterscheiden das explorative, das systemati- sierende und das theoriegenerierende Experteninterview (2002b: 37 f.). Die für diese Arbeit durchgeführten explorativen Ex- perteninterviews dienten der „Herstellung einer ersten Orientierung in einem thematisch neuen oder unübersichtlichen Feld“ (ebd.: 37). Die erhobenen Daten müssen weder vollständig noch standardisierbar sein (ebd.: 37). Entsprechend weisen explorative Experteninterviews nur eine begrenzte Reliabilität auf und sind da- her nicht als Beweismittel verwendbar (BOGNER/MENZ 2002a: 17).

Für die Interviews wurden zwei auf den jeweiligen Gesprächs- partner ausgerichtete Leitfäden entworfen, die sich in vielen inhaltlichen Punkten gleichen. Während der Interviews wurde die Reihenfolge der Fragen an den Gesprächsverlauf angepasst und spontane Exkurse der Experten wurden nicht unterbrochen. Daher wiesen die Interviews zeitweise einen narrativen Charakter auf.

Schlussendlich wurden nur wenige Informationen der Experteninterviews direkt in den Text integriert. Aus dem Gespräch mit Schumann flossen gar keine Fakten ein. Allerdings erleichterten die erhaltenen Informationen den Einstieg ins Thema.

2.3 Bestandsaufnahme

Die Bestandsaufnahme ist eine aktuelle Zusammenstellung der auf dem Markt befindlichen Systeme. Im Bereich der Altersverifika- tionssysteme wurde eine vollständige Erfassung der deutschsprachigen Angebote angestrebt, bei denen das System als Dienstleistung für Dritte zur Verfügung steht. Bei den Filtersyste- men sollte eine Zusammenstellung möglichst aller deutschsprachi- gen Filterprogramme für einen Einzelplatz-PC erreicht werden. Wie die Bestandsaufnahme jeweils im Detail ablief und welche Ergeb- nisse sie lieferte, wird für Altersverifikationssysteme im Kapitel 7 sowie im Anhang A 1.1 und für Filtersysteme im Kapitel 9 sowie im Anhang A 2.1 beschrieben.

2.4 Vergleich

Durch einen Vergleich sollen mindestens zwei Objekte aus einer bestimmten Perspektive hinsichtlich ihres gegenseitigen Verhält- nisses untersucht werden (BRUNSWIG 1910: 62). In dieser Arbeit erfolgt ein Vergleich von jeweils fünf Altersverifikations- und Filter- systemen hinsichtlich der Gewährleistung des Jugendschutzes im Internet. Merkmale der Systeme wurden dazu in mehreren Katego- rien erhoben und nach einem Punkteschema ausgewertet. Die ge- naue Vorgehensweise und die Kriterien für den Vergleich der Altersverifikations- bzw. Filtersysteme unterscheiden sich3. Iden- tisch ist allerdings, dass die maximal zu erreichenden Punktzahlen jeweils ein fiktives System darstellen, welches alle erfassten Merk- male in optimaler Ausprägung aufweist. Diese Art der Bewertung folgt subjektiven Kriterien. Eine mehr oder weniger strenge Auffas- sung der optimalen Ausprägung jedes Merkmals ist möglich. Auch die Gewichtung der einzelnen Merkmale erfolgte subjektiv: So könnte beispielsweise die maximale Punktzahl in einer Kategorie halbiert werden, sodass diese in der Gesamtbewertung kleineren Stellenwert einnimmt. Um Sekundärauswertungen nach solchen alternativen Bewertungs- und Gewichtungsmustern zu ermögli- chen, sind die Kriterien der Punktevergabe4 im Anhang detailliert aufgeschlüsselt. Auch die zugrundeliegenden Analysebogen5 sind dort zu finden.

Das Ziel des Vergleichs ist es jeweils, das System mit der höchs- ten Usability zu identifizieren. Die Internationale Organisation für Normung definiert Usability als das „Ausmaß, in dem ein Produkt durch bestimmte Benutzer in einem bestimmten Nutzungskontext genutzt werden kann, um bestimmte Ziele effektiv, effizient und mit Zufriedenheit zu erreichen“ (DIN EN ISO 9241 Teil 11, zit. nach: SEIBERT MEDIA GMBH 2010: 3). Ausgehend von dieser Defini- tion wird bei der vorliegenden Untersuchung die Nutzersicht einge- nommen und analysiert, wie ein Altersverifikationssystem bzw. ein Filtersystem den Jugendschutz im Internet möglichst effektiv, effi- zient und zufriedenstellend gewährleisten kann.

3 Forschungsstand und Quellenlage

Die Literatur zu Altersverifikationssystemen ist überschaubar. Einige Texte setzen sich mit den rechtlichen Anforderungen aus- einander (u. a. GÜNTHER/SCHINDLER 2006, LIESCHING 2006). Die Kommission für Jugendmedienschutz der Landesmedienanstalten (KJM) bietet eine Übersicht über die durch sie seit September 2003 positiv bewerteten Konzepte zu Altersverifikationssystemen (KJM 2010d) und beschreibt Eckpunkte für die Anforderungen an diese Systeme (FREUND 2010a). Außerdem liegen einige Gerichtsurteile im Zusammenhang mit Altersverifikationssystemen vor. Systemati- sche Untersuchungen zur Leistungsfähigkeit von Altersverifika- tionssystemen in der Praxis fehlen.

Umfangreicher ist die Quellenlage in Bezug auf Filtersysteme. In zahlreichen Publikationen werden Lösungen für Institutionen und Privatanwender beschrieben und hinsichtlich ihrer Leistungsfähigkeit analysiert. Es folgt die Darstellung einer Auswahl.

Für die Verwendung im schulischen Bereich stellt KETZER 2009 einige US-amerikanische und deutsche Filterprogramme vor. In ihrem Fazit konstatiert sie, dass Filtersoftware nur eine Ergänzung zur Betreuung und Aufsicht durch die Lehrerinnen und Lehrer darstellen kann (27).

Die EU lässt im Rahmen des „Safer Internet Programme“ die Leistungsfähigkeit von Filtersystemen überprüfen. Im Abschluss- bericht der ersten Studie stellt die mit der Durchführung beauf- tragte Unternehmensberatung Deloitte eine kontinuierliche Ver- besserung6 von Filtersystemen fest (DELOITTE ENTERPRISE RISK SERVICES 2008: 5). Allerdings sei die Effektivität der Filter hinsicht- lich für Kinder und Jugendliche ungeeigneter nicht-pornografi- scher Internetinhalte noch verbesserungsfähig (ebd.: 6). Momentan wird die zweite Studie „SIP-BENCH II“ durchgeführt, die bis De- zember 2012 läuft. Erste Ergebnisse sollen noch 2010 veröffentlicht werden (EUROPEAN COMMISSION 2010).

SPRICK beschreibt, nach welchen Methoden Filtersoftware funktioniert (2007: 41-45), weist auf die Grenzen der Programme hin (ebd.: 52-56) und stellt zahlreiche Testkriterien auf, nach denen eine Bewertung der Systeme möglich wäre (ebd.: 47-52).

BIERSCHENK und VOLPERS veröffentlichen 2004 die Ergebnisse ei- nes Praxistests von Filtersoftware. Sie stellen zum damaligen Zeit- punkt eine Anzahl von etwa 50 Filtersystemen auf dem Markt fest (150). Im Test werden fünf Lösungen hinsichtlich der Filterwir- kung, der Manipulationsresistenz, des Funktionsumfangs und der Usability verglichen (ebd.: 173). Die Autoren kommen zum Ergeb- nis, dass ein umfassender Jugendmedienschutz und eine Miss- brauchsverhinderung allein durch technische Mittel nur unzu- reichend möglich sei (ebd: 176). Allein die OrangeBoxWeb Home, ein Gemeinschaftsprojekt der Cobion AG und der Datapol GmbH (ebd: 157), schneide in allen Kategorien gut oder sehr gut ab und lasse sich durch keine Methode umgehen (ebd.: 173 ff.).

Das BUNDESMINISTERIUM FÜR WIRTSCHAFT UND TECHNOLOGIE, REFERAT ÖFFENTLICHKEITSARBEIT publiziert im Jahr 1999 eine Unter- suchung über Filtertechnologien im Internet. Nach einer Bestands- aufnahme und Analyse der damaligen Lösungen wird durch die Secorvo Security Consulting GmbH, welche die Studie durchge- führt hat, ein kritisches Fazit gezogen: Die verfügbaren Technolo- gien würden eine niedrige Treffsicherheit aufweisen und seien nur mühsam zu bedienen (2).

In der Fachzeitschrift c't werden Tests von Filtersystemen für Privatanwender publiziert. Im aktuellsten Test überprüft MANSMANN zehn Filtersysteme für Kinder-PCs mit Windows-Betriebssystem, darunter die Filterfunktion von fünf Security-Suites. Neben der Be- dienung, dem Funktionsumfang und der Sicherheit gegen Manipulationen wird auch die Filterwirkung in Bezug auf für Kin- der und Jugendliche geeignete und ungeeignete Internetinhalte überprüft (2010, 11. Oktober: 142 f.). In einem weiteren Vergleich werden neun Filterprogramme getestet, von denen fünf kostenlos verfügbar sind (2009, 19. Januar). Im Fazit stellt MANSMANN fest, dass die kostenlosen Programme hinsichtlich der Filterwirkung durchweg bessere Ergebnisse liefern als die kostenpflichtigen Pro- gramme (ebd.: 137). Zudem testet KOSSEL die Filterfunktion von vier Routern. Lediglich die Hardware-Lösung von Funkwerk sei den Filterprogrammen ebenbürtig, weise aber sehr hohe Nutzungskos- ten auf (2009, 19. Januar: 140). Die genauen Bewertungsmaßstäbe werden bei den Tests der c't allerdings nicht im Detail offengelegt.

4 Jugendschutz im Internet

„Der Begriff des Kinder- und Jugendschutzes umfasst die gesell- schaftlichen Reaktionen darauf, dass unsere Lebensumwelt Gefähr- dungen mit sich bringt und diese für Kinder und Jugendliche teil- weise anders als für Erwachsene bestehen.“ (KJM 2010a: 22)

Unterschieden werden der strukturelle Jugendschutz (Verhindern des Entstehens von Gefährdungen), der erzieherische Jugendschutz (Aufklärung über Gefährdungen und deren Bewältigung) sowie der gesetzliche Jugendschutz (Regelungen zum Umgang mit Gefährdungen) (ebd.).

Das Internet weist viele potentielle Gefährdungen für Kinder und Jugendliche auf. Welche grundlegenden Risiken bestehen, wird im Unterkapitel 4.2 dargelegt.

Internetkontakt haben die meisten Kinder und nahezu alle Ju- gendlichen in Deutschland: Der KIM-Studie 2008 zufolge nutzen 59 Prozent der Kinder im Alter von 6 bis 13 Jahren das Internet zumindest selten (MEDIENPÄDAGOGISCHER FORSCHUNGSVERBUND SÜDWEST 2009a: 38). Jeder vierte der jungen Internetnutzer rufe wenigstens einmal pro Woche Angebote auf, die sich eher an Er- wachsene richten (ebd.: 40). 8 Prozent der Kinder, die das Internet nutzen, seien schon einmal auf Angst machende oder unange- nehme Inhalte im Netz gestoßen (ebd.: 43). Von den Jugendlichen im Alter von 12 bis 19 Jahren nutzen laut der JIM-Studie 2009 98 Prozent das Internet zumindest selten und 90 Prozent mehr- mals pro Woche (MEDIENPÄDAGOGISCHER FORSCHUNGSVERBUND SÜD- WEST 2009a: 31). Die aktuelle ARD-ZDF Onlinestudie stützt diese Zahlen, wonach alle Jugendlichen im Alter von 14 bis 19 Jahren das Internet zumindest gelegentlich nutzen (EIMEREN/FREES 2010: 335).

Jugendschutz im Internet ist also notwendig. Doch wer kann die Inhalte reglementieren und so das Gefährdungspotential eindäm- men? Einerseits die Internetgemeinde selbst: Das Netz weist gewachsene Selbstregulierungsprinzipien auf. In Communities gel- ten bestimmte Regeln und Konventionen. Beachtet der Nutzer diese nicht, kann dies zu Ermahnungen durch andere Community- mitglieder oder gar zum Ausschluss aus dem Angebot führen (GROEBEL/KONERT 2002: 54 f.). Doch seit der Kommerzialisierung des Internet und seiner Verbreitung auf dem Massenmarkt stößt die Selbstregulierung laut GROEBEL und KONERT an ihre Grenzen (ebd.: 55).

Andererseits regelt der gesetzliche Jugendmedienschutz den Umgang mit Gefährdungen durch Medien (KJM 2010a: 22).

4.1 Rechtliche Institutionen in Deutschland

Die wichtigsten Bestimmungen des deutschen Rechts zum Ju- gendschutz im Internet enthält der Jugendmedienschutz-Staats- vertrag (JMStV) vom 10. bis 27. September 2002. Am 01. 01. 2011 tritt voraussichtlich der novellierte JMStV nach einem Entwurf in der Fassung des 14. Rundfunkänderungsstaatsvertrages (JMStV-E) in Kraft. (BLM 2010: 3).

In diesem Kapitel soll ein knapper Überblick über die für den Jugendschutz im Internet relevanten Institutionen in Deutschland gegeben werden. Welche Regelungen für die Inhalte von Internet- angeboten gelten und welche Konsequenzen sich für Altersverifika- tions- und Filtersysteme ergeben, wird in den Kapiteln 4.2, 5.2 sowie 6.2 erläutert.

Grundsätzlich sind die Landesmedienanstalten dafür zuständig, die Einhaltung der für die Anbieter geltenden Regelungen des JMStV zu überprüfen (§ 14 Abs. 1 JMStV). Zur Durchführung die- ser Aufgabe wurde die KJM geschaffen. Sie entscheidet als zentrale Internetaufsicht über Sanktionen bei Verstößen (KJM 2010a: 22).

Abb. 1: Organigramm der KJM.

Abbildung in dieser Leseprobe nicht enthalten

(Quelle: KJM 2010a: 24)

Die Prüfung, ob ein Internetangebot gegen gesetzliche Rege- lungen verstößt oder zulässig ist, führt die organisatorisch an die KJM angebundene länderübergreifende Stelle jugendschutz.net durch (CROLL/KUBICEK 2008: 250). Diese Einrichtung beobachtet Internetangebote (WEIGAND 2007: 534), nimmt Hinweise auf Ver- stöße gegen Jugendschutzbestimmungen entgegen (SCHINDLER 2009) und kooperiert mit Internet-Beschwerdestellen im europäi- schen7 und außereuropäischen Ausland (SCHINDLER 2010). Zudem besteht seit 2006 ein Prüflabor der KJM bei jugendschutz.net. Dort werden Jugendschutzprogramme, Filter und Altersverifikations- systeme hinsichtlich ihrer Wirksamkeit getestet (WEIGAND 2007: 535).

Der deutsche Jugendmedienschutz folgt einem Konzept der Koregulierung. Dabei werden Prinzipien der Selbstregulierung mit Prinzipien der Selbstverpflichtung und Kontrolle kombiniert (GROEBEL/KONERT 2002: 55). Regulatorische Zuständigkeiten kön- nen auf anerkannte Selbstkontrolleinrichtungen übertragen wer- den (CROLL/KUBICEK 2008: 249 f.). Die Anerkennung führt die KJM durch (§ 16 S. 1 Nr. 2 JMStV). Für den Bereich der Telemedien8 wurde 2005 die Freiwillige Selbstkontrolle Multimedia- Diensteanbieter e.V. (FSM) als Einrichtung der Freiwilligen Selbst- kontrolle anerkannt. Die FSM überprüft die Einhaltung der gelten- den Regelungen des JMStV bei ihnen angeschlossenen Anbietern (§ 19 Abs. 2 JMStV). Zudem nimmt auch die FSM Beschwerden über strafbare oder jugendgefährdende Inhalte im Internet entge- gen (FRANK 2010a).

Die Bundesprüfstelle für jugendgefährdende Medien (BPjM) ent- scheidet über die „Indizierung von Träger- und Telemedien […], die geeignet sind, die Entwicklung von Kindern und Jugendlichen zu eigenverantwortlichen und gemeinschaftsfähigen Persönlichkeiten zu gefährden“ (WEIGAND 2007: 536). Indizierte Medien dürfen nur Erwachsenen zugänglich gemacht werden und unterliegen Ver- triebs-, Verbreitungs- und Werbebeschränkungen (MONSSEN- ENGBERDING 2010a).

4.2 Risiken des Internet für Kinder und Jugendliche

Das Internet bietet eine breite Palette an Inhalten, die nicht für Kinder oder Jugendliche geeignet sind. VOLPERS fasst einige Extreme zusammen:

„Kannibalisten suchen hier ihre Objekte, Pädosexuelle finden hier ihre Opfer; Hardcorepornographie aller erdenklichen Spielarten, von Urinsex über Sadomasochismus bis hin zu Sodomie, wird in tausen- den von Bildern und Videos verbreitet; Gewaltdarstellungen, die sämtliche Tabus überschreiten, zeigen Verstümmelungen, Folterun- gen und Tötungen jeglicher Art; Satanisten und Sektenanhänger je- der Couleur verbreiten sich hier ebenso wie Neonazis und Rassisten; in Suizidforen wird zum gemeinschaftlichen Selbstmord aufgerufen und in Chat-Rooms kriminelle Handlungen verschiedenster Art angebahnt.“ (VOLPERS 2004: 11 f.)

Für Kinder und Jugendliche problematische Inhalte lassen sich zudem ohne großen Aufwand finden. So sind schon nach Eingabe des Begriffs „porn“ bei Google bereits auf der ersten Trefferseite der Suchmaschine acht Links zu eindeutig pornografischen Angeboten ohne Zugriffsschutz enthalten9. Allerdings handelt es sich beim Internet nicht um einen rechtsfreien Raum. Vorschriften, die für die Offline-Welt gelten, finden auch online Anwendung.

Der JMStV unterscheidet unzulässige (§ 4) und entwicklungsbe- einträchtigende (§ 5) Angebote. Demzufolge sind Angebote absolut unzulässig, wenn sie Propagandamittel darstellen, Kennzeichen verfassungswidriger Organisationen verwenden, zum Hass gegen Teile der Bevölkerung oder bestimmte Gruppen aufstacheln, eine unter der Herrschaft des Nationalsozialismus begangene Handlung leugnen oder verharmlosen, grausame Gewalttätigkeiten gegen Menschen verherrlichen oder verharmlosen, zu einer rechts- widrigen Tat anleiten, den Krieg verherrlichen, gegen die Men- schenwürde verstoßen, Kinder oder Jugendliche in unnatürlich ge- schlechtsbetonter Körperhaltung darstellen, gewalt-, kinder- oder tierpornografisch sind oder zu den indizierten Werken in den Teilen B und D10 der Liste jugendgefährdender Medien der BPjM zählen (§ 4 Abs. 1 S. 1 JMStV). Unzulässig sind ferner pornografische Angebote in sonstiger Weise, in den Teilen A und C11 der Liste der BPjM aufgenommene Werke sowie offensichtlich schwer ent- wicklungsgefährdende12 Angebote (§ 4 Abs. 2 S. 1 JMStV). Unzulässige Angebote nach Paragraph 4 Absatz 2 Satz 1 JMStV dürfen nur Erwachsenen zugänglich gemacht werden (§ 4 Abs. 2 S. 2 JMStV), während absolut unzulässige Angebote generell verboten sind (GÜNTHER/SCHINDLER 2006: 341).

Hiervon abzugrenzen sind entwicklungsbeeinträchtigende Ange- bote, deren Freigabe für Kinder oder Jugendliche bestimmter Altersstufen beschränkt ist (§ 5 Abs. 2 JMStV). Eine gesetzliche Definition des Begriffs „entwicklungsbeeinträchtigend“ existiert laut FSM nicht (FRANK 2010b). Einer Definition des Beschwerde- ausschusses der FSM zufolge sind Angebote entwicklungsbeein- trächtigend, wenn sie die Persönlichkeitsentwicklung von Kindern und Jugendlichen negativ beeinflussen. Dies könne durch eine erhebliche Irritation der Minderjährigen bezüglich ihrer gewöhn- lichen Lebensumwelt geschehen (FRANK 2010b). Entwicklungsbe- einträchtigende Inhalte weisen also einen schwächeren Grad der Beeinflussung auf als entwicklungsgefährdende Angebote.

Des Weiteren wird auch durch das Strafgesetzbuch der Umgang mit für Kinder und Jugendliche ungeeigneten Inhalten geregelt: Die Verbreitung von Pornografie an Minderjährige (§ 184), die öffentliche Aufforderung und die Anleitung zu Straftaten (§§ 111, 130a), die Bildung krimineller oder terroristischer Vereini- gungen (§§ 129, 129a), die Verbreitung von Gewaltdarstellungen (§ 131), die Verbreitung von Propagandamitteln oder Kennzeichen verfassungswidriger Organisationen (§§ 86, 86a), Volksverhetzung (§ 130), die Beschimpfung von Bekenntnissen, Religionsgesell- schaften und Weltanschauungsvereinigungen (§ 166) sowie Belei- digung, üble Nachrede oder Verleumdung (§§ 185 ff.) sind straf- bar.

Die meisten der für Kinder und Jugendliche ungeeigneten In- halte lassen sich in Anlehnung an SLEEGERS und VOLPERS in die fünf Hauptkategorien Erotik/Pornografie, Gewalt/Hass, Extremis- mus (politisch und/oder religiös), Ekel/Abnormitäten sowie Selbst- gefährdung einordnen (2004: 63). Das größte Angebot im Internet weisen dabei laut SLEEGERS und VOLPERS sexuelle, erotische und pornografische Inhalte auf (2004: 65). Der Begriff Pornografie ist der KJM zufolge gesetzlich nicht definiert (2010b: 27). Daher be- schreibt die KJM in ihrem Kriterienkatalog für die Aufsicht im Rundfunk und in den Telemedien, wie Darstellungen als pornogra- fisch einzuordnen sind. Zu den inhaltlichen Indizien würden eine „die Verabsolutierung sexuellen Lustgewinns und die Reduzierung auf eine apersonale Sexualität sowie die Degradierung des Men- schen zum bloßen auswechselbaren Objekt“ (ebd.) zählen. Formal zeichne sich Pornografie durch „die überdeutliche und detaillierte Darstellung sexueller Vorgänge und deren aufdringliche und unverfremdete Vermittlung“ (ebd.) aus.

Im Zusammenhang mit für Kinder und Jugendliche nicht geeig- neten Inhalten muss zudem zwischen den verschiedenen Internet- diensten unterschieden werden. SALWICZEK und VOLPERS nennen fünf Dienste, die für den Jugendschutz von besonderer Bedeutung seien: World Wide Web (WWW), Chat, E-Mail und E-Mail-Listen, Foren und Newsgroups, File Transfer Protocol-Server (FTP-Server) sowie Peer-to-Peer-Verbindungen (2004: 24). Das Gefährdungspo- tential des Dienstes Chat heben die Autoren besonders hervor. Hierbei werde die Möglichkeit der Individualkommunikation über private Gespräche auch von Pädosexuellen zum Kontaktaufbau mit potentiellen Opfern genutzt (ebd.: 30). Die Erwachsenen würden vorwiegend von Kindern und Jugendlichen frequentierte Chat- Bereiche nutzen und sich als Gleichaltrige tarnen, um zunächst ein Vertrauensverhältnis zu den Minderjährigen aufzubauen und sich schließlich virtuell und/oder real an diesen zu vergehen (SLEEGERS/VOLPERS 2004: 84 f.). Dieses Phänomen firmiert unter dem Begriff „Cyber-Grooming“ (RACK 2009).

Doch nicht nur bestimmte Angebote des Internet können einen negativen Einfluss ausüben. Einigen Menschen kommt die Kon- trolle über die Dauer und Häufigkeit ihrer Internetnutzung abhan- den - hierbei handelt es sich laut PETERSEN ET AL. um das Stö- rungsbild des „pathologischen Internetgebrauchs“ (2009: 2), eine in der Symptomatik dem Pathologischen Spielen vergleichbare Impulskontrollstörung (ebd.: 13). Daten zur Häufigkeit dieses Krankheitsbildes in Deutschland liegen PETERSEN ET AL. zufolge nicht vor. Internationalen Studien würden eine Betroffenheit von 1,6 Prozent bis 8,2 Prozent der Jugendlichen belegen (ebd.: 2).

4.3 Jugendschutz für das globale Medium Internet

„Kann es sich ein Staat wirklich erlauben, seine Gesetzgebung auf ein globales Medium auszudehnen?“ (ESPENSCHIED/FREUDE 2001, Abschnitt „Filter lösen keine Probleme“)

In den Kapiteln 4.1 und 4.2 wurde vor allem auf die Regelungen in Deutschland eingegangen. Das Internet als weltumspannendes Datennetz macht allerdings vor Ländergrenzen nicht halt, wodurch nationale Gesetzgebung an ihre Grenzen stößt.

ROSENTHAL beschreibt die Probleme der Rechtsdurchsetzung au- ßerhalb Deutschlands: Befinden sich illegale Inhalte auf einem ausländischen Rechner, sei eine Entfernung dieser Inhalte ohne Ermittlung der verantwortlichen Person nur möglich, wenn der ausländische Provider kooperiert (ROSENTHAL 1999: 181). Entspre- chend schlägt VOLPERS „eine internationale Koregulierung in der Rechtsaufsicht und einen Konsens bei der Ächtung unerwünsch- ten Verhaltens“ (2004: 14) vor.

Eine solche Übereinkunft wird allerdings durch nationale und kulturelle Unterschiede hinsichtlich unerwünschter Inhalte er- schwert. Beispielsweise ist laut KÖCHER eine negative Wahrneh- mung von Nacktheit in den USA wesentlich stärker verbreitet als in Deutschland, wohingegen bedeutend mehr Deutsche als US-Ameri- kaner politisch-radikale Inhalte gerne ausblenden würden (2000: 452 f.). Auch bezüglich der Zuständigkeit für die Kontrolle von Internetinhalten herrschen KÖCHER zufolge unterschiedliche Präferenzen. Während viele Deutsche der Justiz und den Strafverfolgungsanstalten großes Vertrauen in diese Aufgabe entge- genbrächten, würden in den USA vor allen die Internet-Nutzer selbst als Garanten der Inhaltskontrolle angesehen werden (ebd.: 466 f.).

Einen supranationalen Ansatz verfolgt die europäische Kommis- sion mit dem Safer Internet Programme zur Verbesserung des Ju- gendschutzes im Internet. Das aktuelle Programm „Safer Internet 2010-13“ hat insbesondere die Bekämpfung von Cyber-Grooming und Cyber-Bullying13 zum Ziel (EUROPEAN COMMISSION 2009: 1).

5 Altersverifikationssysteme

5.1 Definition

Altersverifikationssysteme sind technische Schutzmaßnahmen14, die Angeboten vorgeschaltet werden, sodass Kinder und Jugendliche nicht darauf zugreifen können (GÜNTER/SCHINDLER 2006: 344). Sie dienen der Herstellung einer geschlossenen Benutzergruppe. Diese ist notwendig, wenn in Telemedien unzulässige Angebote nach Paragraph 4 Absatz 2 Satz 1 JMStV15 zugänglich gemacht werden sollen (§ 4 Abs. 2 S. 2 JMStV).

5.2 Gesetzliche Anforderungen in Deutschland

Die KJM formuliert Eckwerte für sichere geschlossene Benutzer- gruppen. Demzufolge muss ein Altersverifikationssystem die zwei Phasen Identifizierung und Authentifizierung enthalten. Hinrei- chend eingewiesenes Personal habe die zumindest einmal erforderliche Identifizierung durch eine Überprüfung der Volljährig- keit mittels amtlicher Ausweisdaten im persönlichen Kontakt durchzuführen. Alternativ könne auch auf eine bereits erfolgte Identifizierung zurückgegriffen werden. Hierbei müsse die Zustel- lung der Zugangsinformation allerdings in persönlichem Kontakt erfolgen, damit die zunächst behauptete Identität verifiziert werden kann (FREUND 2010a, Abschnitt „1. Identifizierung“).

Der zweite Schritt der Authentifizierung sei bei jeder einzelnen Nutzung des durch die geschlossene Benutzergruppe abgesicher- ten Angebots notwendig, damit nur eine altersgeprüfte Person den Zutritt erhält. Dafür müsse ein individuell zugeteiltes Passwort zum Einsatz kommen, das zusätzlich vor der Weitergabe an Dritte geschützt ist. Für diesen Schutz sei u. a. eine Hardware-Lösung mit Multiplikationsschutz möglich (FREUND 2010a, Abschnitt „2. Authentifizierung“). Außerdem muss die Weitergabe der Zugangsdaten laut GÜNTHER und SCHINDLER durch subjektive Risi- ken unterbunden werden. Dies sei in der Regel durch eine Verbin- dung der Zugangsdaten mit erheblichen finanziellen Risiken mög- lich (2006: 345).

In den Jugendschutzrichtlinien (JuSchRiL) vom 08./09. März 2005 konkretisieren die Landesmedienanstalten 2005 die gesetzli- chen Anforderungen des JMStV. Demnach sei bei einer Zugänglichmachung von Angeboten im Sinne des Paragraphen 4

Absatz 2 Satz 1 JMStV sicherzustellen, dass eine Volljährigkeitsprüfung über persönlichen Kontakt und eine Authentifizierung beim einzelnen Nutzungsvorgang erfolgt (JuSchRiL 5.1.1). Die JuSchRiL stützen somit die Eckwerte der KJM für sichere geschlossene Benutzergruppen in ihren Grundzü- gen.

Auch die ganz überwiegende Rechtsprechung folgt laut LIESCHING ähnlichen Anforderungen an Altersverifikationssysteme (2006: 395). So argumentiert das Bundesverwaltungsgericht (BVerwG) im Zusammenhang mit dem rundfunkrechtlichen Verbot pornografischer Sendungen:

„Eine zuverlässige Alterskontrolle ist zum Beispiel anzunehmen, wenn vor oder während des Vertragsschlusses ein persönlicher Kon- takt mit dem späteren Kunden stattfindet und in diesem Zusammen- hang eine zuverlässige Kontrolle seines Alters anhand amtlicher und mit Lichtbild versehener Dokumente und der Aufzeichnung darin enthaltener Daten, namentlich der Ausweisnummer, vorgenommen wird […] [,] die Decodiereinrichtungen tatsächlich nur an die volljährigen Kunden gelangen […] [,] und „zusätzlich zumindest eine weitere im System angelegte effektive Vorkehrung getroffen wird, die es Minderjährigen regelmäßig unmöglich macht, die in Rede stehen- den Filme wahrnehmen zu können.“ (BVerwG 6 C 13/01: 2968)

In Bezug auf Altersverifikationssysteme im Internet können die Decodiereinrichtungen als die zur Authentifizierung beim einzelnen Nutzungsvorgang notwendigen Daten und die zusätzlich im System angelegte effektive Vorkehrung als der Weitergabeschutz der Zu- gangsdaten nach den Eckwerten der KJM angesehen werden. Das Oberlandesgericht Düsseldorf urteilt, dass ein Altersverifikations- system, welches mit der anonymen Abfrage der Personalausweis- oder Kreditkartennummer arbeitet, nicht ausreichend sei (III-5 Ss 143/03 - 50/03 I: 409). Dies gilt laut Kammergericht Berlin auch, wenn über die Abfrage der Personalausweisnummer hinaus ergän- zende Sicherheitsbarrieren bestehen (1 Ss 436/03). Zu dieser Ein- schätzung kommt 2007 ebenfalls der Bundesgerichtshof (BGH) (I ZR 102/05: 401). Das Landgericht Duisburg argumentiert in einer Urteilsbegründung, es bestehe die Möglichkeit, dass sich ein Min- derjähriger eine Personalausweisnummer im sozialen Umfeld rela- tiv leicht beschafft (21 O 120/04).

Der JMStV-E bestätigt in Paragraph 11 Absatz 4 Satz 1 ebenfalls die Eckwerte der KJM: „Zugangssysteme […] müssen gewährleisten, dass eine Volljährigkeitsprüfung über eine persönliche Identifizierung erfolgt und beim einzelnen Nutzungsvorgang nur identifizierte und altersgeprüfte Personen Zugang erhalten“.

5.3 Umsetzung in der Praxis

Begutachtungen von Konzepten für geschlossene Benutzergrup- pen führt auf Anfrage die KJM oder die FSM durch (BLM 2010: 7; Interview O.V.). Die KJM hat bisher 19 Gesamtkonzepte für geschlossene Benutzergruppen positiv bewertet. Zudem konnte eine Positivbewertung zu sechs Modulen erfolgen (KJM 2010d). Da- bei handelt es sich laut KJM um Teillösungen, die allein nicht zur Herstellung einer geschlossenen Benutzergruppe ausreichen, aber im Rahmen eines geeigneten Gesamtkonzepts eingesetzt werden können (ebd.: 1). Außerdem hat die KJM vier übergreifende Jugendschutzkonzepte positiv bewertet (KJM 2010c). Diese bein- halten der KJM zufolge neben Altersverifikationssystemen (KJM 2010d: 1) weitere technische Maßnahmen, sodass verschiedene Schutzniveaus erreicht werden können (ebd.: 1). Die FSM hat bis- her die positive Bewertung für zwei Gesamtkonzepte und ein Modul für geschlossene Benutzergruppen veröffentlicht (FRANK 2010c).

Zwei Identifizierungsverfahren, die in der Praxis häufig einge- setzt werden16, sind das Postident-Verfahren (Deutsche Post AG) und der Identitäts-Check mit Q-Bit (Schufa Holding AG). Beim Postident-Verfahren kann die Identifikation des Nutzers durch Übernahme sämtlicher Ausweisdaten in persönlichem Kontakt ent- weder in den Filialen der Deutschen Post AG (Postident Basic) oder durch den Zusteller beim Nutzer zu Hause erfolgen (Postident Comfort) (DEUTSCHE POST AG 2010). Das von der KJM positiv bewertete (KJM 2010d: 2) Verfahren Identitäts-Check mit Q-Bit nutzt zur Altersüberprüfung die Datenbank der Schufa, in der dem Unternehmen zufolge die Geburtsdaten fast aller in Deutschland geschäftlich aktiven Personen abgelegt sind (SCHUFA HOLDING AG 2010: 2). Die persönliche Identifizierung erfolgt dem Anbieter zu- folge durch Rückgriff auf bereits erfolgte Identitätsprüfungen von Kreditinstituten, beispielsweise bei Kontoeröffnung mittels Personalausweis. In diesem Fall sei ein Vermerk mit dem sogenannten Q-Bit im Datenbestand der Schufa gesetzt (ebd.). So- mit ist bei dieser Methode keine erneute persönliche Kontrolle des Nutzers notwendig. Die Zustellung der Zugangsdaten muss laut Schufa allerdings eigenhändig per Einschreiben oder durch eine ähnlich qualifizierte Alternative erfolgen (ebd.).

Innerhalb eines Altersverifikationssystems könnte auch der neue elektronische Personalausweis17 eingesetzt werden. Die FSM, die Stiftung Digitale Chancen und Deutschland sicher im Netz e. V. gehen in einem gemeinsamen Positionspapier zum elektronischen Personalausweis davon aus, dass die Beantragung des Ausweises als zuverlässige Identifizierung und die Benutzung des vorgesehe- nen optionalen elektronischen Identitätsnachweises unter Verwen- dung eines Lesegerätes am PC bei Eingabe der geheimen PIN als hinreichend sichere Authentifizierung gesehen werden könne (STIFTUNG DIGITALE CHANCEN et al. 2008: 2). Der KJM wurde aller- dings in Bezug auf den elektronischen Personalausweis bisher kein Antrag auf Positivbewertung vorgelegt (E-Mail A.S.).

Geschlossene Benutzergruppen werden im Internet laut GÜN- THER und SCHINDLER vor allem bei einfach pornografischen Angebo- ten eingesetzt. Seit der Einführung des JMStV habe sich das Sicherheitsniveau von Altersüberprüfungen deutlich erhöht. Eine Verifizierung durch die Eingabe der Personalausweisnummer sei zwar jahrelang von der Mehrheit der Anbieter pornografischer In- halte praktiziert worden, spiele aber keine große Rolle mehr. Defi- zite sehen die Autoren allerdings bei der Authentifizierung: Zu- meist erfolge bloß eine Abfrage von Login und Passwort beim einzelnen Nutzungsvorgang, wodurch kein ausreichender Weitergabeschutz der Zugangsdaten bestünde (2006: 346). Auf <www.bugmenot.com> werden beispielsweise Login-Daten zu zahlreichen Websites gesammelt. Obwohl die Nutzungsordnung von BugMeNot die Veröffentlichung solcher Daten für Websites mit Altersprüfung verbietet (BUGMENOT 2010), sind funktionierende Passwörter für Altersnachweissysteme auffindbar18.

SPOERR und SELLMANN stellen fest, dass Anbieter aufgrund der deutschen jugendschutzrechtlichen Vorschriften ins Ausland ge- drängt werden (2004: 367). Von dort aus könnten Inhalte unregu- (BUNDESMINISTERIUM DES INNERN 2010) liert angeboten werden (ebd.: 374). Tatsächlich würden Nutzer in der Praxis gerne die persönliche Identifizierung umgehen und ein Verfahren ohne Medienbruch bevorzugen (ebd.: 373; ADULT WEBMASTER NEWS 2010).

6 Filtersysteme

6.1 Definition

„Filtersysteme sind technische Schutzmaßnahmen, die den Zu- griff auf Informationen oder Dienste des Internets nach vorgegebe- nen Kriterien regulieren“ (GÜNTHER/SCHINDLER 2006: 348). Sie kön- nen auf unterschiedlichen Ebenen vorhanden sein: Auf dem Rech- ner eines Nutzers, auf dem zentralen Internetrechner einer Institu- tion oder auf den Rechnern eines Internet-Service-Providers19 (ebd.). Die Begriffe Filtersysteme und Filterprogramme werden in dieser Arbeit synonym verwendet.

6.2 Gesetzliche Anforderungen in Deutschland

Filtersysteme müssen von sogenannten Jugendschutzprogram- men unterschieden werden. Dabei handelt es sich der Bayerischen Landeszentrale für neue Medien (BLM) zufolge um nutzerautonome Programme, die auf Filtersystemen basieren. Eltern könnten Jugendschutzprogramme auf einem PC installieren, damit ihre Kinder einen altersgerechten Zugang zu Internetangeboten erhal- ten (BLM 2010: 11).

Laut KJM sind diese Programme ein spezielles Jugendschutz- instrument bei entwicklungsbeeinträchtigenden20 Telemedien, durch das ein altersdifferenzierter Zugang zum Internet ermöglicht werden soll. Ziel sei es, deutschen Anbietern von entwicklungsbeeinträchtigenden Inhalten eine Privilegierung zu ermöglichen (FREUND 2010b). Programmieren die Anbieter ihre Angebote für ein als geeignet anerkanntes Jugendschutzprogramm oder schalten sie diesen ein solches vor (§ 11 Abs. 1 JMStV), müs- sen der KJM zufolge keine Maßnahmen durch die Rechtsaufsicht befürchtet werden (FREUND 2010b). Über die Anerkennung von Ju- gendschutzprogrammen entscheidet die KJM (§ 11 Abs. 2). Laut dem JMStV-E kann ab 2011 auch die FSM eine positive Beurtei- lung von Jugendschutzprogrammen durchführen, die als Anerken- nung gilt, sofern sie nicht von der KJM beanstandet wird (§ 11 Abs. 3 S. 4 JMStV-E).

Bisher sind drei Modellversuche durchgeführt worden. Eine Anerkennung sei noch nicht möglich gewesen, da keines der vorge- legten Programme die Anforderungen erfüllt habe (FREUND 2010b). Der Grund dafür liege unter anderem darin, dass der JMStV bezüglich Jugendschutzprogrammen ausschließlich die deutschen Inhalte-Anbieter adressiere. Effiziente und umfassende Schutzmaßnahmen könnten hingegen am ehesten durch die Anbieter von Filtersystemen geboten werden (ebd.). Des Weiteren weist O.V. auf die bisherige Henne-Ei-Problematik der Jugendschutzprogramme hin: Die unzureichende Selbstklassifizie- rung der Betreiber von Websites21 sei ein Grund dafür, dass die Programme bisher noch keine ausreichende Effektivität aufweisen konnten. Die Anbieter wiederum hätten ihre Angebote bisher kaum klassifiziert, weil noch kein Jugendschutzprogramm anerkannt worden ist (Interview O.V.).

Darüber hinaus fordere die KJM für ein Jugendschutzprogramm neben der Effizienz der Filterung auch die Akzeptanz durch Eltern und Pädagogen, beispielsweise hinsichtlich Kosten oder Konfigurationsaufwand. Außerdem sollten die Klassifizierungskri- terien, auf denen die Filterung basiert, gesellschaftlich anerkannt sein (GÜNTHER/SCHINDLER 2006: 347). Von der KJM wird eine Mo- dullösung für ein effektives Jugendschutzprogramm favorisiert: Demnach müsste neben Listen, in denen ungeeignete/geeignete Websites/Webseiten aufgeführt sind, eine Schnittstelle vorhanden sein, mit der Anbieter ihre Internet-Inhalte selbst klassifizieren können (FREUND 2010b). Ein solches Klassifizierungssystem hat die FSM inzwischen entwickelt (ERMERT/BRIEGLEB 15. Oktober 2010). Damit können O.V. zufolge Betreiber von Websites eine Einordnung und Kennzeichnung ihrer Inhalte nach Altersstufen (ab 0/6/12/16/18 Jahre) vornehmen. Ein Webmaster profitiere bei dieser Vorgehensweise nach dem JMStV-E von einer rechtlichen Privilegierung hinsichtlich möglicher Bußgelder (§ 24 Abs. 1 Nr. 4) - auch wenn noch kein Jugendschutzprogramm anerkannt worden ist (Interview O.V.).

Im JMStV-E werden konkrete Anforderungen an Jugendschutz- programme formuliert: Diese müssten dem jeweiligen Stand der Technik entsprechen und deutsche Angebote auf Grundlage einer Anbieterkennzeichnung nach Altersstufen differenzieren können. Zudem sei eine hohe Zuverlässigkeit bei der Erkennung aller ent- wicklungsbeeinträchtigenden Inhalte erforderlich und die Pro- gramme müssten auch die Möglichkeit des ausschließlichen Zu- gangs zu gekennzeichneten Inhalten bieten (§ 11 Abs. 1 JMStV-E).

6.3 Umsetzung in der Praxis

Filtersysteme dienen im Wesentlichen der inhaltlichen Filterung des Internetdienstes WWW. Da andere Dienste (z. B. Chat) einem raschen Wandel unterlägen, könnten diese nicht inhaltlich eingestuft werden (BIERSCHENK/VOLPERS 2004: 161).

Hinsichtlich der inhaltlichen Regulierung sind die Begriffe Blockieren und Filtern zu unterscheiden. Blockieren (oder Abblocken) bedeutet, Inhalte fernzuhalten, die unerwünscht sind. Beim Filtern hingegen werden ausschließlich erwünschte Inhalte bereitgestellt (KUHLEN 2000: 372).

Um Internetinhalte zu blockieren, kommen verschiedene Verfah- ren zum Einsatz. Einerseits kann das Filtersystem den Inhalt einer Webseite während des Ladevorgangs überprüfen. Entspricht der Inhalt nicht den Vorgaben, wird die Darstellung der Webseite teil- weise oder ganz unterbunden. In diesem Zusammenhang ist das sogenannte „Keyword-Blocking-Verfahren“ zu nennen, das auf ei- ner Datenbank mit Begriffen oder Phrasen basiert. Sind diese Be- griffe auf einer Internetseite vorhanden, wird der Ladevorgang durch das Filtersystem abgebrochen. Die Mindestanzahl an Keywords auf einer Webseite, welche zum Abblocken führt, variiert laut BIERSCHENK und VOLPERS je nach System. Ebenfalls würden sich die in die Analyse einbezogenen Bestandteile einer Webseite unterscheiden (2004: 144). Elaboriertere Filtersysteme erfassen zudem mithilfe von statistischen Analysen den Kontext von Wör- tern, um eine falsche Bewertung zu vermeiden (ebd.; GÜN- THER/SCHINDLER 2006: 347). Außerdem können HERUMIN zufolge auch Bilder analysiert werden, die sich auf einer Webseite befin- den. Vor allem Nacktdarstellungen von Menschen ließen sich mit dieser Methode leicht erkennen (2004: 46).

Die zweite Blockiermethode, das „Site-Blocking-Verfahren“ ba- siert auf einer Datenbank mit Uniform Resource Locators (URLs) oder Internet Protocol-Adressen (IP-Adressen) von Webseiten oder Websites, die nicht geladen werden sollen (sogenannte Negativlis- ten oder Blacklists) (BIERSCHENK/VOLPERS 2004: 145). Versucht der Nutzer, eine URL oder eine IP-Adresse aus der Liste aufzurufen, unterbindet das Filtersystem den Ladevorgang. Umgekehrt ist es auch möglich, dass die URL-Liste nur Adressen von Webseiten oder Websites erhält, die erwünscht sind (sogenannte Positivlisten oder Whitelists) und ausschließlich diese Adressen geladen werden können (ebd.: 146). Hierbei handelt es sich um ein Filterverfahren, das im Folgenden „Site-Filtering“ genannt wird.

Zudem können einige Filtersysteme Label auslesen, die Informa- tionen über das Ergebnis eines Ratings enthalten. Durch ein Ra- ting ist laut KUHLEN die Einschätzung und Bewertung von Informa- tionsobjekten bezüglich der Qualität ihrer Inhalte möglich (2000: 373) - und zwar nach einheitlichen Maßstäben (BIER- SCHENK/VOLPERS 2004: 145). Dabei werden inhaltliche Merkmale von Internetangeboten erfasst. Das aus dem Rating resultierende Label befindet sich im Quelltext einer Webseite/Website bei den Metainformationen. Ein Rating kann durch den Autor eines Inhalts selbst durchgeführt werden (First-Person-Rating) oder durch Dritte (Third-Person-Rating) (ebd.: 146 f.). Der Nutzer entscheidet schließ- lich selbst, welche Angebote blockiert werden sollen (GÜNTHER/SCHINDLER 2006: 347). Enthält das Label einer Webseite/Website die Information, dass entsprechende Inhalte vorliegen, wird der Ladevorgang abgebrochen.

Zur Erhöhung der Wirksamkeit erfolgt laut GÜNTHER und SCHINDLER oftmals eine Kombination dieser drei Grundkonzepte (ebd.: 348). Jedes Verfahren kann nämlich Schwachstellen aufwei- sen, die zu einem Underblocking (ungeeignete Inhalte werden nicht blockiert) oder einem Overblocking (geeignete Inhalte werden blockiert) führen. Das Keyword-Blocking wird dadurch erschwert, dass es verschiedene Sprachen sowie Wörter mit mehreren Bedeu- tungen (Homonyme) gibt. „Dick“ ist im Deutschen ein Synonym für voluminös und bezeichnet im Englischen den Penis (BIER- SCHENK/VOLPERS 2004: 144). Eventuell befinden sich auch gar keine Wörter auf einer Webseite, sondern nur Bilder oder Videos. Die auf Listen mit Internetadressen basierenden Verfahren weisen ebenfalls Nachteile auf. Eine vollständige Erfassung des stets wachsenden WWW erscheint schwierig (ebd.).

[...]


1 „Als Internet wird die Summe aller über die weltweite Computervernetzung verfügbaren Dienste bzw. Nutzungsmöglichkeiten bezeichnet.“ (WÖCKEL 2002: 19)

2 Diese Datenbank ist frei verfügbar unter <www.ism-info.de>.

3 Siehe Kapitel 8.1 und Kapitel 10.1.

4 Siehe Kapitel A 1.8 (Altersverifikationssysteme) und A 2.9 (Filtersysteme) im Anhang.

5 Siehe Kapitel A 1.3 bis A 1.7 (Altersverifikationssysteme) sowie Kapitel A 2.4 bis A 2.8 (Filtersysteme) im Anhang.

6 Der Untersuchungszeitraum umfasste die Jahre 2006 bis 2008.

7 Europaweit kooperieren Internet-Hotlines unter dem Namen INHOPE (CROLL/KUBICEK 2008: 252).

8 Telemedien sind elektronische Informations- und Kommunikationsdienste, „soweit sie nicht Telekommunikationsdienste nach § 3 Nr. 24 des Telekommunikationsgesetzes, die ganz in der Übertragung von Signalen über Telekommunikationsnetze bestehen, telekommunikationsgestützte Dienste nach § 3 Nr. 25 des Telekommunikationsgesetzes oder Rundfunk nach § 2 des Rundfunkstaatsvertrages sind“ (§ 1 Abs. 1 Telemediengesetz). Es handelt sich dabei vornehmlich um Internetangebote.

9 Die Suche wurde am 18. 11. 2010 um 19:28 Uhr bei <www.google.de> unter moderater Einstellung des SafeSearch-Filters von Google und mit der Anzeige von zehn Ergebnissen pro Trefferseite durchgeführt.

10 Dies sind jugendgefährdende Träger- bzw. Telemedien, welche nach Ein- schätzung der BPjM einen möglicherweise strafrechtlich relevanten Inhalt ha- ben (MONSSEN-ENGBERDING 2010b).

11 Dies sind jugendgefährdende Träger- bzw. Telemedien, welche nach Ein- schätzung der BPjM keinen strafrechtlich relevanten Inhalt haben (MONSSEN- ENGBERDING 2010b).

12 Schwer entwicklungsgefährdend sind laut KJM Inhalte, bei denen die Gefahr einer ernsthaften Entwicklungsschädigung Minderjähriger besteht (KJM 2005: 5).

13 Der Begriff Cyber-Bullying bezeichnet das Bedrohen, Schikanieren und Er- niedrigen von Kindern und Jugendlichen durch Altersgenossen (WIRED KIDS 2010).

14 Technische Schutzmaßnahmen sind gemäß der Kategorisierung zu Beginn von Kapitel 4 dem strukturellen Jugendschutz zuzuordnen.

15 Siehe Kapitel 4.2.

16 Diese Einschätzung ergibt sich aus der Sichtung von Altersverifikationssyste- men in Deutschland im Zuge der Bestandsaufnahme (siehe auch Kapitel 7).

17 Dieser kann in Deutschland seit dem 01. November 2010 beantragt werden.

18 So konnten am 24. 11. 2010 um 19:20 Uhr zwei funktionsfähige Passwörter für die Website <www.adultcheck.com> gefunden werden.

19 Hierbei handelt es sich um Dienstleister, die dem Endkunden den Zugang zum Internet ermöglichen (ACKERMANN et al. 2004: 237).

20 Zum Begriff der entwicklungsbeeinträchtigenden Inhalte siehe Kapitel 4.2. Neben Jugendschutzprogrammen können Anbieter von entwicklungsbeein- trächtigenden Inhalten auch technische Mittel oder Zeitgrenzen einsetzen (§ 5 Abs. 3 JMStV).

21 Eine Website ist der komplette Online-Auftritt eines Anbieters im WWW und umschließt sämtliche hinter einer Adresse stehenden Webseiten (ACKERMANN et al. 2004: 238). Als Webseite bezeichnet man hingegen ein einzelnes HTML- Dokument (SALWICZEK/VOLPERS 2004: 28).

Ende der Leseprobe aus 150 Seiten

Details

Titel
Altersverifikation und Filtersystemen für den Jugendschutz im Internet. Eine Bestandsaufnahme
Hochschule
Universität Leipzig  (Institut für Kommunikations- und Medienwissenschaft)
Note
1,0
Autor
Jahr
2010
Seiten
150
Katalognummer
V187037
ISBN (eBook)
9783668122765
ISBN (Buch)
9783668122772
Dateigröße
1963 KB
Sprache
Deutsch
Schlagworte
Altersverifikation, Internetflter, Filtersystem, Altersverifikationssystem, Jugendschutz, Kinder- und Jugendschutz, Onlinefilter
Arbeit zitieren
Alexander Pöllmann (Autor), 2010, Altersverifikation und Filtersystemen für den Jugendschutz im Internet. Eine Bestandsaufnahme, München, GRIN Verlag, https://www.grin.com/document/187037

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Altersverifikation und Filtersystemen für den Jugendschutz im Internet. Eine Bestandsaufnahme


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden