Palladium/NGSCB, DRM und TCPA/TCG - Userkontrollmechanismen unter dem Diktat der Großkonzerne


Hausarbeit, 2003
46 Seiten, Note: 1.0

Leseprobe

"Copyright and freedom of speech cannot coexist. One of them has to go.”

(Ian Clarke, Gründer der Tauschbörse Freenet)

"Der fundamentale Akt von Freundschaft unter denkenden Wesen besteht darin, einander etwas beizubringen und Wissen gemeinsam zu nutzen. Dies ist nicht nur ein nützlicher Akt, sondern es hilft die Bande des guten Willens zu verstärken, die die Grundlage der Gesellschaft bilden und diese von der Wildnis unterscheidet. Dieser gute Wille, die Bereitschaft unserem Nächsten zu helfen, ist genau das, was die Gesellschaft zusammenhält und was sie lebenswert macht. Jede Politik oder jedes Rechtssystem, das diese Art der Kooperation verurteilt oder verbietet, verseucht die wichtigste Ressource der Gesellschaft. Es ist keine materielle Ressource, aber es ist dennoch eine äußerst wichtige Ressource."

(Richard Stallman)

1. - Themenbeschreibung und –begrenzung:

Eine Betrachtung von User-Kontrollmechanismen im IT-Bereich führt unweigerlich dazu, sich sowohl mit der technischen Seite wie auch mit den Intentionen zu beschäftigen, die hinter der Entwicklung solcher Mechanismen stehen. Der Schwerpunkt der vorliegenden Arbeit soll jedoch nicht auf den technischen Aspekten liegen (obwohl sich eine kurze technische Erläuterung nicht vermeiden läßt), sondern auf der geschichtlichen Entwicklung speziell der im Titel genannten Mechanismen, ihren Hintergründen (offizieller und wahrscheinlicher Natur), ihren Einflüssen, Verflechtungen und Beziehungen zu gesetzgeberischen Maßnahmen und Vorgaben, wirtschaftlichen Interessen und eventuellen Mißbrauchsmöglichkeiten. Das hier vorliegende Thema ist eng verknüpft mit der Idee des DRM (Digital Right Management), ein Konzept, das insbesondere auf das Betreiben US-amerikanischer Rechteinhaber und –verwerter medialer Inhalte (Film, Musik, aber auch Wissens- und Informationsinhalte) erweiterte rechtliche Grundlagen erhielt, die sich auch auf internationaler und somit auf europäischer und deutscher Ebene niederschlagen. Insbesondere die möglichen und bestehenden wirtschaftlichen Interessen der an TCPA/TCG beteiligten Firmen sowie ihre Zusammenhänge und Interessen an einer kontrollierten Verbreitung und Verwertung von Medieninhalten und Wissen sollen hier näher betrachtet und belegt werden.

2. - Die Rolle des Internets – Zahlen und Fakten:

Über das Internet an sich, seine Geschichte, seine technischen Besonderheiten und Voraussetzungen ist schon viel geschrieben worden, und insbesondere im Internet selbst finden sich unzählige Quellen dazu. Für das hier vorliegende Thema ist prinzipiell weniger die technische Seite und auch nicht die Unterscheidung in einzelne Dienste und Netze oder die Relevanz von Protokollen wichtig, sondern einige Daten und Zahlen über die Nutzung und den Umgang der User mit dem Internet. Dies ist notwendig, um die Bezüge zwischen den später erläuterten Hintergründen zu DRM-Systemen und dem Wirtschaftsinteresse von Content- und Rechteverwertern aufzuzeigen.

Nach Angaben[1] des irischen Marktforschungsinstituts NUA betrug die Zahl der Internet-Nutzer im August 2002 ca. 605,6 Millionen, was in etwa 10% der Weltbevölkerung entspräche. Davon entfielen auf Nordamerika 182,67 und auf Europa 190,91 Millionen Nutzer. Für Deutschland wiederum wurde die Nutzer-Zahl mit 32,1 Millionen angegeben.

Laut der Forschungsgruppe "Wahlen Online" betrug der Gesamtanteil aller Deutschen über 18 Jahre mit Online-Aktivitäten im 3. Quartal 2002 47%, wobei sich zeigt, daß zwei Drittel der unter 40-Jährigen und 62 Prozent der 40- bis 49-Jährigen über einen Zugang zum Internet verfügten. Bei den Älteren war diese Zahl deutlich geringer: Nur 46 Prozent der 50- bis 59-Jährigen waren online - bei den über 60-Jährigen besaß nur jeder Siebte einen Internetzugang[2]. Ähnliche Zahlen ermittelte FORSA[3] für August 2002 (31,8 Millionen Personen oder 49,6 Prozent der Deutschen über 14 Jahre) – weiterhin wurde ermittelt, daß das Internet vorwiegend zu Hause genutzt wird, nämlich von ca. 80 Prozent. 40 Prozent der User nutzten dabei das Internet privat, 53 Prozent gaben berufliche und private Gründe an. Weiterhin hätten ca. 15 Millionen User bereits Erfahrungen mit E-Commerce gesammelt.

Eine emnid[4] -Studie ermittelte für Mai 2002 26,7 Millionen deutsche Internet-Nutzer über 14 Jahren. Weiterhin ergab die Studie, daß besonders sozial Schwächere, Personen mit niedrigerem Bildungsstand oder ältere Menschen das Internet vergleichsmäßig selten benutzen bzw. keinen Zugang besitzen.

Nach den Ergebnissen einer weiteren Studie[5] wird geschätzt, daß täglich rund 600.000 Filme weltweit aus dem Internet heruntergeladen werden. Das Hamburger Forschungsinstitut MediaTransfer führte schon 1998 eine Umfrage durch die ergab, daß von 1000 Websurfern etwa 52% eine Filesharing-Plattform (ähnlich Napster, iMesh usw.) nutzen würden.

Zur Download-Rate von .mp3-Files waren leider keine vergleichbaren Angaben zu finden. Geht man aber von der übertragenen Datenmenge aus, läßt sich eine ungefähre Menge täglicher Downloads von Musikstücken errechnen. Bei einer geschätzten Größe eines heruntergeladenen Filmes zwischen 700 Megabyte (Mb) und 1000 Mb (abhängig von der Laufzeit des Films und der benutzten Komprimierungsart) entspräche diese Datenmenge bei einer durchschnittlichen Länge eines Musikstücks von 3,5 Minuten = ungefähre Dateigröße als .mp3-File 3,5 Mb ca. 200 – 286 .mp3-Files. 600.000 Filme entsprächen somit 420.000.000 Mb – 600.000.000 Mb, was einer Anzahl von 120.000.000 – 171.600.000 heruntergeladenen .mp3-Files täglich entspricht.

(Einer Studie der Yankee Group nach betrug die Downloadrate von .mp2-Files nur über Peer-2-Peer-Netzwerke im letzten Jahr mehr als fünf Billionen[6], was einer Anzahl von 136.986.301 Stück pro Tag entspräche. Leider ließ sich nicht ermitteln, auf welcher Grundlage die Zahlen der Studie entstanden.)

Bei prozentualer Grundlage der Gesamt-Nutzerbeteiligung von 605,6 Millionen Usern entspräche die Downloadverteilung für Nordamerika, Europa und Deutschland[7]:

Nordamerika:

30,16% an Gesamt-Nutzerbeteiligung = täglicher Download von 180.960 Filmen / 36.192.000 – 51.754.560 .mp3-Files | Gesamtdatenvolumen von 247.406,25 – 353.437,5 Gigabyte

Europa:

31,39% an Gesamt-Nutzerbeteiligung = täglicher Download von 188.340 Filmen / 37.668.000 – 53.865.240.mp3-Files | Gesamtdatenvolumen von 257.496,09 – 367.851,56 Gigabyte

Deutschland:

5,3% an Gesamt-Nutzerbeteiligung = täglicher Download von 31.800 Filmen / 6.360.000 – 9.094.800.mp3-Files | Gesamtdatenvolumen von 43.476,56 – 62.109,38 Gigabyte

In der ARD/ZDF-Online-Studie 2001 wurde ermittelt[8], daß die Möglichkeiten zum Download von Dateien immerhin Platz 4 (von insgesamt 32 Einzelpunkten) bei den Nutzungsmöglichkeiten des Internets einnimmt (34% der gesamten Befragtengruppe - bei den 14 - 19jährigen sogar 41%).

Zusammenfassend kann man bei Grundlage dieser Zahlen sagen, daß der Großteil der Downloads (61,55%) von Filmen und .mp3-Musikstücken in Europa und Nordamerika durchgeführt wird, in Deutschland überwiegend von zu Hause aus und meistenteils von Usern unter 40 Jahren, wobei die Gruppe der 14 – 19jährigen am stärksten hervortritt. Downloads erfolgen in den meisten Fällen über Peer-2-Peer-Netzwerke, also über Tauschbörsen für Dateien. Nach einer Studie von Websense[9] sei bis zum Januar 2003 die Anzahl von P2P-Websites in den letzten 12 Monaten um 300 Prozent auf insgesamt 89.000 gestiegen – zur Benutzung kommen mehr als 130 verschiedene P2P-Applikationen in Frage (z.B. KaZaa, Grokster usw.). Laut dem Spielehersteller Trymedia wurden im vergangenen Jahr mehr als fünf Millionen Videospiele heruntergeladen.

Das Internet dient also in wachsendem Maße als größte "Versorgungsquelle" für copyright- oder urheberrechtlich geschützte Inhalte, die zumeist ohne Erlaubnis der Rechteinhaber zum freien Download im Internet angeboten werden. Der Grund dafür liegt zum einen in der Einfachheit des Zugangs, der grenzüberschreitenden[10] Zugriffsmöglichkeit auf Inhalte und andererseits in den Möglichkeiten der Simplifizierung von Kopiermöglichkeiten digitaler Inhalte mit Hilfe entsprechender Software, die ebenfalls über das Internet frei verfügbar ist und Kopien in de facto unbegrenzter Menge erlaubt. Hinzu kommt in der neueren Vergangenheit der rasante Anstieg von Highspeed- und Breitband-Zugängen zu Pauschalpreisen (Flatrates auf DSL-, aber auch auf Satelliten-, Kabelfernseh- und Stromnetzbasis) Es wäre aber einseitig, das Internet lediglich als Quelle für urheberrechtlich- und copyrightgeschützte Inhalte zu sehen. Primär ist das Internet immer noch eine umfassende Informations- und teilweise auch Bildungsmöglichkeit und bietet daneben auch die Gelegenheit, eigene Inhalte, Wissen und vor allem Meinungen zu verbreiten und zu äußern. Auch zu diesen Zwecken wurde das Internet seit seiner Entwicklung eingesetzt (was in besonderem Maße für den Teil des Internets gilt, der seit seiner Entwicklung 1989/90 als WWW = World Wide Web bekannt ist und das Konzept der Dezentralisierung am besten umsetzt), und die Möglichkeiten der Verlinkung seit der Entwicklung der Seitenbeschreibungssprache HTML eröffnen durch ihre ständigen Änderungen und Aktualisierungen den Zugang zu einer schier unbegrenzten Menge an Wissen und Information. Schon 1999 betrug die geschätzte Anzahl von Internetseiten 800 Millionen[11]. Inzwischen dürfte diese Zahl bei mehreren Milliarden liegen.

3. - Begriffsbestimmungen:

3.1 - Open-Source-Software:

3.1.1 - Begriff:

Im weiteren Verlauf wird an einigen Stellen das Konzept der Open-Source-Software erwähnt. Da sich hinter diesem Begriff eine ganz bestimmte Denkart verbirgt, soll hier eine kurze Beschreibung des Begriffs erfolgen. Zudem hängt das Konzept der Open-Source-Software auch mit dem Bestreben nach einer Kontrolle bei der Computernutzung bestimmter Firmen zusammen, die Mitglied in der TCPA sind.

"Open Source bezieht sich auf einen geschützten Zertifizierungsbegriff, der den freien Zugang zum Quellcode eines Softwarepakets und ebenso die freie Verwendung und Verbreitung desselben regelt. Die Open Source Initiative ist eine Folge- und Weiterentwicklung der Idee, Software frei verfügbar zu machen und die Quellen offenzulegen. Pionier dieser Idee ist Richard Stallman mit der Free Software Foundation (FSF) mit bekannten Softwarepaketen wie Emacs und den GNU Tools. Von der FSF stammt auch die GNU Public License (GPL), die auch heute noch von vielen Open Source Produkten verwendet wird. Sie bestimmt im Wesentlichen, dass alle Weiterentwicklungen von Software, die der GPL unterliegt, auch wieder frei weitergegeben werden müssen.[12]"

Die Grundbedingungen (Nutzung und Weiterverteilung von Open-Source-Software durch jedermann, frei zugänglicher Quellcode und die Aufforderung zur Weiterentwicklung, Anpassung und anschließenden Weitergabe des Codes, nach den Kriterien des GNU-Projekts auch die freie Kopierbarkeit) sollen ermöglichen, daß die Programme dadurch erweitert und verbessert werden; eine Beteiligung daran ist jedem möglich, so lange die Grundlage für die Zusammenarbeit (die Einhaltung von offenen Standards für Protokolle, Dateien und Schnittstellen) beachtet wird. Durch die umfangreiche und unentgeltliche Beteiligung vieler Personen weltweit kann für ein Projekt/Programm eine für ein Einzelunternehmen nicht finanzierbare Menge an Kenntnissen, Fähigkeiten und Kreativität in die Gestaltung und Umsetzung eines Programms fließen. Da die Daten und Ergebnisse weltweit über das Internet zugänglich gemacht werden ist jeder der Beteiligten oder sind auch Unbeteiligte in der Lage, die Arbeit der Entwickler zu testen und zu überwachen (was auch eine Einflußnahme von Einzelpersonen oder Unternehmen verhindert). Dies entspricht einer Art wissenschaftlicher Arbeitsweise, und da das Resultat der Allgemeinheit dienen soll, wird die Open-Source-Software als eine Art Gemeingut betrachtet, als eine "Infrastruktur der Informationsgesellschaft[13] ". Darüber hinaus gibt es auch andere Auffassungen, was Open-Source denn nun wirklich ist. Dabei reichen die Ansichten dazu über die Meinung, es handele sich um eine Art Entwicklungsprozess zur Fehlerbehebung in Software über die Ansicht, hier einen völlig neuen Denkansatz ökonomischer Prozesse und Muster vorzufinden bis hin zu der Theorie, daß Open-Source eine Art digitaler Sozialismus sein könne. Der Begriff der Open-Source-Software ist also auch stark individualisiert, politisiert, teilweise emotional besetzt und deskriptiv nicht eindeutig.

Die bekanntesten Softwares, die Open-Source sind, sind Linux, das immer mehr an Beliebtheit gewinnt, die mittlerweile am weitesten verbreitete Server-Software Apache sowie seit 2000 die für Internet-Anwendungen häufig benutzte MySQL[14] (Datenbank). Zudem gibt es noch zehntausende weiterer Projekte/Programme, allein das Source-Forge-Projekt hostet davon 50.000.

3.1.2 - Lizenzierung:

Der Grundsatz, daß Open-Source-Software allen zugänglich und durch alle veränderbar sein soll bedeutet nicht, daß sich durch die Bereitstellung keinerlei rechtliche Implikationen ergeben würden oder daß Open-Source jegliche kommerzielle Umsetzung unterbindet (weshalb Open-Source-Software auch als solche bezeichnet wird. Free Software[15] würde hingegen lediglich bedeuten, daß das Programm völlig umsonst ist, was auf Open-Source nicht immer zutrifft). Um die Grundsätze der Open-Source-Bewegung zu sichern, gibt es auch hier Lizenzierungen.

Die am weitesten verbreitete Lizenz für Open-Source ist die GPL (General Public License) des GNU-Projekts (gegründet 1983 durch R. Stallman zur Ablösung des proprietären UNIX durch offene Software[16]). Neben dieser Lizenz gibt es noch die GNU Lesser General Public License (LGPL), die BSD License, Artistic License, Apache Software License, MIT License, Qt Public License (QPL), zlib/libpng License, Python License, Common Public License sowie die noch relativ neue Mozilla Public License 1.0/1.1 und weitere.

1989 wurde durch das GNU-Projekt eine einheitliche, grundlegende Liste der Punkte erarbeitet, die für Software unter dieser Lizenz gelten:

- Das Programm darf für jeden Zweck ausgeführt werden
- Der Quellcode darf eingesehen und verändert/angepaßt werden
- Das Programm darf kopiert werden
- Das veränderte Programm darf kopiert werden
- Jedes aus einem GPL-lizenzierte Programm/Bibliothek usw. muss ebenfalls vollständig unter der GPL lizenziert werden
- Bei der Weitergabe eines kompilierten Programms muss der Quellcode mitgeliefert oder öffentlich zugänglich gemacht werden

Bei der BSD License besteht hingegen keine Pflicht zur Weitergabe des Quellcodes zusammen mit einem Programm (auch in binärer Form). Überhaupt unterscheiden sich die o.g. Lizenzen hinsichtlich ihre "Copyleft-Effekts". Dies bedeutet, daß sie in der Pflicht variieren, auch Erweiterungen oder Verbindungen von Open-Source-Programmen (auch mit kommerziellen Programmen oder Programmbibliotheken) ebenfalls unter einer Open-Source-Lizenz zur Verfügung zu stellen. Bei der BSD-Lizenz ist dies am problemlosesten, der BSD-Code darf auch in proprietären Codes verwendet werden, die GPL License hingegen erlaubt als absoluter Gegenpol keinerlei solcher Verbindungen; die anderen genannten Lizenzen befinden sich in der Mitte, machen bestimmte Einschränkungen oder sind so stark an sich selbst gebunden (z.B. Apache), daß Verbindungen kaum möglich sind oder keinen Sinn machen.

In diesem Zusammenhang soll darauf hingewiesen werden, daß Lizenz- oder Nutzungsverträge (wie sie auch Microsoft benutzt), die der Nutzung einer kommerziellen Software zumeist vorgeschaltet sind, nicht den Kauf einer Software nach sich ziehen, sondern lediglich deren Berechtigung zur Nutzung. Dies findet sich in den im Softwarebereich oft gebrauchten EULAs ("End User License Agreement"), die häufig die Nutzung und Kopierrechte einschränken. Ob diese auch "Click-Through-Lizenzen" genannten Bedingungsdiktate rechtskräftig sind ist fraglich, da es sich dabei nicht um individuelle Verträge, sondern um serienmäßig identische Texte handelt. Damit gelten die relativ strengen Regeln für Allgemeine Geschäftsbedingungen (AGB-Gesetz).

3.2 - TCPA/TCG:

3.2.1 - Begriff:

TCPA ist, wie so vieles im IT-Bereich, eine Abkürzung und bezeichnet die Trusted Computing Platform Alliance ("Vertrauenswürdige Computerplattform Allianz"), ein Zusammenschluß von gut zweihundert Firmen aus dem IT-Sektor. Gründer dieser Allianz im Jahre 1999 waren in der Hauptsache die Firmen Microsoft, Hewlett Packard (HP), Intel und IBM. Weitere wichtige Mitglieder dieser Allianz sind AMD, Motorola und VIA [17]. 2003 gründeten die Firmen AMD, Intel, IBM, HP und Microsoft eine neue Allianz (TCG, Trusted Computing Group), die im Prinzip die gleichen Ziele verfolgt wie die TCPA und die TCPA ablösen soll. Die TCG verfügt anders als die TCPA über einen Vorstand, was ihr einen festeren organisatorischen und institutionelleren Rahmen geben soll. Es handelt sich also nicht einfach um eine Umbenennung, sondern um eine Erweiterung der Möglichkeiten von Einflußnahmen und Interessenvertretungen durch eine stärkere Organisation. Die TCG hat im wesentlichen die bestehenden Spezifikationen für "trusted computing" von der TCPA übernommen und will diese nach eigenem Bekunden weiter ausbauen[18]. Die vorherigen TCPA-Mitgliedsfirmen sollen von der TCG quasi "übernommen" werden, wobei Atmel, Infineon, National Semiconductor, Nokia, Philips, Phoenix Technologies, Sony, ST Microelectronics, VeriSign und Wave Systems sich bereits der neuen Gruppe angeschlossen haben. Im weiteren Verlauf wird deshalb nur noch die Bezeichnung TCG gebraucht, auch wenn sich Aspekte vor deren Gründung auf die TCPA beziehen. Da die TCG jedoch in eindeutiger Form die Nachfolgeorganisation der TCPA darstellt, erscheint es nicht besonders sinnvoll, weiterhin dauernd zwischen TCG und TCPA zu differenzieren.

3.2.2 - Geschichte:

Die Idee des Trusted Computings ist nicht neu – vielmehr hat die Entwicklung derlei Konzepte eine Tradition, die bis ins Jahr 1972 zurückreicht, in dem James Anderson einen Aufsatz über Computerzugriffskontrollfunktionen für die USAF verfasste. Weitergeführt wurde die Idee von Bill Arbaugh, Dave Farber und Jonathan Smith in ihrem Aufsatz "A Secure and Reliable Bootstrap Architecture" im Rahmen des IEEE Symposium on Security and Privacy (1997, Seiten 65-71). Aufbauend auf dieser Idee wurde eine Technologie entwickelt, für die im Jahre 2001 ein US-Patent[19] angemeldet wurde, wobei Microsoft für die das Betriebssystem betreffenden Aspekte Patentschutz beantragte[20].

Einen ersten Vorstoß hardwarebasierter Kontrollmechanismen, die nicht an einzelne User gebunden war (z.B. Benutzer verdongelter Software) und in größerem Rahmen vor sich ging, war die Einführung der Kennummer in Intels Pentium III-Prozessoren, die jedoch durch Intel auf Druck der Öffentlichkeit als Default abgeschaltet war und erst explizit durch den User erlaubt werden mußte (die CPU-Kennummer hätte über das Internet abgefragt werden können, so daß sich eine eindeutige Zuordnung einer individuellen Kennummer zum eventuell namentlich registrierten Käufer der CPU hätte herstellen lassen). Auf Software- bzw. Betriebssystemseite kam ein weitreichender Kontrollmechanismus erstmals durch die Einführung von Windows XP auf, der ebenfalls weit über den dahin gebräuchlichen Rahmen hinausging (anders als bei den vorherigen Windowsversionen, die allein über die Eingabe einer Art Seriennummer bei der Installation ihre volle und zeitlich unbeschränkte Funktionalität erhielten, ist bei Windows XP neben der Eingabe der Serial auch noch eine telefonische oder über das Internet vorgenommene Freischaltung nötig, um das Betriebssystem zeitlich unbegrenzt nutzen zu können; auch beim Tausch mehrerer Hardwarekomponenten ist eine neuerliche Freischaltung durch Microsoft notwendig).

3.2.3 - Ziele:

Offizielles Ziel der Firmenallianz TCPA bzw. TCG ist es, Standards und Technologie für eine neue, sichere Rechnerumgebung für PCs und andere vernetzte Geräte (auch Handys, Server, Smartphones, PDA's und Peripheriegeräte) sowohl auf Hard- als auch auf Softwareebene zu schaffen, um Crackerzugriffe, Virenschäden, belästigende Spam-Mails usw. zu verhindern und eine weitgehende Konvergenz von Software zu schaffen, um Systeme stabil zu halten und gegen ungewollte Manipulationen und Inkompatibilitäten zu schützen. Ein weiteres Ziel soll sein, Richtlinien für die plattformspezifische Implementierung von Techniken auszuarbeiten. Dies soll durch offene Standards geschehen, deren Entwicklung den einzelnen Mitgliedern der Allianz obliegt und die untereinander zum Technologietransfer verpflichtet sind[21], um allen Mitgliedern die Anpassung ihrer Produkte und Lösungen an diese Standards zu gewährleisten.

3.2.4 - Technischer Hintergrund:

Abbildung in dieser Leseprobe nicht enthalten

Bootvorgang über den TPM-Chip (Quelle: c't 22/2002, S. 204

Das Kernstück der von der TCG geplanten sicheren Hardware-Plattform besteht aus dem Trusted Platform Module (TPM-Chip), in dem sich ein eigener Prozessor (8-Bit-RISC-Prozessor mit 33 MHz Takt, Berechnung eines 2048 Bit langen RSA-Schlüssels in 0,5 Sekunden[22] ) und gesicherter Speicher befindet. In diesem TPM-Chip sollen Prüfsummen von BIOS, Bootsektor, Bootloader und anderen Hardwarekomponenten als hardware- und anwenderspezifisch definierte Schlüssel (bis zu 10) gespeichert werden, um beim Bootvorgang diese Schlüssel auf ihre Authentizität zu prüfen (mittels eines eindeutig aus beim Bootvorgang abgelegten 160 Bit langen Prüfsummen und eines weiteren speziellen Schlüssel generierten Wertes) und dann ein sicheres Betriebssystem zu booten – es handelt sich also um eine Art Kryptographie- bzw. Verschlüsselungschip, mit dessen Hilfe eventuelle Manipulationen schon vor dem Start des eigentlichen Betriebssystems erkannt werden sollen (siehe Abb. 1), was durch die vollständige Kontrolle des Chips über das System möglich ist (laut TCG-Spezifikation sollen diese Schlüssel anonymisiert sein).

[...]


[1] Das Marktforschungsinstitut NUA gibt zu dieser Angabe selbst an, daß die Zahl "im besten Fall ungenau" sei. Vergl. http://www.nua.com/surveys/how_many_online/index.html

[2] Telefonische Befragungen von insgesamt 3.880 Deutschen ab 18 Jahren. http://www.fgw-online.de/

[3] Dazu wurden 11433 Interviews geführt

[4] http://www.emnid.tnsofres.com/

[5] "The Copyright Crusade II", durchgeführt vom US-amerikanischen Marktforschungsunternehmen Viant Corporation

[6] Vergl. http://www.websense.com/company/news/pr/03/emea/270103-de.cfm

[7] Die unten stehenden Ergebnisse basieren natürlich auf einer einfachen Hochrechnung und auf der Annahme einer gleichmäßigen Verteilung der Downloadrate auf die einzelnen Kontinente

[8] Durch die telefonische Befragung von 1001 Personen

[9] http://www.websense.com

[10] Daraus ergeben sich natürlich rechtliche Konsequenzen – durch die Internationalität des Internets wird die Verfolgung von Rechtsverstößen über Landesgrenzen hinweg äußerst kompliziert und aufwändig

[11] Vergl. http://www.american-products.de/amerika/usa/information/technologie_und_wissenschaft/internet_und_computer/internet_und_computer.

htm

[12] Aus: "Was ist Open Source?" in: http://www.ch-open.ch/html/events/Event_19.11.1999/opensource.html, Informatik-Support Gruppe, Departement Elektrotechnik ETH Zürich, 1999

[13] Aus einem Impulsreferat einer Arbeitsgruppe (Stabsstelle IKT-Strategie des Bundes) des österreichischen Bundeskanzleramts zur Frage von Software-Monopolen 2002, ohne weitere Angaben zum Autor

[14] Vergl. http://www.heise.de/newsticker/data/hb-28.06.00-000/

[15] Neben dem Open-Source gibt es auch den Begriff der "Freien Software", der davon unterschieden werden muß. Vertreter von Firmen Freier Software weisen darauf hin, dass ihnen aus marketingtechnischen Gründen Marktnachteile entstehen, wenn sie unter den Begriff der Open-Source subsumiert werden. Dies basiert auf dem Vorschlag der Open-Source-Initiative (OSI) von 1998, "Open-Source" als Marketingbegriff für Freie Software zu verwenden, woraufhin Firmen wie z.B. Microsoft auch kommerzielle Programme als Open-Source in den Handel brachten

[16] Vergl. http://openfacts.berlios.de/index.phtml?title=Open-Source-Lizenzen

[17] Insbesondere die Mitgliedschaft von Intel, Motorola, AMD und VIA in der TCPA sind von besonderer Bedeutung hinsichtlich der Hardwareimplementierung des Sicherheitschips, da es nicht unmöglich erscheint, daß spätere Chipimplementierungen direkt in der CPU (also dem Prozessor) stattfinden könnten – Intel stellt die Pentium-Prozessoren her, AMD die gleichnamigen CPU's und Motorola die Prozessoren für die Apple Macintosh-Rechner. VIA ist ein bedeutender Hersteller von Chipsätzen

[18] Vergl. http://www.heise.de/newsticker/data/anw-09.04.03-000/

[19] "Secure and Reliable Bootstrap Architecture", U.S. Patent No. 6,185,678, February 6th, 2001

[20] Die Anträge sind unter diesen URL's einsehbar: http://cryptome.org/ms-drm-os.htm und http://cryptome.org/ms-drm-os2.htm

[21] Dies soll im wesentlichen durch die Lizenzierung von Patenten innerhalb der Allianz nach dem RAND-Prinzip ("Reasonable and Non-Discriminatory") erfolgen

[22] Vergl. c't 22/2002, S. 204: Digital Rights Management

Ende der Leseprobe aus 46 Seiten

Details

Titel
Palladium/NGSCB, DRM und TCPA/TCG - Userkontrollmechanismen unter dem Diktat der Großkonzerne
Hochschule
Evangelische Hochschule Rheinland-Westfalen-Lippe  (FB II Sozialpädagogik)
Note
1.0
Autor
Jahr
2003
Seiten
46
Katalognummer
V15406
ISBN (eBook)
9783638205221
ISBN (Buch)
9783640705030
Dateigröße
841 KB
Sprache
Deutsch
Anmerkungen
Eine kritische Betrachtung möglicher Folgen und Risiken hinsichtlich der Einführung von Digital-Rights-Management-Systemen im Interesse der Rechteverwertungsindustrie im Hinblick auf politische, rechtliche und wirtschaftliche Aspekte. Dichter Text, 11-Punkt-Schrift.
Schlagworte
Palladium/NGSCB, TCPA/TCG, Userkontrollmechanismen, Diktat, Großkonzerne
Arbeit zitieren
Uwe Janatzek (Autor), 2003, Palladium/NGSCB, DRM und TCPA/TCG - Userkontrollmechanismen unter dem Diktat der Großkonzerne, München, GRIN Verlag, https://www.grin.com/document/15406

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Palladium/NGSCB, DRM und TCPA/TCG - Userkontrollmechanismen unter dem Diktat der Großkonzerne


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden