Einrichten eines WWW-Servers für die Fachhochschule Ludwigshafen am Rhein


Diplomarbeit, 1997
287 Seiten, Note: sehr gut

Gratis online lesen

Inhalt

Vorwort

Einleitung

1. Konzepte für Internet-Dienste
1.1 Die Entstehung des Internet
1.2 Was ist das Internet?
1.3 Arten des Internetzugangs
1.3.1 Permanente Internet-Protokoll-Verbindung
1.3.2 Wählverbindung zu einem Computer im Internet
1.3.3 Internet-Protokolle über Wählverbindung
1.4 Gründe für die Fachhochschule Ludwigshafen, einen WWW-Server einzurichten
1.5 Protokolle
1.5.1 Protokoll-Hierarchie
1.5.1.1 Die Ebene Lokales Netzwerk
1.5.1.2 Die Ebene Internet
1.5.1.2.1 Internet Protocol (IP)
1.5.1.2.2 Address Resolution Protocol (ARP)
1.5.1.2.3 Internet Control Message Protocol (ICMP)
1.5.1.3 Die Ebene Host-to-Host
1.5.1.3.1 User Datagram Protocol (UDP)
1.5.1.3.2 Transmission Control Protocol (TCP)
1.5.1.4 Die Ebene Anwendung
1.5.2 Der Superserver inetd
1.5.3 Eigenständige Server
1.5.4 Namenskonventionen
1.6 Ein kurzer Einschub zum Thema: Client / Server

2. Einführung in die Internet-Dienste
2.1 E-Mail-Dienste
2.2 FTP
2.3 Telnet und Finger
2.4 Gopher
2.5 WAIS
2.6 Das World Wide Web
2.7 Einsatzmöglichkeiten von Internet-Diensten
2.7.1 Interne Dienste
2.7.2 Externe Dienste
2.7.3 Welche Dienste sind für die Fachhochschule Ludwigshafen
interessant?

3. Anforderungen an System und Netz
3.1 Auswahl des Betriebssystems für einen Internetserver
3.1.1 Entscheidung für Linux als Betriebssystem
3.2 Auswahl der Hardware für einen Internetserver
3.3 Art der Netzverbindung
3.3.1 Netzbelastung
3.4 Personelle Anforderungen

4. Installation eines Linux-Servers
4.1 Einrichten eines Base-Linux-Systems mit Slakware
4.1.1 Vorkehrungen vor der Installation
4.1.2 Erstellen der Boot- und Root-Disketten
4.1.3 Erstes Booten von Linux
4.1.4 Partitionierung der Festplatte
4.1.5 Installation des Dateisystems
4.1.5.1 Installation von LILO
4.1.5.2 Netzanbindung
4.1.5.3 Anpassung (Neukompilierung) des Linux-Kernels bei Hinzufügen neuer Hardwarekomponenten
4.1.5.4 Sicherung des Linux-Servers
4.1.5.5 Zurücklesen eines Backupsatzes
4.1.5.6 Der Terminkalender crontab

5. Installation eines WWW-Server
5.1 Das HyperText-Transfer-Protokoll (HTTP)
5.1.1 Der Request-Block
5.2 Auswahl der Serversoftware
5.3 Installation des Apache/1.1b4 WWW-Servers
5.3.1 Httpd.conf: Wichtige Servereinstellungen
5.3.2 srm.conf: Darstellung der Daten
5.3.3 access.conf: Zugriffsbeschränkungen vornehmen
5.4 Starten und Testen des Apache-Servers

6. Betrieb eines WWW-Server
6.1 Bekanntmachen des WWW-Servers
6.2 CGI-Skripte (Common-Gateway-Interface)
6.2.1 Webglimpse - eine lokale Suchmaschine für WWW-Server
6.2.2 Auswertung der Server-Log-Dateien mit Wusage 4.0

Schlußwort

Literaturverzeichnis

Stichwortverzeichnis

Anhang

1. Die Konfigurationsdatei inetd.conf

2. Die Datei /etc/services

3. Konfigurationsdateien zur Netzanbindung

4. Die Datei lilo.conf

5. Konfigurationsdatei zur Modifikation des Systemkerns

6. Crontab

7. Wichtige Dateien zur Konfiguration des Apache-Servers
7.1 Informationen zur Installation des Servers
7.2 Die Datei Configuration
7.3 httpd.conf
7.4 srm.conf
7.5 access.conf
7.6 rc.local

8. Ein Beispiel für ein CGI-Skript

Ehrenwörtliche Erklärung

Vorwort

Darf es in einer Zeit, in der selbst Kinder in der Grundschule schon etwas mit den Begriffen „Internet“ und „World Wide Web“ anzufangen wissen und in der man als „snobistischer Technikverweigerer“ gilt, wenn man auf seiner Visitenkarte oder Briefkopf neben den üblichen Adressdaten nicht auch mit einem Verweis auf seine private Homepage beziehungsweise wenigstens einer „simplen“ E-Mail Adresse aufwarten kann, eine Hochschule geben, die noch keinen Internetanschluß, geschweige denn einen World-Wide-Web-Server besitzt?

Nun, diese etwas überspitzt formulierte, durchaus nicht ganz ernst gemeinte Frage beantwortet sich von selbst.

Wie bei jedem Witz, so steckt auch in der obigen Frage tatsächlich ein Quentchen Wahrheit, denn betrachtet man die enormen Zuwachsraten, die das Internet in den letzten Jahren erfahren hat, so sollte auch eine Bildungsstätte wie die Fachhochschule Ludwigshafen im Internet beziehungsweise im World Wide Web vertreten sein.

Als ich im Frühjahr 1996 mit der Einrichtung des WWW-Servers für die Fachhochschule begann, gab es auch in der näheren Umgebung schon etliche Hochschulen, die sich mit einem Web-Server im Internet präsentierten, so zum Beispiel die Fachhochschule Worms, die Fachhochschule für Technik in Mannheim, wie auch die Uni Mannheim. Insofern war der Zeitpunkt für die FH- Ludwigshafen gerade noch rechtzeitig, um in dieser Hinsicht nicht den Anschluß zu verpassen, denn auch unter Hochschulen soll es so etwas wie Konkurrenzkampf geben.

Unter diesen Gesichtspunkten war es mir auch persönlich ein Anliegen, für die Fachhochschule möglichst schnell einen World-Wide-Web-Server aufzubauen. Daß das Vorhaben auch unter diesem Zeitdruck relativ schnell realisiert werden konnte, - die Fachhochschule war bereits drei Wochen nach Beginn der Einrichtungsphase am 17. März 1996 mit einer eigenen Homepage im Internet vertreten -, verdanke ich nicht zuletzt meinen Professoren und den Mitarbeitern des Rechenzentrums der FH-Ludwigshafen. Sicherlich hätte vielleicht manch anderer den Server in einer noch kürzeren Zeit aufbauen können, jedoch muß ich hierzu erwähnen, daß ich bei einigen Themengebieten kaum Vorwissen hatte. So mußte der WWW-Server, - warum wird in einem späteren Kapitel erklärt -, auf einem eigenständigen UNIX-Server installiert werden. Bis dahin waren meine Kenntnisse in bezug auf UNIX sehr gering, und es war schon eine Herausforderung, einen kompletten Server mit diesem Betriebssystem zu installieren.

Daher gilt mein besonderer Dank Herrn Professor Dr. Martin Müller, der sich bereit erklärte, diese Diplomarbeit zu betreuen und dem technischen Leiter des Rechenzentrums, Herrn Professor Dr. Manfred Döringer, der es mir ermöglichte, die technischen Einrichtungen des Rechenzentrums für meine Arbeit zu nutzen. Danken möchte ich auch Herrn Jürgen Grieß, dem damaligen Assistenten des Rechenzentrums, der mir mit Rat und Tat zur Seite stand, insbesondere bei Fragen zu UNIX und Netzwerktechnologie. Nicht vergessen möchte ich hier meinen Vater, bei dem ich mich auch recht herzlich bedanken möchte, da er geduldig die TELEKOM-Rechnungen bezahlte, die seit der Einrichtung des WWW-Servers auch in unserem Hause sprunghaft angestiegen sind.

Einleitung

Das grundlegende Ziel dieser Diplomarbeit war es, wie aus dem Titel unschwer zu erkennen ist, für die Fachhochschule Ludwigshafen einen World-Wide- Web-Server einzurichten. Die erfolgreiche Umsetzung dieser Aufgabe kann heute jeder Zeit überprüft werden, indem man einen Web-Browser wie zum Beispiel Netscape, - sofern man über einen Internetanschluß verfügt -, auf folgende Adresse im Internet richtet: http://www.fh-ludwigshafen.de.

Somit ist der praktische Teil dieser Diplomarbeit erfüllt. Es wäre nun allerdings zu einfach, wenn in der vorliegenden theoretischen Abhandlung lediglich die technischen Einzelheiten schrittweise aufgezählt würden, die zur praktischen Umsetzung des Projektes notwendig sind. Vielmehr soll ein in dieser Materie nicht allzu kundiger Leser durch diese schriftliche Ausarbeitung zumindest einen groben Überblick über die Zusammenhänge und Funktionsweisen des Internet erhalten. Da gerade auch der Verfasser dieser Diplomarbeit, wie bereits im Vorwort erwähnt, mit diesen Problemen zu kämpfen hatte und sich vieles an Fachwissen selbst aneignen mußte, mögen einem Experten in Sachen Internet manche Ausführungen eventuell zu detailliert erscheinen. Dieser Leserkreis kann die Kapitel 1 bis einschließlich 2 überspringen, da hier die theoretischen Grundlagen des Internet behandelt werden. Praktisch interessierte und mit den Bereichen Hardware und Netzwerktechnologie vertraute Leser müssen auch Kapitel 0 nicht unbedingt gelesen haben, um ab Kapitel 0 in medias res zu gehen und mit der Installation eines Servers zu beginnen.

Für den mit dem Stoff weniger vertrauten Leser sei hier noch angemerkt, daß der Rahmen dieser schriftlichen Ausarbeitung gesprengt würde, wenn alle Details bis ins kleinste aufbereitet würden. Bestimmte Sachverhalte werden somit vom Verfasser vorausgesetzt und können vom interessierten Leser in der einschlägigen Fachliteratur vertiefend nachgelesen werden. Somit sei hier beispielhaft für viele ein ausgezeichnetes Buch erwähnt, „Internet-Server einrichten und verwalten“ von Cricket Liu, Jerry Peek, Russ Jones, Bryan Buus & Adrian Nye, erschienen 1995 beim O´Reilly/International Thomson Verlag. Der Aufbau dieser Diplomarbeit ist, bis auf einige Ausnahmen, auch stark am Aufbau dieses Buches orientiert. Teilweise wurden auch die gleichen Kapitelüberschriften verwendet, sodaß ein leichtes Auffinden der behandelten Themengebiete möglich ist. Folglich sind in diesen Kapiteln auch inhaltliche Parallelen zu finden, wobei bestimmte Sachverhalte verkürzt dargestellt sind, während andere zum besseren Verständnis mit zusätzlichen Informationen erweitert worden sind. Hinsichtlich der Zitierweise wurde in dieser Abhandlung daher so verfahren, daß Kapitel, die vom Inhalt her dem oben genannten Buch entsprechen, durch eine Fußnote hinter der Überschrift gekennzeichnet sind.

Aus Platzgründen wird auch nicht auf die Auszeichnungssprache HTML eingegangen. Außerdem war es nicht Ziel dieser Diplomarbeit HTML- Dokumente zu erstellen, sondern einen WWW-Server einzurichten (siehe oben). Diesbezüglich sei hier auf die weiterführende Literatur verwiesen.

Konzepte für Internet-Dienste

Im ersten Kapitel dieser Diplomarbeit sollen dem Leser nach einem kurzen geschichtlichen Überblick über die Entwicklung auch die wesentlichen Grundlagen des Internet näher gebracht werden. Die Ausführungen sind recht allgemein gehalten, sodaß die gewonnenen Erkenntnisse, losgelöst vom speziellen Anwendungsfall der Fachhochschule Ludwigshafen, auch auf andere Organisationsformen übertragen werden können.1

Die Entstehung des Internet

Als 1969 aufgrund der Initiative des US Verteidigungsministerium durch den Einsatz von erheblichen personellen und finanziellen Mitteln die Entwicklung im Bereich der Computervernetzung forciert wurde, hat damals wohl niemand geahnt, daß sich daraus das größte Computernetz der Welt entwickeln würde.2

Daß an diesem Projekt ausgerechnet das Militär, - wie dies häufig in der Geschichte bei der Entwicklung neuer Technologien der Fall war -, so großes Interesse hatte, war kein Zufall. Schon lange war man in diesen Kreisen an einem Kommunikationsmittel interessiert, mit dem auch unter ungünstigen Bedingungen der Transport von Daten sicher gewährleistet werden konnte. Somit wurde 1972 mit dem DARPANET (Defense Advanced Research Projects Agency-NET) an einem System gearbeitet, das selbst beim Ausfall von Teilen des Netzes noch funktionsfähig bleiben sollte. Folglich kann man sagen, daß wir das Internet eigentlich dem kalten Krieg in den siebziger Jahren zu verdanken haben.

Die Rechner der ersten Stunde, die damals miteinander vernetzt wurden waren, große, teure Maschinen mit 12 KB Arbeitsspeicher.

Neben den militärischen Verwendungszwecken eröffnete die Vernetzung von Computern im Laufe der Zeit in wissenschaftlichen und immer mehr in kommerziellen Bereichen völlig neue Anwendungsmöglichkeiten.

Um bestimmte wissenschaftliche Probleme mit Hilfe von Computern lösen zu können, sind oft Rechner mit enormer Rechenleistung und speziellen Programmen notwendig. Häufig sind diese Ausstattungen so teuer, daß sie nicht für jede wissenschaftliche Einrichtung angeschafft werden können. Oft hat ein ganzes Land lediglich einen dieser begehrten Großrechner. Durch eine Vernetzung ist es nun möglich, daß ein Wissenschaftler jeder Zeit auf die Ressourcen eines solchen Großcomputers zurückgreifen kann.

Durch die Vernetzung von Computern ist es also allgemein möglich, alle in einem Netzwerk angeschlossenen Ressourcen zu nutzen (resource sharing). Somit können Netzteilnehmer unterschiedliche Hardware, Programme, Daten und sonstige Peripherie gemeinsam und unabhängig vom jeweiligen Standort nutzen.

Durch die Einrichtung des NSFNET (National Science Foundation Network) in den achtziger Jahren wurde es Universitäten und Forschungsgruppen möglich, Verbindungen zu den modernsten Großrechnern und auch untereinander aufzunehmen.

Während etliche der oben erwähnten „frühen“ Netzwerke ihren Dienst wieder einstellten, schlossen sich die verbleibenden um das Jahr 1990 mit dem NSFNET zusammen. Zu diesen kamen innerhalb kurzer Zeit weitere Netzwerkdienste hinzu, wodurch ein schnell wachsendes Netz unterschiedlichster Netzwerke entstand.

Der Grundstein für das weltgrößte Rechnernetz, das Internet, war somit gelegt. Da eine kommerzielle Nutzung des NSFNET aufgrund seiner Nutzungsbestimmungen nicht zulässig war, wurde das CIX-Netz (Commercial Internet Exchange) aufgebaut. Somit wurde das zunächst für regierungseigene Institutionen wie für das Militär und wenige ausgewählte Forschungsgruppen und Universitäten vorbehaltene Internet für jeden zugänglich. Seit Anfang 1993 erlebte das Internet einen regelrechten Boom, und die Anzahl der Server und angeschlossenen Netzwerke verdoppelte sich innerhalb eines Jahres (siehe Abbildung 1 bis Abbildung 3)3.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Entwicklung der Hosts im Internet

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Wachstum der Netzwerke Abbildung 3: Wachstum der Domains

Was ist das Internet?

Unter dem Internet versteht man ein elektronisches Mail- und Informationssystem, das verschiedene staatliche Institutionen (vor allem in den USA), militärische Bereiche, Universitäten und kommerzielle Unternehmen miteinander verbindet4 5.

Spricht man vom Internet, so entsteht leicht der Eindruck, daß es sich dabei um ein riesiges Gesamtnetz einzeln miteinander verbundener Computer handelt. Tatsächlich besteht das Internet aber aus Teilnetzen, die über Hochgeschwindigkeitstelefonleitungen zusammengeschlossen sind. Der Begriff Hochgeschwindikeitstelefonleitung könnte nun den Eindruck erwecken, daß es sich beim Internet um ein Hochgeschwindigkeitsnetz handelt. Der gerne verwendete Ausdruck des „Internet-Surfen“ sollte jedoch besser mit „Internet- Kriechen“ ersetzt werden. Mit ein Grund für diese schlechte Performance ist der rasante Zuwachs von Clients und Servern, die zu regelrechten Datenstaus in den Leitungen führen. Doch nicht nur die Zahl der Nutzer belastet das Netz, auch Programme sind für Engpässe und lange Wartezeiten verantwortlich. Besonders Multimedia-Anwendungen belasten die Bandbreite des Netzes. Während eine große Grafik einige hundert KByte Speicherplatz beansprucht, muß das Netz bei Audio- und Video-Übertragungen gleich mehrere MByte durch die Kabel schleusen.

Viele Probleme haben ihren Grund aber auch im Aufbau des Internet: Das riesige Netz setzt sich, wie oben bereits erwähnt, unter anderem aus vielen kleinen Netzwerken zusammen, die miteinander verbunden sind. Kleine Service-Anbieter speisen ihren Datenverkehr in die Netze größerer Service- Anbieter. Die wiederum liefern den akkumulierten Datenstrom an den nächstgrößeren und so weiter, bis nur wenige große Provider übrigbleiben. Die „großen“ Anbieter haben nun begonnen, ihre Infrastruktur zu verbreitern. Sie bauen die Kapazitäten ihrer Rechner aus und steigern die Zahl der Modems in den lokalen Zugangsknoten.

Auch wenn sich das Internet in vielen Punkten wie ein homogenes Netz verhält, handelt es sich nicht um einen zentral organisierten und verwalteten Netzwerkdienst. Die angeschlossenen Rechner werden individuell von ihrem sogenannten Webmaster verwaltet und am Laufen gehalten. Die oben genannte Homogenität des Internet liegt darin, daß die miteinander verbundenen Rechner eine Gemeinsamkeit haben: Sie verstehen alle das Protokoll TCP/IP (Transmission Control Protokoll / Internet Protokoll). Auf die Eigenschaften und Aufgaben von Protokollen wird später genauer eingegangen. TCP/IP trägt jedenfalls dazu bei, daß die unterschiedlichsten Rechnerplattformen miteinander kommunizieren können. Das Spektrum der miteinander verbundenen Rechner geht von PCs über MACs bis schließlich zu UNIX-Maschinen. Dieser Eigenschaft hat das Internet letztlich seinen unglaublichen Erfolg zu verdanken.

Arten des Internetzugangs

Was bedeutet es nun eigentlich, wenn jemand davon spricht, im Internet zu sein? Im wesentlichen kann man drei Rollen definieren, die im Internet gespielt werden:6

1. Die Informationsanbieter

Sie stellen auf ihren Rechnern, die an das Internet angeschlossen sind, Daten zur Verfügung. Diese Daten können aus Textinformationen, Grafiken, Sounddaten oder auch Programmen bestehen. Die Standorte der Informationsanbieter sind über die ganze Welt verbreitet. Neben bedeutenden naturwissenschaftlichen Museen findet man internationale Organisationen wie die NATO und die Weltbank, Hochschulen und Schulen und auch kleine Geschäfte, die ihre Produkte anbieten. In dieser Abhandlung wollen wir uns in erster Linie mit der Rolle des Informationsanbieters beschäftigen.

2. Die Benutzer oder auch Kunden

Eine weitere, nicht weniger wichtige Rolle spielen die Benutzer des Internet, denn was nützen die besten Informationen, wenn sie niemand abfragt. Die Anzahl der an das Internet angeschlossenen Kunden wurde im Mai 1996 auf ca. 34 Millionen geschätzt. Galt das Internet in seinen Anfangszeiten eher als Spielwiese für Computerspezialisten und Wissenschaftler, so finden wir heute neben Pädagogen, Autoren, Gesetzgebern und Anwälten eine immer stärker werdende Zahl von privaten Nutzern des Internet. Gerade letztere sind der Grund, warum so viele Unternehmen als Informationsanbieter ins Internet drängen. Es kann sich schließlich bei jedem neu angeschlossenen Internet-User um einen potentiellen Kunden handeln. Abbildung 4 soll einen kleinen Eindruck vermitteln, wie sich die Benutzerzahlen bis zum Jahr 1999 entwickeln werden.

Mittlerweile spricht man von „katastrophalen Zusammenbrüchen“, die im Internet aufträten. So sagte Bob Metcalfe, der Erfinder des Ethernet- Netzwerkstandards, den ersten Kollaps des Internet für das Jahr 1996 voraus. Angesichts der enormen Zuwachsraten, die das Internet erleben wird, sollte man diese Warnungen ernst nehmen. Nur wenn man in Zukunft daran denkt, das Internet zu verbessern, - sprich: die Informationen besser packen und die Übertragungen beschleunigen, - wird es in Zukunft so selbstverständlich benutzt wie heute Telefon und Fernsehen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Die Benutzerentwicklung des Internet7

3. Die Verbindungsanbieter

Damit Informationsanbieter ihre Daten anbieten und Benutzer diese abfragen können, benötigen sie eine Netzverbindung zum Internet. Diese wird von den Verbindungsanbietern (connection provider) zur Verfügung gestellt. Auf ihre Rolle soll hier nicht näher eingegangen werden. T-Online, AOL, Compuserve, EUnet und MSN seien hier lediglich als eine Auswahl der bekanntesten genannt.

Nachfolgend sollen drei Verbindungsmöglichkeiten zum Internet aufgezeigt werden:

Permanente Internet-Protokoll-Verbindung

Will man im Internet als Informationsanbieter auftreten, ist es wichtig, daß die bereitgestellten Daten rund um die Uhr zur Abfrage bereitstehen. Um Kosten zu sparen wäre es natürlich auch möglich, den Dienst nur tagsüber anzubieten. Bedenkt man allerdings, daß sich das Internet über alle Erdteile erstreckt und es für potentielle Informationsnachfrager, also mögliche Kunden, immer irgendwo Tag ist, bleibt schließlich nur die Auswahl einer 24-Stunden Standleitung.

In der Regel gibt es bei diesem Internetzugang einen Rechner in einem LAN, der über einen Router per Standleitung mit einem Internet-Connection- Provider verbunden ist und somit einen Zugang zum Internet hat. Auf diesem und jedem anderen Rechner des LAN können nun Internet-Dienste wie E- Mail, FTP und WWW ausgeführt werden. Daneben besteht nun auch die für einen zukünftigen Informationsanbieter interessante Möglichkeit der Einrichtung eines eigenen Internetservers.

Den oben beschriebenen Luxus einer permanenten IP-Verbindung können sich in der Regel nur öffentliche Einrichtungen wie Hochschulen und finanzkräftige Unternehmen leisten, denn für diese Lösung fallen monatliche Gebühren zwischen DM 3.000 und 5.000 an. Für den privaten Internet-User sind diese Kosten natürlich zu hoch und unerschwinglich weswegen sich diesem Benutzerkreis eine der nachfolgenden Lösungsmöglichkeiten anbietet.

Wählverbindung zu einem Computer im Internet

Bei dieser Art des Internetzugangs ist ein Benutzer mit einem Modem oder ISDN-Anschluß über die Telefonleitung mit einem Rechner verbunden, der seinerseits an das Internet angeschlossen ist. Mittels einer Terminalemulation, die das Protokoll ZMODEM oder XMODEM verwendet, kann nun der Single- User verschiedene Internet-Dienst-Programme auf diesem Rechner ablaufen lassen. Der Benutzer führt sozusagen eine Fernsteuerung des Internet- Rechners durch. Voraussetzung hierfür ist, daß beide Rechner eines der oben genannten Terminal-Protokolle verwenden. Diese Variante des Internetzugangs findet man häufig an Hochschulen vor, die so ihren Professoren und Studenten einen günstigen Internetzugang verschaffen, denn es fallen hierbei keine weiteren Gebühren außer den verbindungsabhängigen Telefongebühren an. Natürlich kann diese Methode auch kommerziell genutzt werden. In der Regel werden hier neben den Telefongebühren auch Gebühren für die Dauer des jeweils genutzten Dienstes berechnet, wie zum Beispiel bei Compuserve.

Internet-Protokolle über Wählverbindung

Während man bei der oben beschriebenen Wählverbindung zu einem Computer im Internet von einer „Pseudo-Internetverbindung“ sprechen kann, da über die Leitung zwischen dem Benutzer und dem Host-Rechner des Anbieters keine reinen Internet-Protokolle laufen und der Host sozusagen als Zwischenspeicher für den Benutzer dient, kann man bei der Variante der Internet-Protokolle über eine Wählverbindung von einem direkten Internet- Zugang des User sprechen. Um diese Zugangsmöglichkeit nutzen zu können, muß der Netzwerkanbieter das sogenannte Protokoll SLIP (Serial Internet Protokoll) oder das in letzter Zeit mehr favorisierte PPP (Point to Point Protocol) unterstützen. Der Rechner des Benutzers muß entweder TCP/IP und SLIP oder PPP beherrschen, damit diese Zugangsart möglich wird. Somit wird der Einsatz von graphischen Oberflächen möglich, die einen direkten Internet-Zugang voraussetzen.

Beide zuletzt beschriebenen Zugangsmöglichkeiten zum Internet bieten keine 24-Stunden-Verbindung und sind zudem relativ langsam. Sie eignen sich für Single-User, die sich nicht permanent im Internet aufhalten. Ein zukünftiger Informationsanbieter muß sich letztlich mit dem Gedanken anfreunden, die kostspielige Variante der permanenten IP-Verbindung zu nutzen, wenn er einen sinnvollen Dienst aufbauen will. Es werden zwar auch kostengünstigere Alternativen von Connection-Providern angeboten, die auch ohne eine permanente Verbindung zum Internet auskommen, diese sind aber von der Datenpflege her recht umständlich. Die Firma EUnet bietet zum Beispiel die Möglichkeit an, auf einem ihrer eigenen Internet-Server Festplattenspeicher zu mieten. Auf diesem können dann die Seiten des Informationsanbieters abgelegt und zum Abruf im Internet bereitgestellt werden. Aber selbst bei dieser Variante liegen die monatlichen Kosten bei ca. DM 1.000. Viele Provider, - so zum Beispiel T-Online und AOL -, bieten ihren Kunden auch die Möglichkeit, private Home-Pages auf einem ihrer anbietereigenen Rechner einzurichten, in der Regel sogar kostenlos. Das Problem liegt hier allerdings im äußerst begrenzten Plattenspeicher, der dem Benutzer zur Verfügung steht. Für den professionellen Einsatz scheint also auch diese Möglichkeit nicht geeignet.

Gründe für die Fachhochschule Ludwigshafen, einen WWW-Server einzurichten

So, wie es Konkurrenz zwischen den Unternehmen gibt, existiert auch ein Wettbewerb unter den Hochschulen. Zwar wird hier bei weitem nicht so hart gekämpft, wie man dies aus der freien Wirtschaft kennt, aber jede Hochschule weiß, daß ihr die Kunden, sprich Studenten, nicht unbedingt von selbst zulaufen. Daher sollte jede Hochschule bemüht sein, ihr Studienangebot möglichst positiv nach außen darzustellen. Wie aus den obigen Ausführungen zu ersehen ist, erfreut sich das Internet immer größerer Beliebtheit, und viele Benutzer verwenden die darin angebotenen Informationen. Ist ein Unternehmen im Internet präsent, so signalisiert es damit dem Informationsnachfrager, daß es sich für ihn und nicht zuletzt seine innovative Einstellung zu den neuen Medien interessiert. Allein dieser Punkt könnte ausschlaggebend für eine neue Kundenbeziehung sein. Überträgt man diese Tatsache auf eine Hochschule, so kann der erste Eindruck, den ein Benutzer beim Besuch des Hochschul-Server bekommt, entscheidend für die Bewerbung sein. Dabei genügt nicht nur die schlichte Existenz eines Servers, vielmehr ist das effizient strukturierte und leicht nachvollziehbare Informationsangebot von ebenso fundamentaler Bedeutung.

Im folgenden sollen zunächst drei wesentliche Gründe für die Fachhochschule Ludwigshafen zur Einrichtung eines Internet-Server dargestellt werden:

1. Zur Außendarstellung der Hochschule

- Vermittlung allgemeiner Informationen über die Fachhochschule Ludwigshafen: Zum Beispiel Informationen über Standort, Entwicklung und Partner der Fachhochschule.

- Organisation der Fachhochschule:

Zum Beispiel Informationen über Leitung, Personal und Einrichtungen der Fachhochschule.

- Studienangebot:

Beschreibung der Studienmöglichkeiten an der Fachhochschule.

2. Zum Aufbau eines Intranet

- Unter dem Begriff Intranet versteht man die Verwendung von Internet- Diensten innerhalb einer Organisation. Diese Dienste können allerdings nur von autorisierten Benutzern in Anspruch genommen werden, das heißt Internet-Benutzer von außen haben auf bestimmte Bereiche des Internet- Server keinen Zugriff.

- Mit einem Intranet können Informationen wie zum Beispiel Rundschreiben oder Termine innerhalb der Fachhochschule zwischen den Fachbereichen und Einrichtungen ausgetauscht werden. Damit könnte man der Idee des papierlosen Büros etwas näherkommen.

- Die Einrichtung eines Intranet für die Fachhochschule Ludwigshafen ist derzeit noch nicht realisiert und liegt noch in der Planung. Hier sei auf den Arbeitskreis Intranet unter der Leitung von Professor Peter Kursawe im Rahmen des Arbeitskreises Internet unserer Hochschule verwiesen, der sich mit dieser Thematik genauer befaßt.

3. Als Informationssystem für Studenten

Nicht zuletzt soll der Internet-Server der Fachhochschule Ludwigshafen ein Informationssystem für unsere Studenten sein. Er soll sie mit wichtigen Informationen versorgen, ihnen die Organisation ihres Studiums erleichtern und als Kommunikationsmittel untereinander und mit den Professoren und Einrichtungen dienen. Folgende interessanten Funktionen seien hier herausgegriffen:

- Hilfe bei der Bewerbung an der Fachhochschule:

Informationen über das Vorgehen bei der Bewerbung um einen Studienplatz (Ansprechpartner, Zugangsbeschränkungen, notwendige Unterlagen, Bewerbungsfristen).

- Studienordnungen:

Zur Verfügungstellung der aktuellen Studienordnung.

- Stundenpläne:

Abfragemöglichkeit der Vorlesungstermine und deren Änderungen über das Internet.

- Anmeldung zu Prüfungen:

Vereinfachung der Anmeldungsprozedur zu Klausuren, Diplomarbeiten, Vordiploms- und Abschlußprüfungen durch Nutzung des Inter- bzw. Intranets und damit Abbau von Wartezeiten.

- Veröffentlichung von Diplomarbeiten:

Studenten soll die Möglichkeit gegeben werden, ihre Diplomarbeiten einem breiten Publikum zur Verfügung stellen zu können.

Die Punkte Stundenpläne, Anmeldung zu Prüfungen und Veröffentlichung von Diplomarbeiten sind zur Zeit noch nicht realisiert. Der Arbeitskreis Internet arbeitet an der Verwirklichung dieser Dienste, dazu sind allerdings grundlegende organisatorische Umstrukturierungen der betroffenen Bereiche wie zum Beispiel Semesterplanungsamt oder Prüfungsamt zu bewerkstelligen, und es müssen geeignete Schnittstellen zwischen diesen Einrichtungen und dem Internet geschaffen werden.

Protokolle

Wie bereits erwähnt, ist im Internet ein erstaunliches Spektrum unterschiedlicher Rechnerplattformen miteinander verbunden. Wenn man bedenkt, wie kompliziert es ist, auf konventionellem Weg (zum Beispiel mit Disketten) Daten zwischen einem PC und einem UNIX- oder MacintoshComputer auszutauschen, verwundert es schon ein wenig, warum das über das Internet so scheinbar problemlos funktioniert. Das Geheimnis dieser enormen Flexibilität im Internet sind die Protokolle, die Kommunikation und Datenaustausch im Internet ermöglichen.8

In diesem Abschnitt soll nun kurz auf die wichtigsten Protokolle, deren Funktionen und Aufgaben im Internet eingegangen werden. Da man einen Internet-Dienst aufbauen kann, auch wenn man die Funktionsweise von Protokollen nicht in allen Einzelheiten kennt, sollen hier nur die Grundfunktionen von Protokollen und die drei wesentlichen Protokolle IP, TCP und UDP behandelt werden. Für tiefergehende Informationen sei hier auf die weiterführende Literatur verwiesen.

Zunächst soll geklärt werden, was ein Protokoll ist und welche Aufgaben es zu leisten hat. Da der Begriff in verschiedenen Zusammenhängen gebraucht wird, sei zunächst erwähnt, daß immer „Kommunikationsprotokoll“ gemeint ist, wenn in diesem Text der Begriff „Protokoll“ gebraucht wird.

Definition: Ein Protokoll definiert ein Schema, nach dem ein Datenaustausch zu vollziehen ist. Genauer kann man sagen, ein Protokoll definiert Regeln zwecks Nachrichtenaustauschs, nach denen zwei Kommunikationspartner eine Verbindung aufbauen, Nachrichten austauschen und anschließend die Verbindung wieder abbauen.9

Demnach sind Protokolle sozusagen Sprachen, mit denen sich Rechner verständigen können. Im Internet ist das wichtigste Protokoll TCP/IP. Es sichert den problemlosen Datenaustausch zwischen den Rechnern im Internet. Dabei spielt es keine Rolle, in welchem Netzwerk sich der Rechner befindet oder um welche Rechnerplattform es sich handelt.

Protokoll-Hierarchie

Da ein einziges Protokoll der Vielzahl von Anforderungen nicht gewachsen ist, werden im Internet eine ganze Reihe von Protokollen verwendet, die unter dem Sammelbegriff TCP/IP zusammengefaßt sind, wobei TCP (Transmission Control Protocol) und IP (Internet Protocol) die zentralen Protokolle darstellen.10

Folgende Anforderungsprofile sollten von einem Internet-Protokoll erfüllt werden:

- Möglichst große Unabhängigkeit von der verwendeten Netzwerk-Hardware, sowohl hinsichtlich der verwendeten Übertragungsmedien (Kupferkabel, Lichtwellenleiter etc.) als auch des lokalen Netzwerkbetriebssystems (Ethernet, Token-Ring etc.)
- Erreichbarkeit aller Rechner im gesamten Internet
- Fehlererkennung und Fehlerkorrektur
- Logische Adressierung. Das heißt, die Adresse eines Rechners im Internet sollte nicht von der Netzwerk-Hardware abhängen. So hat zum Beispiel eine Ethernet-Karte eine fest codierte 48 Bit lange Adresse. Ein Austauschen dieser Karte würde ohne logische Adressierung automatisch zu einem Adresswechsel führen.
- Versenden von Paketen (ähnlich wie beim Telegramm).
- Herstellen von Verbindungen (ähnlich wie beim Telefongespräch).
- Übertragen der notwendigen Daten, um die gewünschten Dienste zu realisieren.

Damit diese Anforderungen erfüllt werden können, benötigt man nicht nur mehrere Protokolle, sondern auch einen sinnvolle Anordnung derselben. Zu diesem Zweck wurde ein Schichtenmodell entwickelt, in dessen unteren Schichten sich die low-level-Protokolle befinden, welche eng auf der Hardware aufsetzen. In den höheren Schichten befinden sich Protokolle, die eine Anwendung beziehungsweise einen Dienst ermöglichen. So bietet das Internet Protocol (IP) der darüberliegenden Schicht den Transport von kleinen Datenpaketen an. Diese Funktionalität kann genutzt werden, ohne die darunterliegende Hardware zu kennen.

Die folgende Tabelle zeigt ein vereinfachtes Schichtenmodell:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Vereinfachtes Schichtenmodell

Die Ebene Lokales Netzwerk

In der hier mit Lokalem Netzwerk bezeichneten untersten Ebene dieses einfachen Modells befinden sich neben den Übertragungsmedien auch die Netzwerkkarten wie zum Beispiel Ethernet oder Token-Ring. Die Aufgabe einer Netzwerkkarte besteht im Transport von Datenpaketen, sogenannten Frames, die eine Größe von einem bis 1500 Byte haben können. Ein Frame besteht aus zwei Teilen, wobei im ersten Teil, dem sogenannten Kopf, wichtige Informationen wie zum Beispiel die Zieladresse des Datenpakets gespeichert ist. Die eigentlichen Nutzdaten eines Frames befinden sich im zweiten Teil. Diese werden von der nächsthöheren Schicht im Modell verwendet und wiederum mit einem Kopf- und Nutzdatenteil versehen.

Der Aufbau eines Frame ist in Abbildung 6 noch einmal bildlich dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Aufbau eines Frame

Die Ebene Internet

Die Internet-Ebene baut direkt auf die Funktionalität eines lokalen Netzwerkes, - also zum Beispiel auf eine vorgegebene Ethernet-Hardware -, auf. Sie ist für den gesamten Datentransport im Internet verantwortlich.

Die drei wichtigsten Protokolle der Internet-Schicht sind das Internet Protocol

(IP), das Address Resolution Protocol (ARP) und das Internet Control Message Protocol (ICMP).

Internet Protocol (IP)

IP ist neben den beiden anderen größeren Protokollen TCP und UDP der TCP/IP-Familie mit das wichtigste Protokoll im Internet. In IP sind die eben genannten Protokolle ähnlich wie in Briefumschlägen eingepackt. Im IP-Paket ist die Adresse des Internet-Rechners gespeichert, an welchen die Daten geschickt werden sollen.

Eine solche Adresse besteht aus einer 32-Bit langen Zahl, die zwischen 0 und 4,3 Milliarden liegen kann. Da von einem Benutzer nicht verlangt werden kann, daß er sich solche „Megazahlen“ merken muß, werden diese IP-Adressen in einer etwas leichter zu merkende Kurzform, der sogenannten Oktette, geschrieben. Dazu wird die 32-Bit-Adresse zunächst in vier Gruppen von jeweils 8 Bit zerlegt. Danach werden die 8-Bit-Gruppen in jeweils eine Dezimalzahl umgewandelt. Zum Schluß werden die resultierenden 4 Dezimalzahlen ebenfalls miteinander verbunden und durch Punkte voneinander getrennt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Binärdarstellung einer IP-Adresse

In Abbildung 7 ist die IP-Nummer des WWW-Servers der Fachhochschule Ludwigshafen nach diesem Verfahren aufgeschlüsselt. Der Aufbau einer IP- Adresse ergibt sich aus folgendem hierarchischen Aufbau: Netz, Teilnetz, Computer. In der Regel beschreiben die beiden ersten beziehungsweise die ersten drei Oktette das Netz, die letzten 16 beziehungsweise 8 Bit das Teilnetz und den Computer der IP-Adresse. Durch diesen Aufbau einer IP-Adresse wird ein sinnvolles Routing im riesigen Internet erst sinnvoll, denn Internet- Router müssen lediglich über eine Liste mit allen Netzen verfügen, um ein IP- Paket an die richtige Adresse weiterzuleiten. Müßte ein Router den Weg zu jedem einzelnen Computer kennen, müßte er im Extremfall 4,3 Milliarden Einträge enthalten. Ist nun ein IP-Paket im richtigen Netz angekommen, muß es von den dortigen Routern nur noch in das gewünschte Teilnetz und von dort zum entsprechenden Computer weitergeleitet werden. IP stellt demnach lediglich die Adressierungsinformationen zur Verfügung, die zu einem Transport von Daten zwischen zwei Rechnern benötigt werden. IP führt allerdings weder eine Fehlerprüfung durch, noch stellt es sicher, daß die Daten-Pakete in der Reihenfolge beim Adressaten ankommen, wie sie abgeschickt worden sind.

Address Resolution Protocol (ARP)

Neben den im obigen Abschnitt beschriebenen sogenannten logischen Adressen gibt es auch Hardware-Adressen, welche vom Protokoll ARP versorgt werden. Zwischen logischer und Hardware-Adresse besteht eine Beziehung im Verhältnis von 1:1. ARP hat dabei die Aufgabe, logische Adressen in Hardware-Adressen umzuwandeln. Für diese Umwandlung nutzt ARP die Broadcasting-Möglichkeiten (= das Senden an eine Netzwerk- Hardware-Adresse) der Ethernet-Technik. Ein Broadcast-Paket enthält die IP- Adresse der Station, die angesprochen werden soll. Die betroffene Station sendet dann ihre Hardware-Adresse an den Absender des Broadcast. Ein Rechner speichert die gewonnenen Erkenntnisse über die Beziehung zwischen logischen Adressen und Hardware-Adressen in einem speziellen Zwischenspeicher, dem ARP-Cache. Dadurch kann die Netzbelastung gesenkt werden, da die am häufigsten benutzten Zuordnungen schon im Speicher vorhanden sind.

Internet Control Message Protocol (ICMP)

Im Zusammenhang mit IP gibt es ein weiteres Protokoll, das einfache Rück- beziehungsweise Fehlermeldungen darüber liefert, wie die Internet-Schicht arbeitet. Werden Daten über Gateway (Rechner zur Kopplung von zwei oder mehreren verschiedenen Netzwerken) transportiert, können Fehler auftreten. So könnte beispielsweise der Pufferspeicher eines Gateways überlastet sein, wodurch ein Weiterleiten des Datenpakets nicht mehr möglich ist. Eine weitere, häufig auftretende Fehlerquelle könnte die Überschreitung der maximalen Transportkapazität des Gateways oder des Übertragungsmediums (zum Beispiel Kupferkabel) sein. In diesen Fällen übermittelt ICMP Fehlermeldungen über die Art und Ursache des aufgetretenen Fehlers und bietet den Protokollen der Internetschicht „Ratschläge“, wie sie ihr Verhalten anpassen können, um den Fehler abzufangen.

Die Ebene Host-to-Host

Die Host-to-Host- beziehungsweise Transportschicht ist für die Datenübertragung von Rechner zu Rechner verantwortlich. Diese Aufgabe übernehmen im wesentlichen die beiden Protokolle UDP und TCP, die im folgenden vorgestellt werden:

User Datagram Protocol (UDP)

Bei UDP handelt es sich um ein verbindungsloses Transportprotokoll in der Internetfamilie. Als Protokoll der Transportschicht verwendet es bei der Zustellung der Daten das Protokoll IP. UDP nimmt die Daten von IP entgegen und fügt dem Paket lediglich zwei Merkmale hinzu, wobei eines davon optional ist. Bei der ersten zugefügten Eigenschaft handelt es sich um die Portnummern. Ports sind eine Art Unteradressierung und kennzeichnen einzelne Dienste auf einem Rechner. Damit mehrere Dienste auf einem Rechner laufen können, wird ein Bezeichner verwendet, der über die Zielportnummer feststellt, an welches Programm (zum Beispiel Telnet oder FTP) die Daten weitergeleitet werden sollen. Ohne Ports könnte maximal ein Dienst (zum Beispiel FTP) pro Rechner benutzt werden. Eine Portnummer besteht aus einer 16 Bit breiten Zahl (von 0 bis etwa 65000). Es gibt Anwendungen, die auf fast allen Internet-Rechnern die gleiche Portnummer haben. So ist der Port 25 auf den meisten Rechnern für den Mail-Server, Port 23 in der Regel für das Telnet-Protokoll reserviert.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: Vereinfachtes Port-Schema

Beim optionalen Merkmal von UDP handelt es sich um die Prüfsummenbildung. Mit diesem Verfahren ist es möglich, festzustellen, ob die Daten während der Übertragung verändert worden sind. Da diese Option die Geschwindigkeit beeinträchtigt, wird häufig auf diese Anwendung verzichtet. UDP wird beispielsweise vom Netware File System (NFS) zur Übertragung von Daten innerhalb des lokalen Dateisystems verwendet. Allerdings ist bei UDP zu beachten, daß der Datentransport relativ unsicher ist. Da die Wahrscheinlichkeit steigt, daß beim Verlassen des lokalen Netzwerks IP- Pakete verloren gehen, ist die Verwendung von UDP für die meisten Anwendungen nicht ausreichend. UDP eignet sich also eher für kurze Anfragen und Antworten, die in ein IP passen.

Transmission Control Protocol (TCP)

Der beim Protokoll UDP erwähnte Mangel an Datensicherheit bei der Paket- Übermittlung wird vom Transmission Control Protocol (TCP) ausgeglichen. Mit TCP ist es nun auch möglich, anspruchsvollere Anwendungen mit einem höheren Grad an Zuverlässigkeit zu versorgen. Daneben sorgt TCP dafür, daß die Datenpakete in der Reihenfolge ankommen, in der sie abgeschickt worden sind. Damit wird die in Abschnitt 0 erwähnte Unfähigkeit von IP, die korrekte Aufeinanderfolge der Daten sicherzustellen, ausgeglichen. Hierzu verwendet TCP sogenannte Sequenznummern, die in jedes IP-Paket neben den eigentlichen Daten eingetragen werden und bei jedem neuen Paket um 1 erhöht werden. Anhand dieser Nummern kann der Empfänger die Reihenfolge der Pakete feststellen. Außerdem kann der Empfänger feststellen, ob die Daten vollständig angekommen sind. Kommen beispielsweise die Sequenznummern 1,2 und 5 beim Empfänger an, so fehlen 2 IP-Pakete. TCP wird dann vom Empfänger veranlaßt, die Daten erneut zu senden. Auch TCP verwendet wie UDP das Port-Konzept (siehe Abschnitt 0), um mehrere Dienste innerhalb eines Computers ansprechen zu können.

Vergleich von TCP und UDP:

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Vergleich zwischen TCP und UDP

Die Ebene Anwendung

An der Spitze des in Abbildung 5 dargestellten vereinfachten Schichtenmodells befindet sich die Anwendungsschicht.

In ihr befinden sich zum einen Anwendungen und zum anderen Protokolle.

Bei den Anwendungen wird zwischen Client-Programmen, mit denen ein Benutzer bestimmte Dienste wie z.B. FTP oder TELNET ausführen kann, und Server-Programmen, auch Dämonen genannt, welche die oben genannten Dienste anbieten, unterschieden. Bei den Dämonen handelt es sich um Programme, die entweder einmal gestartet werden und ständig auf dem Server laufen oder bei einer Client-Anfrage vom Superserver inetd gestartet und nach der Verarbeitung der Anfrage wieder beendet werden. Die Client-Programme hingegen sind in der Regel nur zeitweise aktiv, z.B. wenn ein Benutzer Informationen aus den Internet abrufen will.

Neben den reinen Anwendungen befinden sich in dieser Schicht, wie bereits oben erwähnt, auch Protokolle. Diese werden von den Anwendungen zur Datenübertragung verwendet.

Das Zusammenspiel zwischen Anwendung und Protokoll soll nachfolgend an einem Beispiel erläutert werden.

Will ein Benutzer eine E-Mail schreiben, so verwendet er dazu ein Mail- Programm (Client-Programm). Das Mail-Programm verwendet nun seinerseits das dienstspezifische Protokoll SMTP (Simple Mail Transfer Protokoll) zum Versenden der Mail. Damit die Mail weitergeleitet werden kann, wird ein Server-Programm zur Weiterverarbeitung des Auftrags benötigt. Hierzu gibt es einen SMTP-Server (meist das UNIX-Programm „sendmail“), welcher die Mail an den SMTP-Server des Empfängers weiterleitet. Dort wird die Mail in einem Speicher (z.B. Festplatte) abgelegt. Der Empfänger kann jetzt mit seinem MailProgramm die E-Mail abfragen und lesen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 9: Der Weg einer E-Mail

Der Superserver inetd

Mit dem Portkonzept (siehe 0) ist es möglich, auf einem Rechner eine große Zahl von Servern gleichzeitig laufen zu lassen. Um keinen Speicherplatz durch den Dauerbetrieb von nur wenig beanspruchten Server-Programmen zu verschwenden, werden die meisten erst bei Bedarf durch den Superserver inetd gestartet und nach der Verarbeitung der Daten wieder beendet. Dabei hat inetd die einzige Aufgabe, die Ports permanent nach Anfragen von Clients abzufragen und die entsprechenden Programme zu starten. Damit inetd bei einer Anfrage den richtigen Server startet, holt er sich die notwendigen Angaben aus der Konfigurationsdatei inetd.conf (siehe Anhang - Abbildung 1). Versucht ein Client zum Beispiel, eine FTP-Session zu einem Server herzustellen, startet inetd das in Zeile 25 im Anhang - Abbildung 1 aufgeführte FTP-Programm.11

ftp stream tcp nowait root /usr/sbin/tcpd /usr/sbin/wu.ftpd

Mit dem ersten Eintrag wird das jeweilige Dienstprogramm definiert. Der Service-Name (hier ftp) ist direkt auf eine Portnummer abgebildet, die inetd abhört. Diese Beziehung ist in der Datei services im Verzeichnis /etc definiert (siehe Anhang - Abbildung 2). Dort wird durch den Eintrag:

ftp 21/tcp

in Zeile 27 allen Anfragen, die an Port 21 gerichtet werden, das FTPProgramm zugewiesen.

Die Einträge stream und tcp weisen dem Protokoll TCP einen seriellen Datenstrom zu. Nowait teilt inetd mit, daß für jeden Client ein neuer Server aktiviert werden soll. Würde an dieser Stelle wait eingetragen, so würde bei einer Client-Anfrage jeweils nur ein Server gestartet. In diesem Fall wäre der Server solange für neue Anfragen blockiert, bis die letzte Session beendet ist.

Der Eintrag root gibt an, unter welcher Benutzerkennung der Server laufen soll. Normalerweise ist hier der Superuser (root) eingetragen. Aus Sicherheitsgründen kann hier aber auch ein spezieller User mit weniger Rechten verwendet werden. Der sechste Eintrag in inetd.conf enthält den Pfadnamen des Serverprogramms, während das letzte Element (/usr/sbin/wu.ftpd) aus der kompletten Kommandozeile für den Server einschließlich des Servernamens und seiner Argumente besteht.

Inetd eignet sich also besonders für Server-Programme, die nur relativ selten benötigt werden. Ein weiterer Vorteil von inetd besteht darin, daß Veränderungen an den Konfigurationsdateien der Server-Programme sofort beim nächsten Aufruf durch den Superserver wirksam werden.

Eigenständige Server

Werden Dienste auf einem Server stark frequentiert, stößt man schnell an die Grenzen von inetd. Da inetd ein Server-Programm bei einer Anfrage jedesmal neu startet, muß das betroffene Programm auch seine Konfigurationsdateien neu einlesen. Dies kann bei starkem Benutzerandrang zu zeitlichen Engpässen und Systemüberlastungen führen.12

In diesem Fall empfiehlt es sich, den entsprechenden Server als eigenständigen Dämon laufen zu lassen. Der eigenständige Dämon überwacht bei diesem Verfahren den ihm zugeordneten Port und erstellt für jede eintreffende Client-Anfrage eine Kopie von sich selbst. Durch diese schnellere Methode können die oben geschilderten Probleme von inetd weitgehend umgangen werden.

Namenskonventionen

In Abschnitt 0 wurde der Aufbau einer IP-Adresse näher beleuchtet. Über diese Nummer wird einem Rechner eine eindeutige Adresse zugewiesen. Bewegt man sich im Internet, stößt man allerdings nur sehr selten auf diese Nummern. In der Regel wird ein Rechner über einen ihm zugewiesenen Namen, hinter dem sich letztlich die entsprechende IP-Nummer verbirgt, angesprochen. Um Rechnern statt den IP-Adressen auch logische Namen zuordnen zu können, wurde das Domain Name System (DNS) geschaffen. In den Anfängen des Internet erfolgte diese Zuordnung über eine zentral gehaltene Datei (/etc/hosts auf UNIX-Systemen) durch den Network Information Center (NIC). Diese Datei wurde regelmäßig mittels FTP an alle Rechner jeder Domain verschickt und ordnete jeder IP-Adresse einen eindeutigen Namen zu. Durch das rasante Anwachsen des Internet und der damit verbundenen immer größer werdenden Anzahl von IP-Adressen wäre eine Übermittlung der hosts-Datei mit FTP und das Aktualisieren der Daten zu aufwendig gewesen. Mittlerweile ist die Datei /etc/hosts zu einer beachtlichen Datenbank angewachsen. Sie wird in Zonen aufgeteilt und von sogenannten Domain Name Servern innerhalb der Zone verwaltet. Jeder Domain Name Server sieht also nur einen Teil des gesamten Domain Name Space.13 Es gibt insgesamt drei Hauptkomponenten, aus denen sich der Domain Name Service zusammensetzt.

1. Der Domain Name Space

Der Domain Name Space und die sogenannten Resource Records bilden einen baumartigen, hierarchisch strukturierten Namensraum (siehe Abbildung 10). Unter den Resource Records versteht man Datensätze, die den jeweiligen Knotenpunkten zugeordnet sind.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 10: Domain Name Space (Ausschnitt)

2. Die Name Server

Unter ihnen versteht man Name Server Programme beziehungsweise Rechner, in welchen die Informationen über die Struktur des Domain Name Space verwaltet und aktualisiert werden.

3. Die Resolver

Bei den Resolvern handelt es sich um Programme, die einem Name Server zugeordnet sind und für den Client Anfragen bezüglich der passenden IP- Nummer zu einem Rechnernamen stellen. Kann ein Name Server eine Anfrage nicht beantworten, muß er die Antwort unter Umständen bei anderen Name Servern, mit denen er über Referenzen verbunden ist, erfragen, bevor er sie an den Resolver zurückgibt (siehe Abbildung 11).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 11: Beispiel einer Domain Name Anfrage

Die Zonen, welche die Name Server des Domain Name Service verwalten, beinhalten einen Knotenpunkt im DNS Baum und alle darunterliegenden Zweige. In jeder Zone gibt es aus Sicherheitsgründen mindestens zwei aktive Name Server (primary und secondary), die jeweils ihre nächsthöheren und -tieferen Nachbarn kennen. Somit wird zum Beispiel der Bereich der primary-Server vom DE-NIC betrieben.

Ein kurzer Einschub zum Thema: Client / Server14

In den bisherigen Ausführungen wurden häufig die Begriffe Client und Server verwendet. Dies läßt den Schluß zu, daß das Internet auf einer Client-Server- Architektur basiert. Nachfolgend soll nun geklärt werden, um was es sich eigentlich bei einem Client-Server-System handelt, welche Bedeutung ein solches System für das Internet hat und wie die Kommunikation zwischen einem Client und einem Server im Internet abläuft.

Seit Anfang der 60er Jahre sind Mainframes ein gewohntes Bild des Computer-Zeitalters geworden. Mainframes wie die IBM/370 sowie nicht IBMkompatible Systeme von Bull, Unisys, Siemens oder Tandem prägen immer noch das Bild der Rechenzentren in Unternehmen und Behörden.

Die Systemarchitektur eines Mainframe ist zentralistisch ausgerichtet. Die Zentraleinheit, kurz CPU, steht im Mittelpunkt und setzt sich aus den Komponenten für Verarbeitung, zentrale Speicherung sowie Ein- und Ausgabe zusammen. In der traditionellen Mainframe-Terminal-Umgebung sind alphanumerische Terminals mit der CPU verbunden. Die CPU eines Mainframes zeichnet sich durch schnelle Durchsatzleistungen, große virtuelle Adreßräume und Plattenkapazitäten im GB-Bereich aus. In einer typischen Mainframe-Umgebung ist ein Einsatz von 1000 Terminals keine Seltenheit. So lassen sich Terminals nicht nur in großer Stückzahl, sondern auch über große Entfernungen, zum Beispiel mittels SNA-Links, in eine IBM-Welt integrieren.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 12: Schema einer Mainframe-Architektur

Den oben genannten Vorteilen stehen aber auch Nachteile gegenüber. So kann beispielsweise das Einbinden eines zusätzlichen Terminals dazu führen, daß das gesamte System heruntergefahren werden muß. Bei der Verwendung von Mainframe-Systemen kann in der Regel nicht auf den Einsatz von EDV-

Spezialisten verzichtet werden. Dadurch wird das System unflexibler, und der administrative Aufwand nimmt zu. Andererseits bedeutet die Zunahme von Terminals, daß die Antwortzeiten bei rechenintensiven Prozessen extrem zunehmen. Terminals werden von der CPU des Mainframe über ein TimeSharing-Verfahren gesteuert. Daher nimmt mit der steigenden Anzahl von Terminals die Breite des Zeitfensters pro Terminal ab.

Fällt einmal der Großrechner aus, kommt damit auch das gesamte System zum Erliegen, da die Terminals, die in der Regel nur aus Bildschirm und Tastatur bestehen, nicht eigenständig arbeiten können.

Aufgrund des zunehmenden Kostendrucks und Miniaturisierungszwangs wurden Anfang der 70er Jahre die Mainframes durch die Minicomputer ersetzt. Dadurch änderte sich die Systemarchitektur vom zentralen Großrechner hin zu vielen autarken Abteilungsrechnern. Bei dieser Lösung blieb aber die zentralistische Systemstruktur weiterhin bestehen: Unintelligente Terminals sind im Master-Slave Betrieb mit einem Host verbunden, Informationen werden weiterhin zentral bearbeitet.

Als Mitte der 70er Jahre die ersten stand-alone Personal Computer auf den Markt kamen, traten sie den Siegeszug gegen die etablierten Mainframes an. Sie zeichneten sich durch die einfache, nüchterne Philosophie aus, die Rechnerleistung dort zur Verfügung zu stellen, wo sie tatsächlich gebraucht wird - auf dem Schreibtisch des Benutzers.

Als dann zu Beginn der 80er Jahre die ersten PCs in einem LAN miteinander vernetzt wurden, war der Weg zu heutigen Client-Server Architekturen nicht mehr weit. Mit dem Client-Server Gedanken sind unweigerlich mehr Unabhängigkeit, Flexibilität und Erweiterbarkeit verbunden. Unabhängigkeit wird dadurch gewährleistet, daß jedem Anwender seine Rechenleistung zur Verfügung steht und diese nicht mit anderen geteilt werden muß. Flexibilität läßt sich erreichen, wenn die Rechenleistung kontinuierlich den Leistungsanforderungen des Anwenders angepaßt werden kann.

[...]


1 vgl. Liu, Peek, Jones, Buus, Nye 1995, S. 1 ff

2 vgl. Hajer, Kolbeck 1994, S. 15

3 Die Daten für die Grafiken stammen aus dem Buch „Internet: Der Schnelle Start ins weltgrösste Rechnernetz“ von Hans Hajer und Rainer Kolbeck, erschienen 1994 beim Markt und Technik, Buch- und Software-Verl.

4 vgl. Liu, Peek, Jones, Buus, Nye 1995, S. 1 f

5 vgl. Haje, Kolbeck 1994, S. 13

6 vgl. Liu, Peek, Jones, Buus, Nye 1995, S. 3 f

7 H. Witte: Der Internet-Kollaps. In: PC-Welt-Extra 5/96, S. III

8 vgl. Liu, Peek, Jones, Buus, Nye 1995, S. 9

9 vgl. Krückeberg, Spaniol 1990, S. 490

10 vgl. Zenk 1994, S. 217 ff

11 vgl. Liu, Peek, Jones, Buus, Nye 1995, S. 13

12 vgl. Liu, Peek, Jones, Buus, Nye 1995, S. 14

13 vgl. Liu, Peek, Jones, Buus, Nye 1995, S. 15

14 vgl. Zenk 1994, S. 704 ff

287 von 287 Seiten

Details

Titel
Einrichten eines WWW-Servers für die Fachhochschule Ludwigshafen am Rhein
Hochschule
Hochschule Ludwigshafen am Rhein  (Rechenzentrum)
Note
sehr gut
Autor
Jahr
1997
Seiten
287
Katalognummer
V5213
ISBN (Buch)
9783656058403
Dateigröße
1688 KB
Sprache
Deutsch
Schlagworte
WWW Internet Web-Server Einrichten Informatik Wirtschaftsinformatik Linux
Arbeit zitieren
Guido Frisch (Autor), 1997, Einrichten eines WWW-Servers für die Fachhochschule Ludwigshafen am Rhein, München, GRIN Verlag, https://www.grin.com/document/5213

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Einrichten eines WWW-Servers für die Fachhochschule Ludwigshafen am Rhein


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden