Integration von CNC-Steuerungen in ein neu zu konzipierendes Netzwerk


Diplomarbeit, 2003

81 Seiten, Note: 1,3


Leseprobe

Inhalt

VORWORT

1 EINLEITUNG
1.1 VORSTELLUNG DER FIRMA
1.2 AUFGABENSTELLUNG

2 RISIKOANALYSE

3 NETZWERKPLANUNG
3.1 IST-ZUSTAND DES NETZWERKES
3.2 SOLL-ZUSTAND DES NETZWERKS

4 HARDWAREPLANUNG DES SERVERS

5 SOFTWAREPLANUNG
5.1 NÖTIGE SOFTWAREPAKETE UND DEAMONS AUF DEM SERVER
5.2 DAS BETRIEBSYSTEM LINUX
5.3 DHCP (DYNAMIC HOST CONFIGURATION PROTOCOL)
5.4 HINTERGRUND DER ENTSTEHUNG VON DNS (DOMAIN NAME SYSTEM)
5.5 WAS IST SAMBA?
5.6 UPSMAN
5.7 BACKUPSOFTWARE FLEXBACKUP

6 INSTALLATION VON SOFTWAREPAKETEN UNTER SUSE LINUX:
6.1 INSTALLATION UND KONFIGURATION VON LINUX
6.2 PARTITIONIEREN
6.3 AUSWAHL DER LINUX-SOFTWARE KOMPONENTEN
6.4 RAID
6.5 NETZWERKKARTEN KONFIGURIEREN
6.6 KONFIGURIEREN DER DIENSTE
6.7 BENUTZER ANLEGEN
6.8 PROBLEMLÖSUNGEN:

7 EINBINDUNG EINER CNC-STEUERUNG IN EIN NETZWERK
7.1 STEUERUNGEN IM NETZ
7.2 STEUERUNGEN IM NETZWERK - IST ZUSTAND
7.3 STEUERUNGEN IM NETZWERK - SOLL ZUSTAND
7.4 INBETRIEBNAHME
7.5 KONFIGURATION
7.6 FTP-SERVER EINRICHTEN
7.7 BEDIENUNG DER CNC

8 FAZIT UND AUSBLICK

GLOSSAR

LITERATURVERZEICHNIS

WWW-VERWEISE IM INTERNET

ABBILDUNGSVERZEICHNIS

TABELLENVERZEICHNIS

ANHANG

A DHCP - DHCP.CONF

B

DNS KONFIGURATIONSDATEIEN

C SAMBA - SMB.CONF

D BACKUP - FLEXBACKUP.CONF

E RESOVER UND HOST

F CRONJOB - CRONTAB

G PLATINENLAYOUT IPC@CHIP

H DOKUMENTATION CNC2NET

Vorwort

Durch den Fortschritt der heutigen Client/Server-Architektur für Netzwerkanbindungen liegt es auf der Hand, auch im Hause Engelhardt darüber nachzudenken, wie diese Technik für Produkte genutzt werden kann. Dabei stellt sich unter anderem die Frage, wie eine hohe Datensicherheit und gleichzeitiger Datenschutz gewährleistet werden können. Unter diesen Gesichtspunkten wurde das Thema für diese Diplomarbeit gesehen. Sie musste innerhalb von drei Monaten fertiggestellt sein. Die Realisierung des Themas „Integration von CNC- Steuerungen in ein neu zu konzipierendes, auf Daten- und Zugriffssicherheit optimiertes Netzwerk“ konnte nur mit Unterstützung eines Projektteams erfolgen. Hierbei möchte sich der Autor besonders bei seinen rumänischen Kollegen bedanken.

1 Einleitung

1.1 Vorstellung der Firma

Die Firma Engelhardt GmbH ist eine mittelständische Firma in Bruchsal und besteht seit über 20 Jahren. Es werden zwölf Mitarbeiter beschäftigt. Von diesen sind zwei in der Entwicklung, fünf in der Fertigung und fünf in der Verwaltung tätig. Das Hauptprodukt der Firma Engelhardt sind CNC-Controller. CNC ist die Abkürzung für „computerized numerical control“ und bedeutet Maschinensteuerung durch eingebauten Rechner. Die Technik zur Herstellung der CNC-Steuerungen wird von der Firma seit über 20 Jahren mit Erfolg betrieben. Ideen und Leistungen von Werkstattmitarbeitern, Maschinenbauern und Ingenieuren fließen permanent in die Entwicklung ein. In der Herstellung werden drei CNC-Serien unterschieden. Dabei handelt es sich bei der Serie D um die Drehversion, bei der Serie F um die Fräseversion und schließlich bei der Serie P um die Positionierversion. Der Produktionsablauf fußt auf dem neuesten Stand der Technik und wird stets weiterentwickelt. Die Produkte beinhalten ein Maximum an Anwenderfreundlichkeit und Flexibilität und bestechen durch eine ausgewogene Bedienerergonomie. Im Bereich des speziellen Maschinenbaus gibt es täglich neue Kundenansprüche, denen wir Rechnung tragen müssen. Es ist jedoch eines der Unternehmensziele, diese Herausforderungen anzunehmen und entsprechend den Kundenwünschen umzusetzen.

Die Angebotspalette beschränkt sich nicht nur auf die Fertigung der CNC- Controller, sondern dem Kunden wird auch das nötige komplette Equipment angeboten. Von der Firma Engelhardt GmbH können sich die Kunden Schaltschränke und Antriebseinheiten bis hin zu einer leistungsfähigen, userorientierten Software anbieten lassen. Mit der Produktpalette hat man sich am Markt eine namhafte Stellung geschaffen, so dass die Konkurrenz bekannter Hersteller von mechanischen Automatisierungsbestandteilen nicht gefürchtet werden muss.

Der Bereich Entwicklung umfasst sowohl die Qualitätssicherung schon bestehender Produkte als auch die Erforschung und Verwirklichung von Ideen der Mitarbeiter bzw. der Anforderungen, die vom Kunden herangetragen werden. Mit dem Unternehmensziel der Kundenzufriedenheit ist es der Firma gelungen, sich auf diesem Fertigungssektor einen Namen zu machen.

1.2 Aufgabenstellung

Zu Beginn der Ausbildung in der Firma Engelhardt GmbH stellte der Autor fest, dass in dem Betrieb ein Netzwerk vorhanden war. Es dauerte nicht lange, festzustellen, dass dieses Netzwerk nicht mehr richtig betreut wurde. Der bisher verantwortliche Systemadministrator war seit längerer Zeit aus der Firma ausgeschieden. Der Zustand des Netzwerkes verschlechterte sich immer mehr. Die Gründe hierfür waren verschiedener Art. Es kamen immer neue Rechner ins Netzwerk. Die Datenlast innerhalb des Netzes hatte sich enorm vergrößert. Der Server war für diese Leistung nicht ausgelegt und hatte daher immer mehr Ausfälle zu verzeichnen. Diese Gründe gaben den Anlass zur Aufgabenstellung, ein neues Netzwerk zu planen. So entstand das Thema zu dieser Diplomarbeit.

Eine erste Teilaufgabe ist es, das gesamte Netzwerk der Firma auf einen aktuellen Stand zu bringen. Hierbei sollen Kosten, Sicherheit, Zuverlässigkeit und Geschwindigkeit die Hauptaspekte sein.

Eine weitere Teilaufgabe dieser Aufgabenstellung beschäftigt sich mit der Integration von CNC-Steuerungen in ein Netzwerk. Diese Aufgabenstellung ergibt sich aufgrund des Auftrags eines Kunden, der 10 CNC Steuerungen in sein Firmennetzwerk eingebunden haben möchte. Diese CNC-Steuerungen sollen sowohl von der Steuerung selbst als auch von einem PC im Büro angesprochen werden können. Der Kundenauftrag wurde zwischenzeitlich realisiert und ist beim Kunden in Betrieb gegangen.

2 Risikoanalyse

Ziel einer Risikoanalyse ist es, Schwachstellen in einem System zu finden, um gezielt Gegenmaßnahmen treffen zu können. Zu den Schwachstellen können sogenannte Zero-Administration-Produkte (Produkte, die angeblich kaum bis keine Wartung benötigen) gehören. Ein Beleg für ein solches Sicherheitsrisiko ist die Ausbreitung von Würmern wie etwa „SQL-Slammer“, „Lion-Wurm“, „Linux.Svat“ usw. Werden Server-Dienste angeboten, genießt das Thema Sicherheit höchste Priorität. Letztendlich ist der Systemadministrator für den reibungslosen Ablauf der Datenverarbeitung und deren Sicherheit verantwortlich. Kommt es hinsichtlich der Sicherheit zu Problemen, wird der Systemadministrator als erstes um eine Stellungnahme gebeten und gleichzeitig werden entsprechende Lösungsansätze verlangt. Aus diesem Grund ist es wichtig, sich bereits im Vorfeld mit dem Thema Sicherheit zu beschäftigen und auseinander zusetzen. Dies muss erfolgt sein, bevor der Server in Betrieb genommen wird. Gegen alle Sicherheitsrisiken kann man sich wohl nie schützen. Es muss jedoch das Ziel sein, einen hohen Sicherheitsstandard als Administrator zu setzen. Dieses kann bereits mit relativ einfachen Mitteln erzielt werden.

In allen Bereichen, in denen Passwörter verlangt werden, sollte der Administrator entsprechende Vorgaben machen. Hierzu gehören alphanumerische Passwörter mit mindestens acht Stellen, wobei Namen, Vornamen ausgeschlossen werden sollten und eine Änderung nach bestimmten Zeitabständen vom System erzwungen wird. Man sollte stets stärkere Verschlüsselungsalgorithmen für Passwörter verwenden (MD5 oder Blowfish) und versteckte Passwörter aktivieren (/etc/shadow).

Nicht benötigte Dienste wie etwa xntpd oder rpasswdd sollten deaktiviert werden. Das trifft gerade bei einer Linux Basisinstallation zu, bei der häufig Dienste installiert werden, für die der Betreiber keine Verwendung hat. Ebenso sollten installierte aber nicht benötigte Programme gelöscht werden. Jeder Dienst und jedes Programm stellt theoretisch eine Sicherheitslücke dar.

Benutzer, die sich nicht an der Konsole anmelden müssen (z.B. Samba!), sollten in der Datei /etc/passwd die Shell /bin/false hinterlegt werden.

Um den Zugang via FTP nicht autorisierten Benutzern zu verweigern, müssen diese in der Datei /etc/ftpusers eingetragen werden.

Die Dateien /etc/hosts.allow und /etc/host.deny machen es möglich, (nur) bestimmten Rechnern die Kommunikation zu verbieten (zu erlauben). Weiterhin sollte das System regelmäßig per Update gewartet werden. Nur ein aktuelles System, auf dem Patches auch eingespielt werden, kann stabil sein. Änderungen an Programmen und Dateien müssen protokolliert werden. Hierzu gehört die Aufzeichnung in eine Log-Datei von Datum, Uhrzeit und User, der diese Änderungen vorgenommen hat.

Last but no least der wohl entscheidende Punkt: Der verantwortliche Systemadministrator darf sich nicht hetzen lassen oder sich selbst unter Zeitdruck setzten. Ein funktionelles System mit Anspruch auf ein hohes Maß an Sicherheit verschlingt oft viel Zeit an Wartung und Pflege. Ein solches Systeme lässt sich nicht in wenigen Minuten administrieren, auch wenn diverse Software-Firmen das Gegenteil behaupten.

3 Netzwerkplanung

Im Gebäude der Firma Engelhardt existieren zwei Firmen: Die Firma Engelhardt GmbH selbst und die Firma WBT GmbH. Beide greifen über das Netzwerk auf den gleichen Server zu. Aus den bereits geschilderten Gründen der Netzwerküberlastung und Serverausfällen waren beide Firmen stark daran interessiert, diesen Zustand abzustellen und ein neues leistungsfähiges Netzwerk mit einem neuen Server zu installieren. Dem Autor wurde die Planung und Realisierung dieser Aufgabe übertragen.

Die erste Phase dieser Diplomarbeit beschäftigt sich mit einer ausführlichen Planung des Netzwerkes und des Servers.

Die im alten Netzwerk installierten Windowsclients sollen keine großen Veränderungen erfahren. Daraus ergibt sich, dass durch die alte Struktur in dieser Hinsicht bereits der Rahmen festgelegt ist. Hierbei soll jedoch beachtet werden, dass das Netzwerk in Zukunft schneller, sicherer und vor allem übersichtlicher gestaltet wird.

Um diesen Kriterien Rechnung zu tragen, wird eine Netzwerkanalyse durchgeführt. Bei dieser Analyse ist festzuhalten, welche Softwarepakete auf dem derzeitigen Server laufen, wie das Netzwerk strukturiert und wie die Netzwerklast verteilt ist.

3.1 Ist-Zustand des Netzwerkes

Das alte Netzwerk ist aufgrund der zu verteilenden Datenlast in drei Subnetze gesplittet. Dies wird durch drei Netzwerkkarten im Server erreicht. Jeweils ein Subnetz ist für die Entwicklung , Produktion und Büro/WBT zuständig. Sie werden mit Hubs vom Server angesprochen. Im Subnetz der Entwicklung sind ca. acht Arbeitsplätze ständig im System eingeloggt. Hinzu kommen noch ein Backupsystem, ein CAD-System und der DSL-Router. Im Subnetz der Produktion existieren vier Arbeitsplätze. Im Subnetz von Büro und WBT werden ca. fünfzehn Arbeitsplätze bereitgestellt. Dazu kommen noch drei Printserver mit je zwei Druckern,Verwaltungssystem (BBS) und ein Fax-System.

Der Server, mit dem das Netzwerk bisher betrieben wurde, ist ein PC mit dem Betriebsystem SuSE Linux 6.2. Er ist ausgestattet mit einem Intel Pentium II 400 MHz Prozessor, 128 MB SD-RAM, 2 mal 4 GB SCSI Festplatten und drei 3COM Netzwerkkarten. Auf diesem System laufen veraltete und nur minimal konfigurierte Versionen von DHCP, DNS und Samba. Eine detaillierte Rechtevergabe ist nicht vorgesehen.

3.2 Soll-Zustand des Netzwerks

Ausgangspunkt für das neue Gesamtkonzept des Netzwerks ist die Frage: „Was muss verbessert werden?“. Unter dieser Betrachtungsweise wird das Gesamtkonzept gesehen. Da in den beiden Firmen in Zukunft sehr stark mit Netzwerkanbindung gearbeitet wird, muss zunächst der Adressbereich der Netzwerke überarbeitet und vergrößert werden. Im Adressbereich muss die Möglichkeit bestehen, IP-Adressen dynamisch anzufordern. Weiterhin ist zu berücksichtigen, dass für jedes Subnetz ein bestimmter Adresspool von festen IP- Adressen besteht, auf die der DHCP-Server nicht zurückgreifen darf. Die drei Subnetze sollen in ihrer jetzigen Form bestehen bleiben. Allerdings werden aufgrund der hohen Netzlast einige Veränderungen vorgenommen. Die Bereiche Entwicklung und Produktion werden zusammengelegt. Die Bereiche Büro und WBT werden voneinander getrennt. Die Hubs werden zum größten Teil durch Switches ersetzt. Die Hardware des Servers wird komplett erneuert. Das Backupsystem wird in den Server integriert. Es wird eine der aktuellsten SuSE Distribution mit den neuesten Diensten und Programmen installiert werden. Verschiedene Hardwarekomponenten wie zum Beispiel RAID, USV und ein Bandlaufwerk werden zusätzlich installiert. Ein Benutzerkonzept mit der detaillierten Vergabe von Rechten und Gruppen wird erarbeitet und realisiert.

4 Hardwareplanung des Servers

Das Betriebsystem Linux ist bei der Hardwareanforderung weniger anspruchsvoll als windowsbasierte Server. In kleinen Netzwerken wie bei der Firma Engelhardt ist es kein Problem, verschiedene Dienste auf einem Serversystem laufen zu lassen. In größeren Netzwerken müssten die Dienste auf mehreren Linux-PCs verteilt werden. Wichtig bei der Planung der Hardware ist die Verfügbarkeit von Treibern der Hardwarehersteller. Es ist sehr zu empfehlen, sich vorab bei den einzelnen Firmen zu informieren, inwieweit ihr Produkt mit Linux lauffähig ist. Ein wichtiges Kriterium, dem man Bedeutung zumessen muss, ist die Ausfallsicherheit. Als Beispiel dafür, die Ausfallsicherheit zu erhöhen, soll der Sachverhalt dienen, so wenig Lüfter wie möglich auf den Hardwarekomponenten innerhalb des Server laufen zu lassen. Es gibt mittlerweile kaum noch Grafikkarten- oder Mainboardhersteller, die keinen Lüfter auf ihren Chips haben. Kleine Lüfter haben die Neigung, schnell zu verstauben und in der Folge stehen zu bleiben, was zu Störungen führt.

Da der Rechner gleichzeitig als Daten-Server dienen soll, muss ausreichend Arbeitsspeicher und Festplattenkapazität zur Verfügung gestellt werden. Unter der Berücksichtigung dieser Aspekte habe ich mich zu folgender Hardware entschlossen:

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Verwendete Hardwarekomponenten

5 Softwareplanung

5.1 Nötige Softwarepakete und Deamons auf dem Server

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Installierte Softwarepakete

5.2 Das Betriebsystem Linux

Das Betriebsystem Linux ist aus der Idee entstanden, ein System zu entwickeln, bei dem sich der User bei auftretenden Problemen selbst helfen kann. Grundvoraussetzung dafür ist allerdings, dass er programmieren kann. Aus diesem Grund ist Linux extrem schnell den individuellen Bedürfnissen anpassbar. Linux selbst ist ein frei verfügbares Multitasking- und Multiuser-Betriebssystem. Es wurde 1991 von Linus Torvalds, einem finnischen Studenten, im Alter von 21 Jahren entwickelt. Heute helfen tausende freiwillige Programmierer rund um den Globus mit, Linux weiter zu entwickeln.

Das System stellt mittlerweile alle Funktionalitäten, die von einem modernen Betriebssystemen erwarten werden, zur Verfügung. Echtes Multitasking, dynamisch nachladbare Bibliotheken mit Versionsnummern, virtuelle Speicherverwaltung und andere moderne Konzepte machen dieses Betriebssystem zu einer echten Alternative zur heutigen „Windows Welt“. Schon heute wird Linux von Millionen von Usern erfolgreich genutzt. Die Benutzerstruktur reicht von privaten Nutzern über Schulungsfirmen, Universitäten, Forschungszentren bis hin zu kommerziellen Anwendern und Firmen.

Zur Zeit erfährt Linux die größte Zuwachsrate im gesamten Netzwerkbereich. Die Gründe dafür sind die überragende Netzwerkperformance und entsprechende Sicherheitsfeatures, die zu einer Spitzenposition geführt haben.

Zur Nutzung von Linux wurde von Beginn an die GNU/General Public License erteilt. In dieser Lizenz wurde vereinbart, dass jeder den kostenlosen Zugang zum Quellcode des Linux Betriebsystems erhält. Linux Nutzung ist lizenzfrei, wird also kostenlos verteilt, eingesetzt und darf erweitert werden.

5.2.1 Linux - ein kurzer Rückblick

Das Betriebsystem UNIX gibt es seit geraumer Zeit. Es lief ursprünglich nur auf relativ teuren Hardwarekomponenten. Aufgrund dieser Tatsache verlor das Betriebssystem im Laufe der Zeit immer mehr Marktanteile an die Konkurrenz Microsoft. Die Kombination Windows auf preiswerterer Intel-Hardware bekam immer mehr Zuwachs. Viele Experten waren der Ansicht, dass die Betriebssystem-Sparte UNIX (IBM AIX, HP-UX, SINIX, Sun Solaris, etc.) in Zukunft nur mehr ein Schattendasein führen wird.

Diese Experten hatten jedoch nicht den Boom vorausgesehen, den das Internet auslösen würde. Durch diese Tatsache wurden wieder Millionen von Servern benötigt. Gerade in den Bereichen Web-Server, Mail-Server oder Systeme für Webspace-Provider ist der größte Zuwachs zu beobachten. In jeder Firma wurden plötzlich Netzwerke und die dazu passenden Rechner benötigt, und zwar in einem noch nie da gewesenen Ausmaß.

Heute kann man mit ziemlicher Sicherheit behaupten, dass dieser Internet-Boom die UNIX-Systeme vor dem Verschwinden vom Markt bewart hat. In diesem Zusammenhang spielt Linux eine wichtige Rolle. Dieses frei verfügbare Betriebssystem konnte erst durch das Internet seine Entwicklung nehmen. Wichtig dabei ist, dass hinter Linux keine einzelne Entwicklungsfirma steht, von der die Richtung der Entwicklung vorgegeben wird. Für die Weiterentwicklung dieses Systems ist, wie bereits erwähnt, eine große Anzahl an freiwilligen Entwicklern zuständig, die per Internet zusammenarbeiten.

Allerdings ist zu beobachten, dass Linux nicht in den Windowsmarkt eindringt, sondern eher als Nachfolgesystem für die teuren UNIX-Systeme eingesetzt wird. Dies kann man durch den leichtern Umstieg von UNIX auf Linux erklären. Der Umstieg von Windows auf Linux ist sicherlich schwieriger. Die Mehrzahl der Windows-Anwender ist im privaten Bereich zu finden.

5.2.2 Die SuSE Distribution

Das Betriebsystem Linux ist nur der Kernel, ohne Software. Die dazugehörige Software wird von sogenannten Distributoren vertrieben. Einer dieser Distributoren ist die SuSE AG. Diese Entwicklungsfirma ist zur Zeit einer der größten Vertreiber von Linuxsoftware weltweit und der größte in Deutschland. Ein Distributor stellt ein komplettes Paket zusammen, welches aus Handbüchern und eigenen Programmen (etwa Systemadministration, Installationsroutinen etc.) besteht. Diese Komplettpakete werden auf mehreren CD’s ausgeliefert. Außerdem bietet er Updates und Patches für seine Produkte an. Des weiteren leistet er Hilfe und Support.

5.3 DHCP (Dynamic Host Configuration Protocol)

Die Abkürzung DHCP steht für Dynamic Host Configuration Protocol. Mit Hilfe dieses Dienstes lässt sich ein Netzwerk zentral verwalten. Es vergibt für jeden, der sich im System anmeldet, eine IP-Adresse. Weiterhin hält es Informationen über DNS-Server, Gateways etc. bereit.

Das DHCP arbeitet über die TCP-Ports 67 und 68. Es besitzt eine Client/Server- Architektur, die sich wie folgt zusammensetzt:

Der DHCP-Server verwaltet zentral alle Informationen über ein Netzwerk. Bei Anfragen von Clients teilt er diesen die gewünschte Information (IP-Adresse etc.) mit.

Bei Anmeldung von DHCP-Clients besitzen diese noch keine Information über das Netzwerk, dem sie angehören sollen. Daher senden sie eine Broadcast in das Netzwerk und warten auf Antworten.

Jede Netzwerkkomponente ist durch die MAC-Adresse eindeutig. Durch diese Adresse kann der DHCP-Server differenzieren, um welche Netzwerkkarte es sich handelt.

Das DHCP lässt sich auf verschiedene Arten konfigurieren. Eine davon ist die dynamische Variante. Dem DHCP-Server wird ein bestimmter Pool an IP- Adressen zugewiesen, die er an die Clients vergeben darf, wenn diese eine Anfrage senden. Es kann allerdings nicht garantiert werden, dass jeder Client bei seiner Anmeldung immer die gleiche IP-Adresse bekommt. Dies kann unter Umständen zu Problemen führen. So sollte sich z.B. bei einem Printserver, der im Netzwerk installiert ist, die IP-Adresse nie ändern, da sonst die Clients die Drucker nicht mehr finden. Dafür gibt es eine zweite Variante, den DHCP zu konfigurieren. Die statische Variante legt über die MAC-Adressen fest, welche IP-Adresse eine Netzwerkkarte bekommen soll. Damit besitzt diese Netzwerkkarte immer dieselbe IP-Adresse. Die beiden Konfigurationen können auch gemischt werden, sodass IP-Adressen prinzipiell zwar dynamisch vergeben werden, einige Clients aber immer dieselbe IP-Adresse bekommen. Erst ab einer gewissen Netzwerkgröße lohnt es sich, einen DHCP Deamon einzurichten. Bei einem kleinen Heim- Netzwerk, das aus zwei Computern und einem Drucker besteht, ist ein DHCP eventuell überdimensioniert. Sobald aber ein Netzwerk aus etwa zehn Komponenten, wie z.B. PCs, Laptops, Drucker etc. besteht, lohnt sich DHCP bereits.

Einen großen Vorteil bringt das DHCP allerdings bei häufigeren Änderungen der Konfiguration der Hardware (hinzufügen und entfernen von Rechnern, Kundenlaptops etc.). Durch das DHCP ist nun kein manuelles Konfigurieren mehr erforderlich. Dadurch kommt es nicht mehr zu Konflikten mit bereits vergebenen IP-Adressen, das Anstecken des Geräts an den Switch (oder Hub) und die Einstellung, dass sich die Netzwerkkarte per DHCP konfigurieren soll, genügt.

DHCP bringt jedoch nicht nur Vorteile. Der DHCP-Server muss ständig in Betrieb sein. Das bedeutet natürlich bei neueren Rechnern einen größeren Stromverbrauch. Um den Stromverbrauch zu minimieren, kann hier ein älterer, bereits ausgemusterter Rechner als DHCP-Server fungieren. Er sollte über einen Prozessor der Generation 486 bis Pentium und 16 bis 32 MB RAM verfügen. Da die ganze Funktion eines Netzwerkes von diesem Rechner abhängig ist, darf es also zu keinem Ausfall dieses PCs kommen. Hier sollte man über eine Kostennutzenanalyse abwägen, was einem der sichere Ablauf der Datenverarbeitung wert ist. Sicherheit kann durch einen zweiten identischen DHCP -Server geschaffen werden, der erst bei Bedarf aktiviert wird. Zu beachten ist jedoch, dass Änderungen an der Konfiguration immer auf beiden Servern durchgeführt werden müssen oder dass zumindest immer eine Kopie der aktuellen Konfiguration vorhanden ist.

DHCP funktioniert unabhängig vom Betriebssystem. Hat man einen DHCP-Server mit Linux realisiert, so können Windows- und Apple-Rechner genauso ihre IPAdresse per DHCP bekommen wie Rechner mit Linux oder Drucker mit Netzwerkanschluss.

Der DHCP-Server ist eine Entwicklung vom Internet Software Consortium (ISC, http://www.isc.org/). Das ISC ist eine Non-Profit-Organisation, die auch den DNS- Server BIND und den News-Server INN entwickelt hat. Dazu ist der DHCP-Server OpenSource-Software und kostenlos zu erhalten. Andere DHCP-Server, zum Beispiel vom Microsoft, sind meist relativ teuer oder nur in teureren Produkten (Windows 2000 Server etc.) zu finden.

Der DHCP kann via YaST installiert werden. Das manuelle Kompilieren bringt keine Vorteile und es sind kaum Features erhältlich.

5.4 Hintergrund der Entstehung von DNS (Domain Name System)

Jeder Rechner, der an ein Netzwerk angeschlossen ist, besitzt eine Adresse. Diese ist vergleichbar mit einer Telefonnummer und wird durch Ziffern dargestellt. Jede Adresse besteht aus vier Blöcken mit bis zu drei Zahlen. Jeder dieser Blöcke setzt sich aus einer achtstelligen Bitzahl zusammen. Für den Menschen ist es mit- unter schwierig, sich solche Zahlen zu merken. Man ging daher den Weg, den Rechnern Namen zu geben. Nun stellt sich die Frage, wie ein Benutzer eine Verbindung zwischen zwei Rechner herstellen kann, von denen er nur den Namen, aber nicht die IP-Adresse des Rechners hat. Hier die Erläuterung dazu: Die zu Anfang verwendete Methode funktionierte so ähnlich wie ein Telefonbuch. Es gab eine Datei mit Namen „HOSTS.TXT“. Diese Datei wurde bis 1984 vom Network Information Centre (NIC) in Form einer großen Tabelle verwaltet. Alle beteiligten Rechner haben diese Tabelle in regelmäßigen Abständen per FTP ausgetauscht. Der Inhalt war eine einfache Textdatei, in der der Name, die IP und noch einige andere Informationen über den Rechner gespeichert waren (Der genaue Aufbau wird in RFC-952 beschrieben).

Die Nachteile dieser Art der Namensverwaltung liegen auf der Hand. Schnell vergrößerte sich diese Datei mit wachsender Anzahl der Rechner. Auch die Netzwerkbelastung und die Zugriffgeschwindigkeit auf dem Rechner, der die Hauptdatei zur Verfügung stellte, wurde inakzeptabel hoch. Je größer die Datei wird, desto unübersichtlicher wird sie. Auch die Zugriffszeiten dauern länger. Das Verfahren war ziemlich unflexibel. Jede Änderung musste, bevor sie für die anderen Teilnehmer sichtbar wurde, in die globale Datei eingetragen und an alle verteilt werden. Eine Änderung braucht also einige Zeit, bis sie wirklich im gesamten Netz bekannt ist. Daraus ergibt sich auch, dass man permanent mit potentiell veralteten Informationen arbeiten muss.

Eine solche Vorgehensweise ist nur in kleinen Netzen sinnvoll. Dennoch findet man sie auch noch in heutigen Systemen. Unter Linux befindet sich diese Information in der Datei hosts (/etc), in der IPs und Rechnernamen eintragen werden. Unter Windows liegt diese Datei in \WINDOWS\SYSTEM und heißt lmhosts.

5.4.1 Warum gibt es das DNS?

DNS wurde entwickelt wegen der großen Nachteile des alten Systems. Diese Nachteile waren, wie bereits erwähnt, durch das enorme Wachstum und der sich verändernden Struktur des Internets zu sehen.

Organisationen mit eigenen Netzen, die mit eigenen Namen verwaltetet wurden, mussten immer warten, bis seine aktuelle hosts.txt übersandt wurde. Dies gab den Anlass, 1984 das Domain Name System (DNS) einzuführen.

5.4.2 Was ist das DNS?

Das Domain Name System besteht aus dem Domain-Namensraum und zugehörigen Resource-Records. Sie bilden eine baumartige Struktur (siehe Abb.1). Hier sind jedem Blatt und jedem Knoten ein bestimmter Satz von Informationen zugeordnet. Eine Anfrage an das DNS beschreibt nun den Namen im Baum und die gewünschte Information.

Die Nameserver stellen einen weiteren Bestandteil dar. Die Informationen über die Struktur des Namensraumes und der Informationen werden über sie verwaltet. Der Resolver stellt die Schnittstelle zwischen Benutzer und DNS dar.

Ein Ausschnitt aus dem DNS-Baum ist in Abbildung 1 zu sehen:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1: Ausschnitt aus dem DNS-Baum

5.5 Was ist Samba?

Mit Samba wurde ein Produkt entwickelt, das die Betriebsysteme von Windows und Linux auf der Ebene der Datei- und Druckerfreigabe verbinden soll. Der Begriff Samba selbst ist ein Wortspiel des Entwicklers, mit dem er die Firma Microsoft zum Tanz gebeten hat.

Das Produkt Samba beinhaltet zwei Programme, eines für den Sambaserver und eines für den Sambaclient. Mit dem Sambaserver ist man in der Lage, auf einem Linux-Rechner Netzwerkressourcen freizugeben, auf die ein Rechner mit einem Windowssystem zugreifen kann. Mit dem Sambaclient kann man auch problemlos Netzwerk-Freigaben von Windows-Systemen auf einem Linux-System mounten. Desweiteren besteht die Möglichkeit, PDC (Primary Domain Controller für Windows-Netzwerke) mit Samba einzusetzen. Ein PDC kann die zentrale Benutzerverwaltung in einem Windows-Netzwerk übernehmen.

Zusätzlich kann man mit Samba Netzwerkdrucker einbinden. Wichtig ist dabei eigentlich nur, dass Linux mit dem Drucker kommunizieren kann. Das Protokoll, mit dem in Windows-Netzwerken Dateien ausgetauscht werden, heißt SMB (Server Message Block).

Mit Samba ist ein sehr mächtiges Programm entwickelt worden. Entwickler haben ohne Hilfe des Herstellers Mircosoft einen Teil eines Betriebssystems (fast) vollständig nachgebildet. Ein Windows-Rechner interagiert mit einem Linux- Rechner über Samba mittlerweile genauso gut wie mit einem anderen Windows- Rechner.

Aktuell ist Samba in der Entwicklungsstufe 2, die genaue Versionsbezeichnung (z. B. 2.2.7a) schwankt je nach Distribution. An der Entwicklungsstufe 3 wird intensiv gearbeitet. Mittlerweile ist sie schon als Samba-3.0alpha herunterzuladen. Viele neue Funktionen wie etwa, Dateien in Unicode-Format zu übertragen oder Gruppenbasierte Zugriffsrechte von Windows-Domänenmitglieder warten hier auf ihren Einsatz.

5.5.1 Wie funktioniert Samba?

Linux und Windows sind zwei Betriebssysteme, die von ihren technischen sowie ideologischen Grundlagen kaum verschiedener sein könnten. Um so erstaunlicher ist die Tatsache, wie gut dieses Programm den Datenaustausch zwischen beiden Systemen bewerkstelligt.

Das Programm lässt sich in der Praxis ohne Schwierigkeiten einsetzen. Zu Beginn ist die Konfiguration etwas schwierig. Ist Samba einmal den Wünschen entsprechend eingerichtet, läuft es ohne weitere Eingriffe problemlos. Eines der größten Probleme, die bei der Entwicklung von Samba überwunden werden mussten, war der gravierende Unterschied der Benutzerverwaltung von Windows und Linux. Aus diesem Grund muss jeder Benutzer, der auf Sambafreigaben zugreifen will, dreimal existieren. Zum einen als normaler Windowsbenutzer. Daneben muss ein Benutzer auf dem Linuxrechner vorhanden sein, und außerdem für Samba angelegt werden. Hier empfiehlt es sich, stets mit gleichem Namen und Passwort in den verschiedenen Systemen zu arbeiten, um Benutzern Verwirrung und wiederholte Passwort-Eingaben zu ersparen.

5.6 UPSMAN

Ein sehr großes Problem für die Datenverarbeitung ist ein möglicher Stromausfall. Da nicht alle Daten sofort auf die Festplatte zurückgeschrieben werden, kann man davon ausgehen, dass es bei einem plötzlichen Stromausfall zu Inkonsistenzen oder Datenverlusten im Dateisystem kommt. Im schlimmsten Fall lässt sich der Rechner nicht mehr richtig booten.

Um diesem Problem vorzubeugen, ist es zu empfehlen, eine unterbrechungsfreie Stromversorgung (USV) einzusetzen. Sie hat die Aufgabe, bei einem Stromausfall das System eine gewisse Zeit (dies hängt von der Qualität und Beschaffenheit der USV ab) weiter mit Strom zu versorgen. In der verbleibenden Zeit können die Daten ordnungsgemäß auf die Platten zurückgeschrieben und der Server anschließend geordnet heruntergefahren werden.

Die USV-Anlage wird einfach zwischen Server und Stromversorgung geschaltet. Zusätzlich werden die erste serielle Schnittstelle des Servers und die USV-Anlage mit einem seriellen Kabel RS232 verbunden.

Für Windows und Novell wird die entsprechende Software mitgeliefert. Für Linux muss man sich die Software aus dem Internet herunterladen. Dafür gibt es sehr verschiedene Möglichkeiten. In diesem Projekt hat man sich für das Programm UPSMAN entschieden, da es von den Herstellern der USV-Anlage auf ihrer Webseite zum download bereit steht.

5.7 Backupsoftware Flexbackup

Unter einem Backup versteht man die Sicherung der Daten eines oder mehrerer Datenträger. Eine beträchtliche Gefahr für die Datenverarbeitung sind Datenverluste durch Hardwaredefekte, vor allem bei Festplatten. Daher ist es notwendig, Datenverlusten vorzubeugen und sich vor ihnen zu schützen. Ein regelmäßiges Backup ist hierfür der richtige Lösungsansatz. Die Datensicherung soll es ermöglichen, bei einem Plattencrash die Daten bis zu einem ganz bestimmten Zeitraum wieder zu erstellen, so dass der Anwender den alten Datenzustand mit keinerlei oder nur geringen Verlusten wieder zur Verfügung hat. Im unternehmerischen und behördlichen Bereich sind Backups unabdingbar. Auch im privaten Bereich kann man sich eine Menge Ärger und Zeitaufwand ersparen, wenn man eine regelmäßige Datensicherung durchführt.

Die durchschnittliche Lebensdauer einer Festplatte beträgt laut Testberichten von Chip und PC-Welt fünf bis sieben Jahre. Also ist es absehbar, dass eine Festplatte ausfällt und nicht mehr funktioniert. Eine andere Ursache für den Datenverlust kann ein Anwenderfehler sein, verursacht durch einen Tippfehler bei dem Kommando wie: „rm -rf / root/tmp“, welches als Benutzer „root“ ausgeführt alle Dateien von der Festplatte löscht. Weiter können Stromausfälle oder einfach nur das Drücken des Hardwareresets zu Datenverlusten führen. Viren sind unter Linux zwar kaum ein Thema, aber die Existenz bösartiger Shell- oder Perl-Skripte können nicht ausgeschlossen werden. Wie sollte ein Backup durchgeführt werden?

Jede Art von Datensicherung ist besser als deren Unterlassung. Doch ein organisiertes Backup durchzuführen bedarf einiger Planung im Vorfeld. Schon beim Installieren ist dafür zu sorgen, dass sensible Daten leicht gesichert bzw. zurück gespielt werden können. Aus Foren (www.linuxboard.de, www.linux- forum.de) habe ich einige Erfahrungen gesammelt. Sie zeigen, dass man private Daten und sonstige Dokumente in seinem privaten Ordner („/home“) speichert. Es ist empfehlenswert, diesem Verzeichnis eine eigene Partition zu geben. Der Vorteil hierbei ist, dass man bei der Neuinstallation des Systems, bei einem Upgrade oder bei Wechsel der Distribution seine Daten einfach mitnehmen kann.

Weitere sicherungswerte Dateien befinden sich in „/etc“ (die Konfigurationsdateien), „/engel“ (die Firmendaten von Engelhardt) und „/wbt“ (die Firmendaten von WBT).

5.7.1 Backup-Arten

Vollbackup

Unter einem Vollbackup versteht man die gesamte Sicherung aller Daten eines Systems bzw. der gewünschten Verzeichnisse. Zusätzlich wird noch dokumentiert, wann welche Daten gesichert wurden.

Inkrementelles Backup

Aus Gründen der Ineffizienz, ständig alle Daten zu sichern, werden zwischen den Vollbackups in der Regel inkrementelle Backups durchgeführt. Bei einem inkrementellen Backup werden alle Daten, die seit dem letzten Backup (Voll oder inkrementell) neu hinzugekommen oder verändert wurden, gesichert. Der große Vorteil dieses Verfahrens liegt darin, dass nur relativ wenige Daten gesichert werden müssen. Die Backupzeit wird dadurch verkürzt. Der Nachteil dieser Vorgehensweise ist , dass man beim Restore evtl. viele Medien zurück spielen muss.

[...]

Ende der Leseprobe aus 81 Seiten

Details

Titel
Integration von CNC-Steuerungen in ein neu zu konzipierendes Netzwerk
Hochschule
Duale Hochschule Baden-Württemberg, Karlsruhe, früher: Berufsakademie Karlsruhe
Note
1,3
Autor
Jahr
2003
Seiten
81
Katalognummer
V47198
ISBN (eBook)
9783638441964
ISBN (Buch)
9783656068501
Dateigröße
1867 KB
Sprache
Deutsch
Anmerkungen
In dieser Arbeit geht es in erster Linie darum einen Linux-Server zu installieren, ein Netzwerk zu planen und eine CNC-Steuerung in dieses Netzwerk zu integrieren.
Schlagworte
Integration, CNC-Steuerungen, Netzwerk
Arbeit zitieren
Alexander Angele (Autor), 2003, Integration von CNC-Steuerungen in ein neu zu konzipierendes Netzwerk, München, GRIN Verlag, https://www.grin.com/document/47198

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Integration von CNC-Steuerungen in ein neu zu konzipierendes Netzwerk



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden