Das Internet, wie wir es heute kennen, ist ein entscheidender Wirtschaftsfaktor und ein Motor für Entwicklungen sogar außerhalb der IT geworden. Das Geschäftsmodell vieler Firmen ist direkt von der Verfügbarkeit und Verbindungsqualität zum Internet hin abhängig. Eine von den Pionieren dieser Technologie nicht absehbare Entwicklung ist der aktuelle Trend zur Virtualisierung, welcher Einzug in fast allen Bereichen der IT gehalten hat und immer noch hält. Die Netzwerktechnologie, welcher in bisheriger, am Markt verfügbarer Virtualisierungssoftware meist nur eine Nebenrolle zukommt - zur Anbindung der VM - konnte diese Entwicklungen aufgrund ihrer dezentral gewachsenen Architektur bisher nur in sehr begrenztem Maße unterstützen. Als evolutionären Ansatz hat sich seit einiger Zeit OpenFlow etabliert, welcher neue Managementkonzepte in die existierenden Infrastrukturen integriert, ohne dabei radikale Änderungen an Hard- oder Software zu erfordern, was die Barriere der Einführung massiv verringert. Kunden bekommen die Unterstützung für den neuen Standard quasi als Nebenprodukt beim Kauf ihrer Standardhardware.
Ziel der Arbeit soll es sein, für ein Fachpublikum das von OpenFlow vorgestellte Konzept und dessen Umsetzung zu analysieren, es auf die heutzutage in der Netzwerkumgebung auftretenden Probleme zu projezieren und aus dem theoretischen Konzept hinter OpenFlow die zu erwartenden Abweichungen zu einem klassischen Netzwerkbenchmark abzuleiten. Anschließend soll ein Modell entwickelt werden, anhand dessen neu aufgebaute Infrastrukturen bewertet werden können. Ein konsolidierter Katalog zu den Bewertungskriterien soll einen Anhaltspunkt zur Netzwerkbewertung für implementierende Fachkräfte geben. Zudem soll anhand einer exemplarischen Implementierung die Wirksamkeit der Konzepte überprüft werden. Hierzu wird eine Testumgebung aufgebaut anhand derer zu definierende Tests durchgeführt werden. Aus denen in der Testumgebung gewonnenen Erkenntnissen sollen Schlüsse gezogen werden, die Aussichten und Einschränkungen von OpenFlow in der aktuellen Form bewerten. Limitierungen der Technologie werden zudem gesondert betrachtet und Einsatzbereiche daraus abgeleitet werden.
Die zentrale Fragestellung der Arbeit ist: "In wieweit unterscheidet sich das Benchmarking eines OpenFlow-Netzwerks von dem einer klassischen Netzwerkinfrastruktur?". Der Anhang liefert zudem einen detaillierten Testaufbau, um eigene mit denen in der Arbeit gewonnenen vergleichen zu können.
Inhaltsverzeichnis
1 Einleitung
2 Grundlagen
2.1 Benchmarking
2.2 Prototyping
2.3 Netzwerk
2.4 Klassische Netzinfrastruktur
2.5 Switching
2.6 Routing
2.7 Netzwerkvirtualisierung
2.7.1 VPN
2.7.2 VLAN
2.8 Software defined Networking
2.9 Softwarequalität
2.10 Relevante Software
2.10.1 dpctl
2.10.2 taskset
2.10.3 mininet
3 Analyse
3.1 OpenFlow
3.1.1 OpenFlow Konzept
3.1.2 Funktionsweise
3.1.3 Relevanz für die Industrie
3.1.4 Relevanz für die Forschung
3.1.5 Einschränkungen von OpenFlow
3.2 Vorüberlegungen zum Netzwerkaufbau
3.2.1 Einflussfaktoren
3.2.2 Netzwerkaufbau der Testumgebung
3.3 Benchmarking
3.3.1 Klassisches Netzwerk
3.3.2 OpenFlow Netzwerk
3.3.3 Konfiguration der Testumgebung
3.3.4 Konfiguration der Controller
3.3.5 Limitation des Benchmarkings
3.3.6 Ergebnisse
3.4 Wirtschaftliche Faktoren
4 Fazit
Zielsetzung & Themen
Diese Bachelor-Thesis untersucht das Benchmarking von OpenFlow-Netzwerken im Vergleich zu traditionellen Netzinfrastrukturen. Ziel ist es, die spezifischen Anforderungen an die Performancebewertung von OpenFlow-Systemen zu analysieren, ein Bewertungsmodell zu entwickeln und die Anwendbarkeit mittels einer experimentellen Testumgebung zu validieren.
- Grundlagen von OpenFlow und Software-defined Networking (SDN)
- Methoden zur Performancebewertung in klassischen und SDN-Netzwerken
- Entwicklung und Dokumentation einer OpenFlow-Testumgebung
- Einflussfaktoren von Softwarequalität und Controllern auf die Netzwerkleistung
Auszug aus dem Buch
3.1.2 Funktionsweise
In OpenFlow wird die bereits angesprochene Abstraktion über die Steuerung der in allen Switchen als Gemeinsamkeit identifizierte „Forwarding-Table“ realisiert, welche um einen Eintrag zum „Flow“ erweitert und nunmehr als „FlowTable“ genutzt wird. OpenFlow nutzt zur effektiven Kontrolle dieser Abstraktion einen zentralen „OpenFlow-Controller“, welcher die Eigenintelligenz der Switche ersetzt und für das gesamte Netz die Routing und Switching-Entscheidungen trifft. Der Controller ist dabei auf handelsüblicher Host-Hardware (Workstation, Server) implementiert, was die Kosten niedrig hält. Die technischen Details der Implementierung eines Controllers sind offen definiert, so dass ein solcher in beliebiger Sprache ohne weitere Lizenzkosten für den Controller implementiert werden kann. Dasselbe Lizenzmodell gilt auch für die Clients, welche in Hard- und Software realisiert werden können.
In den „Flow-Tables“ werden Regeln zur Behandlung von Paketen hinterlegt - der Admin kann hier auf einfachem Weg zentral Policies und Regeln einführen, verwalten und ändern - dabei stehen ihm als Definitionsgrundlage für die Regeln viele Bestandteile von netzwerküblichen Paket-Headern zur Verfügung.
Zusammenfassung der Kapitel
1 Einleitung: Stellt das Internet als Wirtschaftsfaktor und die Grenzen klassischer Netzwerkarchitekturen dar, die zu neuen Ansätzen wie OpenFlow führen.
2 Grundlagen: Definiert zentrale Begriffe wie Benchmarking, Prototyping und Netzwerkvirtualisierung und erläutert SDN sowie die für die Arbeit relevante Software.
3 Analyse: Untersucht den OpenFlow-Standard, entwickelt ein Modell für den Netzwerkaufbau und führt eine detaillierte Performancebewertung durch.
4 Fazit: Resümiert die Ergebnisse der Benchmarks und diskutiert das Potenzial sowie zukünftige Entwicklungen von OpenFlow.
Schlüsselwörter
OpenFlow, SDN, Benchmarking, Netzwerkperformance, Controllertest, Netzwerkvirtualisierung, Prototyping, Software-defined Networking, Durchsatz, Latenz, Datennetzwerk, Infrastruktur, Controller, Systemtest, IT-Infrastruktur
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit analysiert die Unterschiede zwischen dem Benchmarking von klassischen Netzwerkinfrastrukturen und solchen, die auf OpenFlow basieren.
Was sind die zentralen Themenfelder?
Die zentralen Felder umfassen die Architektur von OpenFlow, Konzepte der Netzwerkvirtualisierung, die Rolle von SDN sowie praktische Methoden zur Messung von Netzwerkleistung.
Was ist das primäre Ziel der Arbeit?
Das Ziel ist es, ein Modell zur Bewertung von OpenFlow-Infrastrukturen zu entwickeln und dessen Wirksamkeit anhand einer exemplarischen Implementierung zu prüfen.
Welche wissenschaftliche Methode wird verwendet?
Der Autor wählt einen empirischen Ansatz: Aufbau einer Testumgebung zur Durchführung systematischer Leistungsmessungen (Benchmarks) unter variierenden Parametern.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil konzentriert sich auf die theoretische Analyse des OpenFlow-Konzepts, die Konfiguration der Testumgebung und die detaillierte Auswertung der Benchmarkergebnisse.
Welche Schlüsselwörter charakterisieren die Arbeit?
Wesentliche Begriffe sind OpenFlow, SDN, Benchmarking, Performance, Controller, Netzwerkvirtualisierung und Netzwerkinfrastruktur.
Welche Rolle spielt die Softwarewahl beim Benchmarking?
Die Softwarewahl (insbesondere des Controllers und der Java-VM) hat einen signifikanten Einfluss auf die Messergebnisse, da OpenFlow-Logik maßgeblich softwaregesteuert ist.
Was sind die Haupterkenntnisse zur Latenz?
Reaktive Flows führen zu einer initialen Verzögerung beim Anlegen, während proaktive Flows durch Vorabkonfiguration deutlich performanter agieren.
- Citar trabajo
- Ralf Leichter (Autor), 2013, Benchmarking von OpenFlow im Vergleich zu traditionellen Netzwerken, Múnich, GRIN Verlag, https://www.grin.com/document/231360