Cloud Computing ist zur Zeit in aller Munde, es wird als die Zukunft der Informationstechnik angesehen und soll der Wachstumsmarkt schlechthin werden. Doch was verbirgt sich hinter der „Wolke”? Wie ist sie Aufgebaut? Ist sie sicher? Und so weiter und so weiter. Es gibt Fragen über Fragen, die es gilt zu beantworten. Diese
Seminararbeit soll einem Aufschluss über grundlegende Funktionen und Techniken geben, die es in der „neuen” IT-Welt gibt. Anhand dieser Ausarbeitung soll es einen IT-Laien möglich sein, sich in der Informationstechnik zurechtzufinden und den Cloud Computing-Ansatz zu verstehen.
Im 2. Kapitel wird anhand der Entwicklung der IT über Jahrzehnte hinweg dem Leser der rasante, technische Fortschritt aufgezeigt und zusätzlich Technologien, die später beim Cloud Computing wieder an Bedeutung gewinnen, vor Augen geführt.
Um die „Wolke” überhaupt zu verstehen, wird im 3. Kapitel Cloud Computing erst einmal definiert, und es werden IT-Grundlagen geschaffen, die zum Verständnis der „Wolke” unumgänglich sind.
Bei Kapitel 4 geht es dann „ab in die Wolke”. Darin wird der Unterschied zwischen den drei Organisationsformen einer Cloud erklärt. Hier geht es kaum um den technischen Aufbau der Cloud, da sich diese im Grundsatz ähneln, sondern es wird der angebotene Service mit seinen Zusammenhängen erklärt.
Da man Cloud Computing nicht auf einer Ebene definieren kann, sondern es vielmehr pyramidenmäßig aufgebaut ist, werden im 5. Kapitel alle Ebenen von der IT-Infrastruktur bis hin zur Anwendung durchleuchtet.
In Kapitel 6 wird mittels des Cloud Computing-Dienstleisters Microsoft kurz anschaulich dargestellt, wie dieser Provider über alle Ebenen hinweg seine Dienste zur Verfügung stellt. Es wird bewusst zum Verständnis kurz und bündig nur einer von sehr vielen Anbietern dargestellt, da dass Aufzeigen mehrerer oder aller
Dienstleister und deren Angeboten eine in sich eigene Seminararbeit wäre, und dies den Rahmen sprengen würde. Unterdessen würde dies auch der Zielgruppe wenig weiterhelfen, da das Hauptaugenmerk auf den Grundsätzen des Cloud Computing liegt.
Kapitel 7 beschäftigt sich mit einem der streitbarsten und wichtigsten Themen in Sachen Cloud Computing, nämlich der Sicherheit. Dieses Kapitel soll die 11 wichtigsten Anforderungen und zu befolgenden Regeln zur Sicherheit der „Wolke” vor Augen führen. Zum Abschluss der Seminararbeit soll dem Leser ein kurzer Ausblick Richtung Zukunft gegeben werden, mit allen Chancen und Risiken.
Inhaltsverzeichnis
1 Einleitung
2 Entwicklung der IT
2.1 Mainframe
2.1.1 Chronologie
2.1.2 Funktion
2.1.3 Vorteile und Nachteile
2.2 Client-Server-System
2.2.1 Chronologie
2.2.2 Erklärung und Funktion
2.2.3 Vorteile
2.2.4 Nachteile
2.3 World Wide Web
2.3.1 Chronologie
2.3.2 Nutzungsvoraussetzungen
2.3.3 Funktion
3 Grundlagen
3.1 Virtualisierung
3.1.1 Geschichtliche Entwicklung
3.1.2 Netzwerkvirtualisierung
3.1.3 Speichervirtualisierung
3.1.4 Servervirtualisierung
3.2 Skalierung
3.2.1 Vertikale Skalierung
3.2.2 Horizontale Skalierung
3.3 Multimandantenfähigkeit
3.3.1 Multimandantenansatz 1
3.3.2 Multimandantenansatz 2
3.3.3 Multimandantenansatz 3
3.4 Definition von Cloud Computing
4 Organisationsformen von Cloud Computing
4.1 Private Cloud
4.2 Public Cloud
4.3 Hybrid Cloud
5 Ebenen von Cloud Computing
5.1 Infrastructure as a Service (IaaS)
5.1.1 Was bietet IaaS?
5.1.2 In welche Serviceangebote wird unterschieden?
5.1.3 Wie weit geht der Einflussbereich für den Benutzer?
5.1.4 Wie werden Leistungen und Dienste abgerechnet?
5.2 Platform as a Service (PaaS)
5.2.1 Was bietet PaaS?
5.2.2 Wer sind die Hauptnutzer von PaaS?
5.2.3 Welche Kosten gibt es und wie erfolgt die Abrechnung?
5.3 Software as a Service (SaaS)
5.3.1 Was benötigt der Nutzer von SaaS?
5.3.2 Flexibilität und Mobilität
5.3.3 Kostenreduzierung
5.3.4 Abrechnung von SaaS
6 Dienstleister von Cloud Computing
6.1 Ebenen von Microsoft Azure
6.1.1 Anwendungen für mittlere bis große Unternehmen
6.1.2 Anwendungen für Privatkunden und Kleinstunternehmen
7 Sicherheit
7.1 Die 11 Sicherheitsaspekte einer Cloud
7.1.1 Providerauswahl
7.1.2 Sicherheitsanforderungen definieren
7.1.3 Trennung von Servern
7.1.4 Providerzugriffsrechte
7.1.5 Identitäten prüfen und organisieren
7.1.6 In welchem Land liegen die Daten?
7.1.7 Datenaustausch absichern
7.1.8 Firewalls
7.1.9 Frühwarnsysteme
7.1.10 Sicherheit von mobilen Cloud-Zugängen
7.1.11 Sicherheit beginnt beim Menschen
8 Wirtschaftliche Aussicht
9 Resümee für die Zukunft
Bilderverzeichnis
Quellenangaben
Persönliche Erklärung
1 Einleitung
Cloud Computing ist zur Zeit in aller Munde, es wird als die Zukunft der Informationstechnik angesehen und soll der Wachstumsmarkt schlechthin werden. Doch was verbirgt sich hinter der „Wolke”? Wie ist sie Aufgebaut? Ist sie sicher? Und so weiter und so weiter. Es gibt Fragen über Fragen, die es gilt zu beantworten. Diese Seminararbeit soll einem Aufschluss über grundlegende Funktionen und Techniken geben, die es in der „neuen” IT-Welt gibt. Anhand dieser Ausarbeitung soll es einen IT-Laien möglich sein, sich in der Informationstechnik zurechtzufinden und den Cloud Computing-Ansatz zu verstehen. Darum werden einzelnen Cloud-Formen nicht bis ins kleinste Detail erklärt, sondern es wird ein gut zu verstehender Überblick über die ganze Situation geschaffen.
Im 2. Kapitel wird anhand der Entwicklung der IT über Jahrzehnte hinweg dem Leser der rasante, technische Fortschritt aufgezeigt und zusätzlich Technologien, die später beim Cloud Computing wieder an Bedeutung gewinnen, vor Augen geführt. Um die „Wolke” überhaupt zu verstehen, wird im 3. Kapitel Cloud Computing erst einmal definiert, und es werden IT-Grundlagen geschaffen, die zum Verständnis der „Wolke” unumgänglich sind.
Bei Kapitel 4 geht es dann „ab in die Wolke”. Darin wird der Unterschied zwischen den drei Organisationsformen einer Cloud erklärt. Hier geht es kaum um den technischen Aufbau der Cloud, da sich diese im Grundsatz ähneln, sondern es wird der angebotene Service mit seinen Zusammenhängen erklärt.
Da man Cloud Computing nicht auf einer Ebene definieren kann, sondern es vielmehr pyramidenmäßig aufgebaut ist, werden im 5. Kapitel alle Ebenen von der IT-Infrastruktur bis hin zur Anwendung durchleuchtet. Es werden Fragen, was der User in der jeweiligen Ebene vom Anbieter bekommt, bis hin zur Abrechnung des Services geklärt.
In Kapitel 6 wird mittels des Cloud Computing-Dienstleisters Microsoft kurz anschaulich dargestellt, wie dieser Provider über alle Ebenen hinweg seine Dienste zur Verfügung stellt. Es wird bewusst zum Verständnis kurz und bündig nur einer von sehr vielen Anbietern dargestellt, da dass Aufzeigen mehrerer oder aller Dienstleister und deren Angeboten eine in sich eigene Seminararbeit wäre, und dies den Rahmen sprengen würde. Unterdessen würde dies auch der Zielgruppe wenig weiterhelfen, da das Hauptaugenmerk auf den Grundsätzen des Cloud Computing liegt.
Kapitel 7 beschäftigt sich mit einem der streitbarsten und wichtigsten Themen in Sachen Cloud Computing, nämlich der Sicherheit. Dieses Kapitel soll die 11 wichtigsten Anforderungen und zu befolgenden Regeln zur Sicherheit der „Wolke” vor Augen führen. Die Sicherheit zum Betreiben einer Cloud ist von großer Bedeutung, denn es stehen dadurch z. B. für Unternehmen Existenzen auf dem Spiel. Zum Abschluss der Seminararbeit soll dem Leser ein kurzer Ausblick Richtung Zukunft gegeben werden, mit allen Chancen und Risiken.
2 Entwicklung der IT
Über Jahrzehnte hinweg hat sich die Welt der Informationstechnik unter dem Einfluss wachsender Möglichkeiten und entsprechend steigender Zahl der Nutzer stetig weiterentwickelt. Zu jeder Zeit gab es dabei ein dominierendes IT-Modell, das nach gewisser Zeit von anderen Modellen abgelöst wurde, ohne dabei vollständig verdrängt zu werden (siehe Bild: Entwicklung der IT ).
2.1 Mainframe
Mainframes sind voluminöse Großrechner (meist schrankbis zimmergroß), auf denen programmierte Applikationen ausgeführt werden. Sie sind konzipiert für großen Datendurchsatz und haben eine hohe Stabilität und Zuverlässigkeit. Der Mainframe ist auch heute noch eine Schlüsseltechnologie, wenn es um die massenhafte, standardisierte Verarbeitung von Daten geht.
2.1.1 Chronologie
Abbildung in dieser Leseprobe nicht enthalten
Der Mainframe war von Mitte der 50er Jahre bis Ende der 70er Jahre das dominierende IT-Modell. Während der Mainframe von Mitte der 50er an hauptsächlich in Forschungseinrichtungen betrieben wurde, fand er ab Mitte der 60er Jahre bis Ende der 70er als Großrechner für Multiprogramming (Mehrprogrammbetrieb) Einzug.
2.1.2 Funktion
Bedient werden diese Großrechner von sogenannten Terminals, die in der einfachsten Form aus einer Tastatur und einen Bildschirm bestehen, die mit dem Mainframe verbunden sind. Eingaben am Terminal werden direkt auf dem Mainframe verarbeitet und das Ergebnis auf den Terminal wiedergegeben. Hier spricht man auch von „dummen” Terminals. Es entwickelten sich aber in den darauffolgenden Jahren auch Terminals, die in der Lage waren, Vorberechnungen durchzuführen.
2.1.3 Vorteile und Nachteile
Vorteile des Mainframe sind die große Rechenleistung, die Möglichkeit der zentralen Steuerung und die kostengünstige Erweiterung von zusätzlichen Terminals. Des Weiteren hat der Mainframe eine hohe Ausfallsicherheit dank seiner redundanten Technologie. Das heißt, es werden z. B. Festplatten gespiegelt, so dass die gesamten, gespeicherten Daten auf zwei Festplatten vorhanden sind und beide auch immer parallel auf dem neuesten Stand sind.
Der große Nachteil bei diesem System ist, dass ein Ausfall des Mainframe auch den sofortigen Ausfall des Terminals und somit auch den Ausfall des gesamten Systems bedeutet.
2.2 Client-Server-System
2.2.1 Chronologie
Anfang der 80er Jahre wurden die Rechner immer kleiner und die Leistungsfähigkeit der Hardware erhöhte die Rechenleistung beträchtlich, und so verschaffte sich der Personal Computer in den Büros der Welt Einzug. Dadurch rückte der Client in den Fokus der Informationstechnik, zusammen mit zentralen Servern wurden leistungsfähige Client-Server-Systeme möglich, bei denen die Rechenleistung je nach Funktion an zentraler Stelle oder beim Anwender lokal erbracht wurde.
2.2.2 Erklärung und Funktion
Bei einem Client-Server-System wird unterschieden zwischen einem Server (= Dienstanbieter) und dem Client (= Dienstnachfrager). Dieses System besteht in Folge dessen aus mindesten zwei Komponenten.
Abbildung in dieser Leseprobe nicht enthalten
Eine Client-Server-System ist also ein Verbund mehrerer Rechner, bei dem der Client Aufträge formuliert und an einen oder mehrere Server verschickt (siehe Bild: Client-Server-System ). Der Server wiederum bearbeitet diese Aufträge und schickt diese Ergebnisse an den Client zurück. Die Kommunikation zwischen Clients und Servern beruht auf nachrichtenbasierten, auftragsorientierten Prozessen, Clients und Server stehen für die Dauer der Dienstleistung in einem Auftragsverhältnis.
2.2.3 Vorteile
Die Vorteile des Client-Server-Systems sind, dass Softwareaktualisierungen nur auf dem Server durchgeführt werden müssen. Dies geschieht meist automatisch und die Clients bekommen davon gar nichts mit. Zudem können auf Client-Rechnern viele Ressourcen eingespart werden, da Daten zentral verfügbar sind und somit keine Mehrfachspeicherung der selben Daten auf den verschiedenen Client-Rechnern anfällt. Durch die zentrale Datenspeicherung kann auch sehr leicht eine Zugriffskontrolle für die Daten eingesetzt werden. Clients müssen sich dann, vor dem Zugriff auf bestimmte Daten, bei dem Server mit einem Passwort anmelden.
2.2.4 Nachteile
Ein Nachteil ist, wie auch beim Mainframe, die Zentralisierung, so führt ein gezielter Angriff auf den Server oder ein Hardwaredefekt zum Ausfall des gesamten Netzwerkes, da die Clients nicht mehr auf die Daten und Dienste des Servers zugreifen können.
Ein weiterer Nachteil des Client-Server-Systems liegt darin, dass bei vielen gleichzeitigen Client-Anfragen der Server längere Zeit benötigt um die Anfragen zu bearbeiten und so ein Stau entstehen kann, der längere Wartezeiten für die Clients verursacht. Die Skalierbarkeit, d. h. die Anpassung an steigende Anforderungen, z. B. in Form einer zunehmenden Anzahl an Clients, stellt somit eines der größten Probleme dar, mit denen Client-Server-Infrastrukturen zu kämpfen haben.
2.3 World Wide Web
2.3.1 Chronologie
Als Mutter des Internets gilt das APRA-Net (Advanced Research Projects Agency-NET). Dieses wurde 1969 vom US-Verteitigungsministerium ins Leben gerufen. Es sollte im Falle eines Atomkrieges die Datenübertragung, also die Kommunikation über ein Netzwerk, sichern. Das APRA-Net basiert auf dem TCP/IP-Protokoll, es wurden also Informationen in kleine Datenpakete zerlegt und durch das Netz geschickt. Am Zielort wurden dann die kleinen Datenpakete wieder zur eigentlichen Information zusammengefügt. Die Vorteile des TCP/IP-Protokoll liegt darin, dass es von jedem Rechner verstanden wird und die Kommunikation zwischen diversen Netzen ermöglicht. Ab 1977 verbanden sich immer mehr Netzwerke miteinander und das APRA-Net wuchs und wuchs, so dass es 1983 in zwei separate Netze aufgeteilt werden musste. Das eine war das „Milnet”, das nur als Netzwerk für das Militär diente und das andere war das TCP/IP-basierende Netz, das heute Internet heißt.
In den 90er Jahren schaffte dann das World Wide Web, das auf HTML, URL und http basierte, den endgültigen Durchbruch und brachte einen weiteren Innovationsschub. Während bei Client-Server-Systemen eine Verteilung der Rechenleistung charakteristisch war, standen Webanwendungen wieder für eine Zentralisierung. Häufig erhielt dieses Konzept auch in Intranet-Umgebungen den Vorzug, da Aktualisierungen von Webanwendungen an zentraler Stelle möglich waren und Fragen der Softwareverteilung insbesondere bei einer Vielzahl von Clients nicht mehr gebräuchlich wurden.
2.3.2 Nutzungsvoraussetzungen
Zur Nutzung des Internets war Anfang der 90er Jahre ein Telefonanschluss, ein Modem, ein Personal Computer und ein Browser notwendig. Für die Einwahl in das Internet genügte ein gewöhnlicher Telefonanschluss, an dem ein Modem angeschlossen wurde, das eine Mindestübertragungsgeschwindigkeit von 14400 bit/s haben sollte, und die Tonsignale, die die Telefonleitung lieferte, in digital Daten für den Personal Computer umwandelte, somit fungierte das Modem als sogenannter „Dolmetscher” zwischen PC und Telefonleitung. Der Browser war für das Surfen im Netz unumgänglich, er stellte die Inhalte des Internets dar, indem er den HTMLCode übersetzte und in die richtige Form brachte.
Die Folge war, dass das Internet zu einem weltweiten Computernetzwerk aufstieg, in dem Millionen von einzelnen Computern und Computernetzwerken zusammengeschlossen wurden. Der Datenaustausch, also die Kommunikation von Computern untereinander, konnte so auf verschiedene Arten über das Internet durchgeführt werden. Einer der ersten Netzdienste war der FTP-Dienst (File Transfer Protocol). Dieses Protokoll ermöglichte den Datentransfer zwischen einem Client (z. B. einer FTP-Applikation auf dem heimischen Computer und einem Server) und einem Rechner irgendwo im Internet. Auf dem Server konnte man dann Daten ablegen bzw. sich Daten auf den heimischen Computer herunterladen.
2.3.3 Funktion
Verbinden sich zwei Computer zur Kommunikation über das Internet, so geschieht das immer nach folgenden Ablaufmuster: Ein Lokaler Computer verbindet sich mit einem entfernten Computer. Der lokale Computer ist der Personal Computer zu Hause oder im Büro, und ist der Dienstnachfrager, also der Client. Der Computer am anderen Ende des World Wide Web, ist der Server (Dienstanbieter). Auf Daten oder Informationen, die auf einem Server liegen, können über das Internet weltweit von jedem Computer mit einem Internet-Zugang zugegriffen werden. Die Basis der Kommunikation über das Internet bildet das Protokoll TCP/IP. Jeder Computer im Web bekommt eine Benutzernummer, eine sogenannte IP-Adresse. Anhand dieser Benutzernummern können die Computer ihr „Kommunikationspartner” im weltweiten Netzwerk finden. Damit für die User die Orientierung im Web einfacher wird, werden die Benutzernummern der Web-Server in Namen aus Wörtern, in die sogenannten Domainnamen, übersetzt. Das Domain Name System (DNS) übernimmt hierbei die Aufgabe, wie im Bild „Domain Name System” gut nachzuvollziehen ist.
1. Der Client stellt eine Anfrage an dem ihm bekannten DNS-Server.
2. Da dieser den Host nicht kennt, gibt er die Anfrage an den DNS-RootServer weiter.
3. Dieser kennt zwar den Host auch nicht, aber er kennt den Server, der für diese Top-Level-Domain (= die höchste Ebene der Namensgebung, meist für das jeweilige Land der Internetseite, hier also das „.de” für Deutschland) zuständig ist.
4. Die Anfrage geht nun an den für die Top-Level-Domain (TLD) zuständigen DNS-Server.
5. Dieser Server kennt den Host allerdings immer noch nicht, aber er kennt den für die Domain zuständigen DNS-Server.
6. Der für die Domain zuständige DNS-Server wird befragt.
7. Dieser gibt die IP-Adresse des angefragten Hosts zurück.
8. Der erste DNS-Server liefert die IP-Adresse an den Client.
Abbildung in dieser Leseprobe nicht enthalten
3 Grundlagen
3.1 Virtualisierung
Der Grundstein der meisten Cloud-Architekturen bildet die Virtualisierung von Ressourcen. Unter Virtualisierung versteht man die Generierung einer virtuellen statt einer physikalischen Version zum Beispiel eines Betriebssystems, eines Servers, eines Speichergerätes oder Netzwerk-Ressourcen. Ein simples Beispiel einer Virtualisierung ist das partitionieren eines Festplattenlaufwerks. Wenn die Festplatte eines Computers in verschiedene Partionen aufgeteilt wird, entstehen nach außen hin zwei eigenständige Festplatten. So dient die Virtualisierung vordergründig der Kostensenkung, durch bessere Auslastung der Hardware, der besseren Verfügbarkeit und der schnelleren Implementierung.
3.1.1 Geschichtliche Entwicklung
Die Virtualisierung ist aber nichts Neues. Sie wird schon seit mehreren Jahrzehnten in Form von Mainframes eingesetzt. Ende der 50er Jahre entwickelte Christopher Strachey Methoden, die in jener Zeit kostbare Rechenleistung besser auslasten zu können. IBM entwickelte Mitte der 60er Jahre die erste virtuelle Maschine. Dabei setzte IBM diese Technologie ein, um Mainframes logisch in separate virtuelle Maschinen zu partitionieren. Diese Partitionen erlauben ein gleichzeitiges Ausführen mehrere Aufgaben bei Mainframes. Da die Mainframe-Computer zur damaligen Zeit teure Ressource waren, stellte die Partitionierung eine Option zur vollen Nutzung der Investition dar. Aber auch heute sind Partitionen noch ein Riesenvorteil, z. B. im Bereich des Mainframe-Hosting.
3.1.2 Netzwerkvirtualisierung
Die Netzwerkvirtualisierung ist eine Verfahren, um die verfügbaren Ressourcen eines Netzwerks zu verbinden, indem man die verfügbare Bandbreite in mehrere unabhängige Kanäle aufteilt, von denen jeder einen bestimmten Server oder einem Gerät in Echtzeit zugewiesen (neu zugewiesen) werden kann. Die Virtualisierung versteckt damit die wahre Komplexität des Netzwerks, indem sie das Netzwerk in leicht zu verwaltende Einheiten aufteilt. Das ist in etwa genauso, wie eine partitionierte Festplatte die Verwaltung von Dateien vereinfacht.
3.1.3 Speichervirtualisierung
Unter Speichervirtualisierung versteht man das Zusammenlegen mehrerer physikalischer Speichersysteme zu einem Pool, dadurch wird die physikalische Speicherbegrenzung aufgehoben. Aufgrund dessen wird der Nutzer bei der Umstrukturierung oder der Erweiterung des Speicherangebots nicht beeinträchtigt. Aus Sicht des Administrators besteht der Vorteil darin, dass existierende physikalische Speicherangebote effektiver auf die vorhandenen Benutzer verteilt werden können und dadurch der Auslastungsgrad verbessert wird. Durch diesen flexiblen Einsatz der Ressourcen entsteht auch ein enormer Kostenvorteil.
3.1.4 Servervirtualisierung
Die Servervirtualisierung erlaubt durch die Konfiguration virtueller Maschinen, mehrere Betriebssysteme auf der gleichen physikalischen Serverhardware durchzuführen. Dabei kann es sich um diverse Instanzen des identischen Betriebssystems oder um unterschiedliche Betriebssysteme handeln. Die einzelnen Instanzen werden als virtuelle Maschine oder Gast bezeichnet und verhalten sich in der virtuellen Umgebung identisch zum „normalen” Betrieb direkt auf der Hardware. Der Gast wird aus Sicht des Basis-Betriebssystems (Host oder Wirt) von der Hardware abgekoppelt und kann somit wie ein Softwareobjekt flexibel unabhängig von der darunterliegenden Hardware behandelt werden.
[...]
- Arbeit zitieren
- Bernd Schmidt (Autor:in), 2010, Grundlagen des Cloud Computing, München, GRIN Verlag, https://www.grin.com/document/154918
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.