Entwicklung und Einsatz von Rich Internet Applikationen in kommerziellen Bereichen


Diplomarbeit, 2008

93 Seiten, Note: 1,7


Leseprobe

Inhaltsverzeichnis

1. Vorwort

2. Die Entwicklung des Internet
2.1 Geschichte
2.2 Entwicklung
2.3 Umschwung seit 1990
2.4 Heutige Technologien

3. Rich Internet Applikationen
3.1 Einführung
3.1.1 Definition von Rich Internet Applikationen
3.1.2 Vor- und Nachteile von RIAs
3.2 Entwicklung
3.2.1 Techniken der Rich Internet Applikationen
3.2.2 Ext JS Framework
3.2.3 Cake-PHP Framework
3.2.4 Google Gears
3.2.5 Performance
3.3 Kommerzieller Einsatz
3.3.1 Wirtschaftlichkeit
3.3.2 Kommerzielle Rich Internet Applikationen
3.3.3 Visualisierung vs. Bedienung
3.3.4 Datenschutz und Datensicherheit
3.3.5 Mobilität und Aktualität der Anwendung
3.3.6 Handhabungsprobleme gegenüber konventionellen Internetseiten
3.3.7 Schutz des clientseitigen Programmcodes
3.4 Zusammenfassung und Trends

4. Finanzbuchhaltung-Online
4.1 Einführung
4.2 Frontend
4.2.1 HTML-Markup
4.2.2 Storages
4.2.3 Erzeugung eines Fensters
4.2.4 Workflow
4.2.5 Buchungsmaske
4.2.6 Zusätzliche Features
4.2.7 Auswertungen
4.3 Backend
4.3.1 Controller
4.3.2 Sprachwahl
4.4 Dynamik
4.5 Ergebnis
4.6 Ausblick und künftige Module

5. Zusammenfassung und Ausblick

Abbildungsverzeichnis

Literaturverzeichnis

1. Vorwort

"Wir dürfen und werden das Internet nicht als vorübergehende Spinnerei abtun."

Harvey Golub, CEO der American Express Company,1996

Bereits Mitte der neunziger Jahre erkannte Harvey Golub, der ehemalige Chef der American Express Company, die Möglichkeiten des Internet. In den Anfangsphasen des Internet waren die Möglichkeiten für die Darstellung umfangreicher und strukturierter Informationen noch stark beschränkt. Doch durch die technischen Entwicklungen in den letzten Jahren und die Etablierung vieler Browser- Programmerweiterungen1 ist es heute möglich, solche Informationen darzustellen. Sogar komplexe Programme, welche in der Vergangenheit auf dem Client-Rechner ausgeführt wurden, können heute als Webanwendung konzipiert werden. Als Containerprogramm wird in den meisten Fällen der Internetbrowser verwendet, in welchem diese Webanwendungen ausgeführt werden. Die Rich Internet Applikationen sind geboren. Doch wie werden Rich Internet Applikationen entwickelt und taugen diese für den kommerziellen Einsatz?

Diese Arbeit zeigt die heutigen Technologien der Webentwicklung über die Entstehung des Internet auf. Sie erklärt die Grundlagen der Entwicklung für Rich Internet Applikationen und es werden wichtige Frameworks zur Realisierung solcher Applikationen vorgestellt.

Da bereits große Unternehmen erfolgreich seit einigen Jahren Rich Internet Applikationen nutzen, analysiert diese Arbeit den kommerziellen Einsatz dieser Art von Programmen. Hierbei wird nicht nur auf die Wirtschaftlichkeit, den Datenschutz, die Datensicherheit und die urheberrechtlichen Fragen in Bezug auf den Programmcode eingegangen, sondern es werden ebenfalls Beispiele bereits vorhandener, komplexer Rich Internet Applikationen aufgezeigt.

Abschließend werden die wichtigsten Elemente einer, für den Bereich der Finanzbuchhaltung des Autors entwickelten, Rich Internet Applikation dargestellt, welche voraussichtlich im dritten Quartal dieses Jahres in den produktiven Einsatz übernommen wird.

2. Die Entwicklung des Internet

2.1 Geschichte

Ein genaues Datum über die Entstehung des Internet kann nicht eindeutig bestimmt werden. Als Anekdote für ein extremes Beispiel, wie weit die Meinungen diesbezüglich auseinandergehen, könnte etwa die Auffassung Henry Edward Hardys gelten, der die Kommunikationswege der Chinesen und Perser als antikes Vorbild für das Internet nennt. [1]

1836 konnten die Menschen mit Hilfe des Telegrafen Nachrichten über weite Strecken übermitteln. Die Übermittlung erfolgte damals wie heute durch zwei unterschiedliche Zeichen. Im Gegensatz zur heutigen Übermittlung von Nullen und Einsen wurden zur damaligen Zeit für die Übermittlung kurze und lange Signale verwendet.

40 Jahre später wurde das Telefon von Alexander Graham Bell erfunden. Die Telefonleitung dient bis heute als wichtigste Übertragungsleitung für Daten.

Am 12. Mai 1941 wurde die Maschine Z3 von Konrad Zuse funktionsfähig in allen Komponenten in Berlin einer kleinen Gruppe von Wissenschaftlern vorgestellt. Dies war der erste funktionsfähige, frei programmierbare, auf dem binären Zahlensystem und der binären Schaltungstechnik basierende Rechner der Welt. [2]

Der UdSSR gelang es 1957 den ersten geostationären Satelliten2 ins Weltall zu befördern. Hierdurch wurde der Grundstein für die Satellitenübertragung gelegt. Die Vereinigten Staaten von Amerika reagierten auf diesen technologischen Fortschritt mit der Gründung der NASA. Nicht allein aufgrund des technologischen Fortschritts, sondern aus Angst, die UdSSR könne solche Satelliten auch militärisch einsetzen. Es entstand gleichzeitig die Advanced Research Projects Agency (ARPA). Im Jahr 1972 wurde die ARPA in Defense Advanced Research Projects Agency (DARPA) umbenannt. [3] Die Aufgabe der ARPA galt der Entwicklung neuer Technologien. Zur damaligen Zeit war es zwar möglich, Daten zwischen verschiedenen Computern auszutauschen, jedoch konnten diese Daten nur über Lochkarten transferiert werden.

Joseph Carl Robnett Licklider, welcher 1942 wissenschaftlicher Mitarbeiter am psychoakustischen Labor in Harvard war und sich an Experimenten im 2.Weltkrieg in B-24 und B-17 Bombern beteiligte, hatte die Vision, mit einem Computer, wie mit einem Menschen zu kommunizieren.

"The hope is that, in not too many years, human brains and computing machines will be coupled together very tightly, and that the resulting partnership will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today... Those years should be intellectually the most creative and exciting in the history of mankind." [4]

Joseph Carl Robnett Licklider arbeitete mit seinen Forschern seit 1957 am Time- Sharing Konzept. Dieses Konzept sollte die Ressourcenverteilung eines Rechners an mehrere Benutzer ermöglichen. 1965 finanziert die ARPA die Studie des kooperativen Netzwerks mit time-sharing Computern. Dies ermöglichte ein Jahr später den ersten Plan für das ARPANET.

2.2 Entwicklung

1969 wurde das ARPANET als Projekt des Department of Defense (DoD) entwickelt. Es verband vier Rechner in den Standpunkten: "University of California at Los Angeles", "Stanford Research Institutes", "UCSB" und "University of Utah". Zu dieser Zeit wurde das Request for Comment3 in der ersten Version, kurz RFC1, veröffentlicht. Es besitzt den Titel „Host Software“ und ist noch heute in Vielzahl im Internet nachzuschlagen [5].

In den nächsten Jahren wurden stetig mehr Rechner an das ARPANET angeschlossen, wodurch das Prinzip des Internet entstand.

1974 wurde durch Vint Cerf und Bob Kahn das Dokument „A protocol for packet network intercommunication“ herausgegeben. Dieses beschreibt das Transmission Control Program (TCP). Fünf Jahre später wurden eMails erstmals im RFC 733 spezifiziert.

Das Management für das ARPANET wurde der Defense Communications Agency (DCA) übergeben, welche seit 1991 den Namen Defense Information Systems Agency (DISA) trägt.

Im Jahre 1975 wurden eine Satelliten-Verbindungen über zwei Ozeane, nach Hawaii und nach England, hergestellt. Es entstanden die ersten TCP-Tests. Im Netz waren das Stanford Research Institutes, Bolt, Beranek & Newman und die University of California at Los Angeles.

Die Software Unix-to-Unix Copy (UUCP) wird 1976 von AT&T Bell Labors entwickelt. Durch diese Software war es möglich über Wählleitungen anstatt der kostspieligen Standleitungen Daten über das Netzwerk zu übermitteln. Diese Software wurde ein Jahr später mit dem UNIX-Betriebssystem vertrieben. Hierdurch entstand eine neue Generation von IMPs4.

1978 wurde TCP von TCP/IP abgelöst. Von dem Transmission Control Protocol (TCP), welches die Kommunikation durch Bestätigung des Paket-Empfangs sicherstellt, wurde damit das IP-Protokoll getrennt. Das IP-Protokoll dient der Adressierung von Daten und übermittelt diese vom Sender zum Empfänger.

Larry Landweber organisierte 1979 ein Treffen zwischen der Universität von Wisconsin, der DARPA, der National Science Foundation (NSF) und Computerwissenschaftlern zahlreicher anderer Universitäten. Es war das Ziel, ein Computer-Wissenschafts-Zentrum zu gründen. Im selben Jahr entstand das USENET, mit wessen Hilfe die Duke Universität und die Universität von North Carolina verbunden wurden.

Ein Jahr später wurde ein Band mit einer Zusammenstellung auf einer Konferenz von Unix-Benutzern verteilt, welche die für das Usenet notwendige Software enthielt. Hierdurch entwickelte sich das Usenet, welches, laut einer 1995 von Brian Reid veröffentlichten Studie, in den folgenden Jahren enorm gewachsen war. Der Einsatz der am Usenet beteiligten Computer stieg von drei Rechnern 1979 auf 11.000 Rechner 1988 an. Für den Juli 1995 wurden 330.000 am Usenet beteiligte Rechner und eine durchschnittliche Anzahl von ca. 127.000 Artikeln pro Tag angenommen. [6]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.1: Das Usenet 1981

In der Abbildung 2.1 ist ein beispielhafter Aufbau des Usenet im Jahre 1981 zu erkennen. Die Polygone stellen jeweils einen Rechner und die Ellipsen einen Endknoten dar. Das Netz ist dezentral aufgebaut, sodass eine verlässliche Anbindung jedes Rechners eine große Rolle spielt. Würde ein Rechner ausfallen, besteht die Möglichkeit, dass das komplette Netz instabil wird und die komplette Vernetzung der Rechner miteinander nicht mehr gewährleistet ist. Beispielsweise würde durch den Ausfall des Rechners „decvax“5 das Netz zusammenbrechen, da nicht mehr alle Knoten eine Verbindung zu anderen Knoten hätten.

Die zentralen Rechner des Usenet wurden 1983 als „Backbone“ zusammengefasst.

Ein Backbone war und ist das Verbund-Netzwerk, welches die einzelnen Netze miteinander verbindet. Die Administratoren dieser zentralen Rechner standen miteinander in Kontakt, um auf unvorhergesehene Ereignisse schnell und kooperativ reagieren zu können.

Jedoch bestand die Befürchtung, dass durch einen gezielten Angriff auf inen zentralen Rechner, das komplette Kommunikationssystem ausfallen könne. Aus diesem Grunde wurde das verteilte Netzwerk verwirklicht, welches auf die Überlegung des Paul Baran [7] aufsetzt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2: Verteiltes Netzwerk

Durch das verteilte Netz war die Stabilität des Netzwerks bei Ausfall eines oder mehrere Rechner gesichert. Diese hohe Ausfallsicherheit gilt aufgrund der gleichen Charakteristik noch heute für das Internet. Jedoch lässt sich aufgrund dieser Topologie das Netzwerk nicht mehr kontrollieren.

1986 wurde das Network News Transfer Protocol (NNTP) veröffentlicht, durch welches es möglich wurde, Usenet-Nachrichten über das Internet zu transferieren. Hierdurch erhielt das Usenet zusätzlich die Eigenschaft der Ausfallsicherheit. Aufgrund dieses Phänomens wurden die Dokumente des Usenet nicht mehr an zentraler Stelle verwaltet, sondern es entstanden Redundanzen, welche dazu führten, dass Dokumente nicht mehr von ausschließlich einer Stelle abrufbar waren, sondern sich an beliebig vielen Stellen befanden.

Im gleichen Jahr wird das NSFNET gegründet, welches eine Backbone Geschwindigkeit von 56kbps erreichte. Durch dieses Netzwerk war es möglich, eine Vielzahl von Universitäten zu vernetzen.

Es entstand das BARRNET (Bay Area Regional Research Network) welches neue Hochgeschwindigkeitsleitungen nutzte.

1987 überstieg die Anzahl der mit dem Netz verbundenen Hosts die 10.000 und zum Ende des Jahres betrug die Anzahl sogar über 28.000 Hosts. Durch diesen rasanten Anstieg gab wurde der Firma Merit Network Inc., die mit IBM und MCI zusammenarbeitete, der Auftrag erteilt, die Leistung der Leitungen drastisch zu erhöhen. Gleichzeitig wurde ein Vertrag zwischen NFS und Merit abgeschlossen, welcher das Management des NFSNET an Merit abtrat.

Im Jahr 1988 verdoppelte sich die Anzahl der am Netz befindlichen Rechner auf über 60.000 Hosts. Jedoch mussten 6.000 Hosts wieder vom Netz getrennt werden, da sie mit dem Virus „Internet Worm“ infiziert waren. Aus diesem Grunde wurde das CERT (Computer Emergency Response Team) von der DARPA gegründet, wessen Aufgabe es war, weiteren Viren, wie dem im gleichen Jahr erschienenen „Morris Worm“, entgegenzuwirken.

Weitere Länder wurden an das NSFNET angeschlossen. In diesem Jahr kamen so Kanada (CA), Dänemark (DK), Finnland (FI), Frankreich(FR), Island (IS), Norwegen (NO) und Schweden (SE) hinzu. Der rasante Anstieg der mit dem Netzwerk verbundenen Hosts brach auch im Jahr 1989 nicht ab und so überstieg diese die Grenze von 100.000 Hosts. In diesem Jahr bekamen die Länder Australien (AU), Deutschland (DE), Israel (IL), Italien (IT), Japan (JP), Mexiko (MX), Holland (NL), Neuseeland (NZ), Puerto Rico (PR), England (UK) Anschluss an das NSFNET.

Die ersten kommerziellen Anbieter von Internet-Diensten wurden an das Netzwerk angeschlossen. So bekam die MCI Mail über die Corporation for the National Research Initiative (CNRI) und Compuserve über die Ohio State University Anbindung an das Netzwerk.

2.3 Umschwung seit 1990

Im Jahre 1990 wurde das ARPANET endgültig vom Netz getrennt und das Internet war geboren, da alle Funktionen des ARPANET nun auch vom NSFNET übernommen wurden. Es wurde die Electronic Frontier Foundation (EFF) von John Perry Barlow und Mitch Kapor gegründet, welche sich noch bis heute für die Menschenrechte im Internet einsetzt.

Durch den ununterbrochenen Anstieg an Servern, welche mit dem Internet verbunden waren, stieg die Anzahl der im Internet via FTP-Protokoll angebotenen Daten. Zu diesem Zeitpunkt erschien das Projekt „archie“, welches an der McGill University in Montreal von Studenten entwickelt wurde. Durch dieses Projekt war es möglich, einen Überblick über die angebotenen Daten zu schaffen. Die archie- Server besuchten in regelmäßigen Abständen alle FTP-Server in bestimmen Regionen des Internets. Anschließend wurde eine Liste aller angebotenen Daten erstellt. Diese Liste wurde anschließend an alle archie-Server weitergegeben, sodass jeder Server eine aktuelle Liste enthielt.

Die Anzahl der am Netz angeschlossenen Host stieg jährlich um 100 Prozent an und erreichte im Jahr 1990 eine Anzahl von ca. 313.000 Rechnern.

Ebenfalls geht in diesem Jahr der erste kommerzielle Provider, welcher für die Direkteinwahl ins Internet zuständig war, online. Dieser Internet Service Provider (ISP) ist noch heute unter dem Namen „The World“6 bekannt.

Es werden die Länder Argentinien (AR), Österreich (AT), Belgien (BE), Brasilien (BR), Chile (CL), Griechenland (GR), Indien (IN), Irland (IE), Korea (KR), Spanien (ES) und die Schweitz (CH) an das NSFNET angeschlossen.

Im Jahr 1991 erlässt die NSF Restriktionen, um der kommerziellen Nutzung des NSFNET entgegenzuwirken. Es wird den Firmen untersagt, Pakete mit kommerziellem Inhalt über das Netz zu verschicken. Aus diesem Anlass gründeten die Firmen General Atomics, Performance Systems International und UUNET Technologies die Firma Commercial Internet Exchange (CIX). Die Aufgabe der gegründeten Firma bestand darin, Netzwerkkapazitäten für alle Firmen und deren Netzwerke bereitstellen, die mit TCP/IP arbeiten.

Nun wurden zwei wichtige Anwendungen ins Leben gerufen, deren Namen Gopher7 und Wais lauten.

Gopher ist eine verfremdete Schreibweise der Wörter „go for it“. Durch diese Anwendung war es erstmals möglich, mit Hilfe einer grafischen Oberfläche Datenmengen zu durchsuchen. Vor Herausgabe dieser Anwendung war es dem Benutzer bislang nur möglich, Datenmengen mittels Unix-ähnlicher Programme zu durchsuchen, welche relativ unhandlich zu bedienen waren. Aufgelistete Textdateien konnten durch einen Tastendruck geöffnet und lokal auf dem Rechner gespeichert werden. Die angezeigten Ergebnisse in der Gopher-Anwendung waren nicht redundant. Vielmehr verwiesen die Einträge direkt auf den Server, auf dem sich das Dokument befand. Wurde dieses Dokument ausgewählt, Hintergrund eine Verbindung zum jeweiligen Server aufgebaut. so wurde im Ebenfalls konnte mit Gopher auf „archie“-Server zugegriffen werden, sodass die zeilenorientierte „archie“ Applikation nicht nur wegen der unkomfortablen Bedienung überflüssig erschien. Aufgrund dieser Vernetzung entstand der Ausdruck „Gopherspace“8.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.3: Gopher Menu

Wais steht für „Wide Area Information System“ und gehört ebenfalls zu der Gruppe von Programmen, die zu diesem Zeitpunkt noch nicht im Internet vorhanden waren. Durch Wais war erstmals eine Volltextsuche nach einem eingegebenen Suchbegriff möglich. Das heißt, dass es dem Benutzer möglich war, einen Suchbegriff in ein Textfeld einzugeben, nach welchem Dokumenteninhalte durchsucht und die Dokumente mit dem beinhaltenden Suchbegriff dem Benutzer angezeigt wurden.

Die Anwendung besitzt wie Gopher ein menügesteuertes System, wodurch dem Benutzer die Bedienung des Programms erleichtert wurde.

In diesem Jahr wurde die Internationalisierung des NSFNET fortgesetzt die Länder Kroatien (HR), Tschechische Republik (CZ), Hongkong (HK), Ungarn (HU), Polen (PL), Portugal (PT), Singapur (SG), Südafrika (ZA), Taiwan (TW) und Tunesien (TN) angeschlossen.

1992 wurde die ISOC (Internet Society) in Japan gegründet. Diese Organisation, mit Sitz in der Nähe von Washington, D.C., ist für die weltweite Pflege und Weiterentwicklung der Internetinfrastruktur zuständig. [8]

Mitte 1992 wurde erstmals die Technik des Multicasting bei der Tagung der IETF in Boston eingesetzt. Mit Hilfe dieser Technik war es erstmals möglich, diese Tagung global getrennt via Video- und Audio-Stream zu verfolgen. Am besagten Termin wurde die Tagung von 95 Rechnern via Audio und 75 Rechnern via Video verfolgt und in 10 Länder „live“ mittels der Multicast-Technik übertragen. [9]

Auch die eMail-Funktionalität wurde in diesem Jahr erweitert. Es war nun möglich, Anlagen, so genannte Attachments, an die eMail anzuhängen. Zum Versenden dieser eMails wurde die MIME (Multipurpose Internet Mail Extensions) benötigt. Der Empfänger musste ebenfalls ein MIME taugliches eMail-Programm besitzen, um die Nachrichten lesen und die Anhänge wieder in ihrem ursprünglichen Format öffnen zu können.

In diesem Jahr wurde die Grenze von 1.000.000 Hosts, welche am Internet angeschlossen sind, überschritten und die Internationalisierung wurde fortgesetzt. Es wurde die Länder Antarctica (AQ), Kamerun (CM), Zypern (CY), Equador (EC), Estland (EE), Kuwait (KW), Lettland (LV), Luxembourg (LU), Malaysia (MY), Slowakai (SK), Slowenien (SI), Thailand (TH) und Venezuela (VE) mit dem Netz verbunden.

1993 erhält Präsident Bill Clinton die eMail-Adresse „president@whitehouse.gov“. Auch der damalige Vize-Präsident Al Gore möchte diese Innovation nicht missen und erhielt die eMail-Adresse „vice-president@whitehouse.gov“.

Die NFS tagte über eine Erweiterung der Backbone-Netze im NFSNET und kam zu dem Schluss, die Backbone-Netze durch Network Access Points (NAP) zu ersetzen. An diese Network Access Points könnten dann regionale Netzwerke angeschlossen und mit Hochgeschwindigkeitsleitungen verbunden werden. Die kommerziellen Restriktionen, welche zwei Jahre zuvor geschaffen wurden, sollten gänzlich entfallen. Dies war ein Anreiz für kommerzielle Anbieter, solche Network Access Points zu erstellen. [10]

Durch den weiterhin rasanten Anstieg an jährlich 100% von Neuanmeldungen von Hosts im Internet kommt die Befürchtung auf, dass ein Ende der verteilbaren IP- Adressen vorauszusehen ist. Aus diesem Grund wird das IP-Protokoll Next Generation (IPNg) oder auch IPv6 geboren. Mit Hilfe dieses Protokolls ist es möglich eine Anzahl von 340 Sextillionen Adressen zu verteilen. Hierdurch würden theoretisch für jeden Erdenbürger mehrere tausende IP-Adressen zur Verfügung stehen. [11]

Das erste Internet Radio „Internet Talk Radio“ geht auf Sendung und es war den Benutzern erstmals möglich eine Radio-Sendung über das Internet zu verfolgen.

Eine wichtige Anwendung wurde ebenfalls im Jahr 1993 freigegeben. Der erste Webbrowser mit erweiterten Funktionen und dem Namen Mosaic wurde von der NCSA (National Center for Supercomputing Applications) entwickelt und zum kostenlosen Download freigegeben. Mit Hilfe dieses Browsers konnten nicht nur Texte, sondern auch Grafiken im fast weltweiten Netzwerk betrachtet werden. Als weiteres Feature bot der Browser eine Lesezeichenverwaltung. Der Nutzer hatte nun die Möglichkeit, besuchte Seiten als Lesezeichen abzuspeichern, um diese zu einem späteren Zeitpunkt wieder aufrufen zu können.

Die kommerziellen Netze American Online und Delphi, sowie die Länder Bulgarien (BG), Costa Rica (CR), Ägypten (EG), Fiji (FJ), Ghana (GH), Guam (GU), Indonesien (ID), Kasachstan (KZ), Kenia (KE), Liechtenstein (LI), Peru (PE), Rumänien (RO), Russland (RU), Türkei (TR), Ukraine (UA), UAE (AE) und US Virgin Islands (VI) werden an das NSFNET angeschlossen.

1994 bieten die ersten Online-Geschäfte ihre Produkte im Internet an und die Wachstumsrate der am Internet angeschlossenen Hosts beträgt weiterhin 100 Prozent. Dem zufolge beträgt die Anzahl der am Internet angeschlossenen Host über 4 Millionen Rechner und die am Internet angeschlossenen Netzwerke stiegen in diesem Jahr auf ca. 37.000 Stück.

Des Weiteren wird der Internet-Browser Mosaic, welcher von der Firma NCSA entwickelt wurde in „Netscape“ umbenannt und das Logo des Mosaic-Browsers wurde durch das neue Netscape Logo ersetzt.

Im Jahr 1995 beendet die National Science Foundation ihre Funktion als Haupt- Backbone-Netzwerk und das NSFNET wird wieder zum reinen Forschungsnetzwerk. Die Anmeldung von Domain-Namen wird ab diesem Jahr nicht mehr von der NSF finanziert, sondern es wurde ein jährlicher Betrag von 50 US-Dollar pro registrierte Domain fällig. [12]

Am 23. Mai 1995 bringt Sun Microsystems die Sprache JAVA heraus, wessen ursprünglicher Name dieser Programmiersprache OAK (Object Application Kernel) lautete und in diesem Jahr in JAVA umbenannt wurde. Nun musste ein Browser geschaffen werden, welcher JAVA-Applikationen unterstützt. Es wurde der Browser „HotJava“ vorgestellt, welcher im November 1994 entwickelt wurde und den Namen „WebRunner“ trug. Aus urheberrechtlichen Gründen musste der Browser „WebRunner“ in „HotJava“ umbenannt werden. [13]

Larry Page and Sergey Brin begannen in diesem Jahr eine Suchmaschine mit dem Namen „BackRub“ zu entwickeln. [14] Diese Suchmaschine war der Vorgänger von „google“, der heute meistbenutzten Suchmaschine im Netz9.

Um den Vertrieb von unsittlichen Gegenständen und Material über das Internet zu verbieten, erlässt die USA die das CDA (Controversial US Communications Decency Act), ein Gesetz, welches den oben genannten Vertrieb untersagt.

Erst in diesem Jahr erkennt die Firma Microsoft die Wichtigkeit des Internet und beginnt mit der Entwicklung des Browsers Internet-Explorer. Dieser Browser sollte im Gegensatz zum Netscape den Windows-Benutzern kostenlos zur Verfügung stehen.

Im März 1996 erscheint der weiterentwickelte Browser Netscape in der Version 2, welcher Frames, Javascript, Java-Unterstützung und Programmerweiterungen unterstützt. Hierdurch wird ein „Browserkrieg“ mit Microsoft entfacht. Bereits drei Monate später, im August 1996 erscheint der Browser Netscape in der Version 3. Dieser enthält zusätzliche Programmerweiterungen und neue HTML-Elemente. Zu diesen Elementen gehören beispielsweise die Hintergrundfarben für Tabellen und deren Inhalte.

In den kommenden Jahren wurden die Domain-Endungen stetig erweitert und 1997 sind die 10 meistbesuchten Domains, welche anhand Host-Zugriffs gezählt wurden: com, edu, net, jp, uk, de, us, au, ca, mil. [15]

Auch die Zahlen der registrierten Domains steigen in den kommenden Jahren im hohen Maße. So registriert die Firma Network Solutions im Mai seine zweimillionste registrierte Domain.

Im Februar des Jahres 1999 startet die erste Internet Bank, die „First Internet Bank of Indiana“, ihre Geschäfte. Die genannte Bank konnte ausschließlich über das Internet erreicht werden und zählte als erste Bank dieser Art.

In diesem Jahr wurde eine Verbindung über den Atlantik mit Hilfe des Internet2 hergestellt, ein Projekt, welches von der „University Corporation for Advanced Internet Development“ (UCAID) organisiert wurde. Ziel des Internet2 war es, eine Übertragungsrate von Ziel bis 2,48 Gbit/s zu erreichen10.

2.4 Heutige Technologien

In den vergangenen Jahren hat sich das Internet rasant entwickelt. Heute können beispielsweise Termine ausgetauscht, Wegbeschreibungen dynamisch erstellt oder auch Konzertkarten über das Internet bezogen werden.

Es geht sogar so weit, dass eine Internetanbindung für Unternehmen vorausgesetzt wird. So werden in Deutschland seit 2006 Unternehmen und Selbstständige verpflichtet, ihre monatliche Umsatzsteuervoranmeldung und Lohnsteueranmeldung auf elektronischem Wege an das Finanzamt zu versenden11. Hierfür bietet die deutsche Steuerverwaltung die Software ELSTER an. ELSTER steht für Elektronische Steuererklärung und ist im Internet kostenlos beziehbar. Des Weiteren steht für Entwickler und Softwarehäuser ein Entwicklungspaket (ELSTER- SDK) zur Verfügung, mit welchem die Integration der elektronischen Übermittlung in die eigene Software realisiert werden kann.

Ajax, CMS und Semantic Web

Im Gegensatz zu den früher üblichen statischen Internetseiten werden moderne Webseiten heute dynamisch erzeugt. Inhalte solcher dynamischen Seiten sind meist in Datenbanken hinterlegt, so dass die Änderung am Datenbankinhalt eine sofortige Änderung am Inhalt der Webseite bewirkt. Diese Änderung wird erst nach einem erneuten Laden der Seite sichtbar. Soll eine inhaltliche Änderung an der Internetseite während der Laufzeit vorgenommen werden, so hat man heute die Option, sich der AJAX-Bibliothek zu bedienen. Ajax steht für „A New Approach to Web Applications“ [16] und ist eine Kombination aus HTML, JavaScript Technologie, DHTML und DOM. Durch das ActiveXObjekt mit dem Namen XMLHttpRequest wird es ermöglicht, HTTP-Anfragen von einer Webseite aus an einen Webserver zu schicken und die Antwort weiterzuverarbeiten.

Aufgesetzt darauf, dass die Daten einer Internetseite dynamisch verwaltet werden, entstand der Begriff des „Content Management Systems“. Solche Systeme stellen dem Benutzer eine Schnittstelle bereit, mit welcher er Daten an seinem Internetauftritt ändern kann. Hierfür benötigt der Benutzer keinerlei Programmiererfahrung. Typischerweise werden die Inhalte mit Hilfe von Eingabefeldern und weiteren HTML-Elementen verwaltet. Der darzustellende Informationsgehalt wird in diesem Zusammenhang als Content (Inhalt) bezeichnet. Da Content Management Systeme in weitaus mehr Bereichen als im Internet angesetzt werden, lautet die Bezeichnung für ein internetspezifisches System „Web Content Management System“.

Ein weiterer Begriff der heutigen Technologien ist das „Semantic Web“. Durch das semantische Web sollen Internetdaten nicht nur von Menschen, sondern auch von Maschinen gelesen werden können. Beispielsweise soll die Maschine in einem Zugfahrplan die Abfahrtszeit, die Ankunftszeit und den Bahnhof automatisch erkennen können. Hierfür müssen Spezifikationen erstellt werden, die dem Inhalt einer Internetseite zusätzliche Informationen hinzufügt. Durch „Semantic Web“ wird es möglich, nicht nur direkt nach Suchbegriffen zu suchen, sondern auch Ergebnisse liefern zu können, welche inhaltlich mit dem Suchbegriff übereinstimmen.

Mashup

Auch der Begriff des „Mashup“ hat in der heutigen Zeit einen hohen Stellenwert. So stellen Internetdienstanbieter Schnittstellen zur Verfügung, auf welche ein anderer Anbieter zum Zweck der eigenen Nutzung zugreifen kann. So ist es beispielsweise möglich, Videos oder Landkarten anderer Seiten kombiniert auf der eigenen Internetpräsenz anzuzeigen. Jedoch lassen die Rekombinationen von Inhalten neue, eventuell ungewollte, Eigenschaften zu. Ein Beispiel für ein Mashup ist etwa folgendes: Ein Nutzer ist einer Internetgemeinschaft beigetreten und hat dort Angaben über seinen Wohnort hinterlassen. Diese Daten reichen einer von der Software der Internetgemeinschaft genutzten Schnittstelle eines Drittanbieterdienstes für Straßenkarten und Satellitenbilder aus, um den Gemeinschaftsmitgliedern das zeigen zu können.

Wohnhaus des Nutzers in der Vorgelperspektive

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.4: Beispiel Mashup

Web2.0

Abbildung in dieser Leseprobe nicht enthalten

Internetseiten wie Youtube12 oder Flickr13 sind heute in aller Munde. Auf diesen Seiten ist es dem Benutzer möglich, eigene Inhalte einzupflegen. Bei Youtube ist es dem Benutzer möglich Videos und bei Flickr Photoalben bereitzustellen und zu verwalten. Diese Inhalte stehen auf Wunsch des Benutzers, welcher die Inhalte der Webseite hinzugefügt hat, anderen Seitenbesuchern zur Verfügung. Der Vorgang, dass die Besucher durch Bereitstellen von Medien oder Inhalten die Inhalte einer Internetseite bestimmen, wird durch Dale Dougherty und Craig Cline seit 2004 dem Begriff Web2.0 zugeordnet. Richtig populär wurde der Begriff jedoch erst seit Herausgabe des Artikels "What O'Reilly.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.5: Zeitleiste heutiger Technologien [18]

Podcast

Als Podcasting wird die Produktion und Veröffentlichung von Medieninhalten über das Internet in Form eines abonnierbaren Tickers bezeichnet. Der Begriff Podcast setzt sich aus den Wörtern (Portable on demand Narrowcasting) zusammen und bezeichnet eine Serie solcher Medieninhalte, wobei es sich meist um Video- oder Audioinhalte handelt. [19] Ein Podcaster, wie der Produzent eines Podcast genannt wird, produziert Audio- oder Videoinhalte und stellt sie Anderen zur Verfügung, indem er sie mit dem Ticker verknüpft. Unterschiede zu einem ebenfalls abonnierbaren E-Mail-Newsletter bestehen beispielsweise darin, dass ein Podcast- Abonnent nicht zwingend alle Inhalte erhält, sondern aus dem Angebotenen selektieren kann. Außerdem muss der Anbieter eines Podcasts keine Abonnentenliste verwalten.

Um diese Daten empfangen zu können wird ein Podcasting-Client benötigt, welcher auf dem Rechner installiert wird. Mit dieser Applikation können genannte Feeds, erstellt werden. Das Programm überprüft in Playlisten, so regelmäßigen Abständen, ob neue Inhalte zur Verfügung stehen und lädt diese bei Bedarf automatisch herunter.

Meist handelt es sich beim Podcast um Radioshows, welche sich einem festgelegten Thema widmen. Große Radiosender nehmen sich zunehmend dieser Technologie an und verbreiten zielgerechte Medieninhalte an die Interessenten.

Laut einer Studie der Unternehmung „House of Research“ sind über 70% der Podcastnutzer unter 40 Jahre alt. [20] Über 54% und somit die Mehrheit der Befragten nutzen Podcast vorwiegend um Informationen über Technik, Computer und IT-News zu erhalten. Auf dem zweiten Platz der meist abgerufenen Podcast- die Informationen aus der Wissenschaft oder auch Wissenschaftssendungen.

Wiki

Wiki ist die verkürzte Form von „WikiWikiWeb“. Der Begriff „Wiki“ hat seinen Ursprung in Hawaii und kann mit „schnell“ übersetzt werden. Der Benutzer findet in einem Wiki Informationen, welche von anderen Benutzern bereitgestellt wurden. Meist sind einzelne Begriffe in einem Wiki zu einer anderen Seite innerhalb des Wikis verlinkt, auf welcher die Begriffserklärung zu finden ist. Am Ende einer jeden Begriffserklärung kann der Benutzer diese verändern oder ergänzen. Aus den genannten Gründen wird diese Art des Wikis den Web2.0-Technologien zugeordnet. Jedoch gibt es Wikis, welche nicht von jedem Benutzer geändert werden können. Sie stehen dem Administrator einer Webseite als Content-Management-System zur Verfügung.

ERP-Systeme

Durch die Automatisierung von Geschäftsvorgängen haben sich über die Jahre Programmkonzepte entwickelt, die einzelne Geschäftsvorgänge erleichtern sollen. Bisher arbeiteten diese Programme getrennt voneinander und es gab für jeden Geschäftsbereich ein eigenes Programm. Meist waren diese Programme von verschiedenen Herstellern. Durch die Einführung von ERP-Systemen (Enterprise Resource Planning) war es möglich, ein Programm zu erwerben, welches die verschiedensten Aufgabenstellungen des Unternehmens abdeckt. Meist werden die Aufgabenstellungen in Module eingeteilt. Die Module sind via Schnittstellen miteinander verbunden, so dass beispielsweise eine Rechnungsstellung im Verkauf automatisch auf einen Buchungssatz in der Finanzbuchhaltung verweist.

Typische Module eines ERP-Systems sind14:

- Personalwirtschaft
- Personalabrechnung
- Personalplanung
- Lohnbuchhaltung

- Finanzwesen
- Finanzbuchhaltung
- Kostenrechnung/Controlling

- Logistik
- Einkauf
- Vertrieb
- Materialwirtschaft
- Produktion
- Qualitätswesen

- Corporate Services
- Immobilien- und Reisemanagement
- Umwelt-, Gesundheits- und Arbeitsschutz

Laut einer Studie der IDC (International Data Corporation) von 2006 [21] liegt der westeuropäische Marktanteil von SAP im Jahr 2005 bei 43,7%. Die Oracle Corporation belegt in dieser Studie den zweiten Platz mit 8,9%.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.6: ERP-Marktanteile 2005

Allein in Deutschland führt SAP ebenfalls den Markt mit fast 69% an, wobei Oracle lediglich den fünften Platz belegt.

Momentan werden ERP-Systeme als Client-Server Lösung realisiert, wobei eine Server- und eine Client-Applikation installiert werden muss.

Aufgrund des heutigen Entwicklungsstands der Technologien, sowie den ansteigenden Einsatz von ERP-Systemen in Unternehmen, drängt sich das Aufgabengebiet einer internetbasierten Entwicklung eines solchen Systems auf. Das System muss auf keinem Client installiert werden, sondern benutzt Browser als vom Betriebssystem mitgelieferte Applikation. Solche werden „Rich Internet Applikationen“ genannt.

3. Rich Internet Applikationen

3.1 Einführung

3.1.1 Definition von Rich Internet Applikationen

Seit einigen Jahren wird das Internet von Unternehmen als Marktplatz für ihre Produkte verwendet. Bisher wurden zur Darstellung der Produkte klassische HTML- Seiten oder Script-Sprachen wie PHP und ASP eingesetzt. Durch diesen Ansatz konnten zwar dieselben Ziele erreicht werden, jedoch musste der komplette Seiteninhalt nach jeder Auswahl neu geladen werden um Änderungen fixieren zu können.

Das Wort „Rich“ steht für „Reichhaltig“ und verweist auf die funktionalen Möglichkeiten gegenüber konventionellen Webseiten. Durch Rich Internet Applikationen, kurz RIA genannt, ist eine übersichtliche Darstellung von komplexen Abläufen auf einer einzigen Webseite möglich, ohne dass die komplette Seite neu geladen werden muss. Hierfür werden ausschließlich die relevanten Inhalte dynamisch nachgeladen und direkte Befehle auf dem lokalen System ausgeführt. Durch diesen Vorgang entfallen die Wartezeiten des Browsers auf eine Antwort des Servers. Rich Internet Applikationen bieten darüber hinaus Bedienfunktionalitäten, wie sie von den gängigen Betriebssystemen bekannt sind. Hierzu zählen beispielsweise die Drag- and Drop-Funktionalität oder auch Ereignisse, welche durch einen Mouseover-Effekt hervorgerufen werden.

Laut einer Studie der IDC (International Data Corporation) bergen Rich Internet Applikationen eine herausragende Steigerung der Online-Verkaufszahlen für Unternehmen. [22] Allein in der Hotelbranche sind die Reservierungszahlen seit der Einführung von Rich Internet Applikationen um 46 Prozent angestiegen. Unternehmen im Allgemeinen berichten über eine Steigerung der Verkaufszahlen von 25 bis 50 Prozent. Die IDC gibt als möglichen Grund, den intuitiven Umgang von Informationen im Gegensatz zu konventionellen HTML-Seiten an, da die Art und Weise, Daten mit Rich Internet Applikationen visuell darzustellen, die technischen Möglichkeiten der Beschreibungssprache HTML übersteigt.

„Technically the problem was that using HTML they couldn’t represent what the final product would look like“ [23] Auch Michael Jung, ein Berater der msg at.net GmbH analysiert den Grund der Steigerung der Verkaufszahlen von Unternehmen. Neben dem intuitiven Umgang mit Informationen, wie sie die IDC beschreibt, sieht er den Rückgang von Transaktionsabbrüchen als möglichen Grund an. Er beschreibt, dass die Nutzer das Gefühl einer guten Betreuung im Unternehmen bewahren, da sie sich nicht durch lange Transaktionsstrecken „quälen“ müssen. Des Weiteren vertritt er die Meinung, dass die Betreuung von Kunden an oberster Priorität stehen muss, egal ob sie ihr Produkt im Geschäft kaufen oder online bestellen. [24]

Rich Internet Applikationen können jedoch mehr als nur Online-Shop Systeme oder Produktpräsentationen im Internet darstellen, es können ebenfalls komplett Client- Server basierte Anwendungen durch diese Applikationen abgelöst werden. Der Autor nahm sich ein, seit Jahren bestehendes, ERP-System zur Vorlage und realisierte aus diesem System das Modul der Finanzbuchhaltung. Das Ergebnis, sowie Auszüge des Quellcodes werden in Kapitel 4 dieser Arbeit vorgestellt.

3.1.2 Vor- und Nachteile von RIAs

Vorteil der besseren Interaktion

Da es durch Ajax-Requests möglich ist, ausgewählte Bereiche einer Internetseite zu aktualisieren, entfallen die bisher von HTML-Seiten bekannten Ladezeiten. Diese Ladezeiten bedeuten ebenfalls, dass der Besucher dieser Webseite Wartezeiten tolerieren muss, in denen er den Aufbau der Seite auf dem Bildschirm verfolgen und keine weitere Interaktion ausführen kann. Dem Benutzer steht es bei Rich Internet Applikationen hingegen frei, während der Ladezeit andere Bereiche der Internet- Seite zu betrachten oder sogar mit ihnen zu interagieren. Dabei spielt es keine Rolle, ob diese differenzierten Bereiche ebenfalls durch Benutzereingaben aktualisiert werden müssen.

RIAs bieten außerdem häufig Benutzeroberflächen, welche von gängigen Betriebssystemen oder Office-Programmen bekannt sind. Hierdurch entfällt die Einarbeitungszeit des Benutzers.

Der Monotonie einer Webseite kann außerdem durch das Einbinden von Audiomedien oder Videoclips entgegengewirkt werden. Es ist ebenso möglich ganze Videokonferenzen auf einer Webseite darzustellen.

Durch eine Validierung mit Hilfe von JavaScript ist es möglich, einen Eingabefehler des Benutzers direkt nach der Eingabe anzuzeigen. Es entfallen auch hier die üblichen Wartezeiten, da der Client nicht erst die Daten an den Server schicken und die Rückgabe abwarten muss. Stattdessen erfolgt die Validierung auf der Clientseite.

Teilweise tritt das Phänomen ein, dass nach einer Fehleingabe von Daten durch den Benutzer die Formularfelder nach dem Neuaufbau der Internetseite geleert sind, so dass der Benutzer gezwungen ist, seine Daten neu einzugeben. Dies beruht darauf, dass die korrekten Daten nicht wiederholt vom Server an den Client zurückgegeben werden oder, dass keine so genannten „value-Fields“ für das Formularfeld definiert wurden.

Letzeres sollte ein Sonderfall sein. Leider tritt dieser Fall durch unüberlegte Programmierung auf Internetseiten von kleineren Unternehmen noch häufiger auf.

Vorteil der ausbleibenden Installation

Die meisten heutigen Betriebssysteme liefern einen Browser als Standardapplikation mit. Sollte dies nicht der Fall sein, hat der Anwender die Möglichkeit unter einer Vielzahl von kostenlosen Browsern den gewünschten nachträglich zu installieren.

Der Internet-Browser ist heute nicht mehr als einfache Applikation zu sehen, da dieser eine Vielzahl von Techniken beherrscht. So können heutige Browser neben der Anzeige von HTML-Seiten auch mit Hilfe einer virtuellen Maschine oder einem Script-Parser unter anderem mit Java Applets, JavaScript und VBScript arbeiten.

Durch den mitgelieferten oder nachinstallierten Browser und die genannten Technologien bleibt dem Benutzer die clientseitige Installation der Applikation erspart. Auch muss er keinen Datenverlust durch eine Neuinstallation des Systems fürchten, da die Daten meist auf dem angesteuerten Server abgelegt werden.

Dies stellt zusätzlich eine Ersparnis für das Unternehmen dar, da ein Teil der Service-Hotline nicht mehr, wie bei konventionellen Client-Applikationen, mit Installationsfragen ausgelastet ist15.

Vorteil durch geographische Unabhängigkeit

Ist es der Wunsch des Benutzers eine webbasierte Anwendung zu nutzen, so hat dieser den Vorteil der geographischen Unabhängigkeit. Sicherlich konnten, aufgrund der Erfindung von Laptops, konventionelle Client-Applikationen geographisch unabhängig genutzt werden, jedoch wurde der Benutzer an ein oder mehrere vordefinierte Geräte gebunden. Durch die RIAs ist es möglich, einen fremden Rechner zur Ausführung der Applikation zu verwenden. Es besteht jedoch bei herkömmlichen RIAs die Bedingung einer Internetverbindung.

[...]


1 Browser-Programmerweiterungen, wie beispielsweise das Java Plugin oder der Macromedia Flash Player, werden auch Browser-Plugin genannt.

2 Ein geostationärer Satellit umkreist die Erde stets mit der gleichen Umlaufgeschwindigkeit wie die Erde selbst. Dadurch steht er relativ zur Erde fest.

3 zu deutsch: Forderung nach Kommentaren

4 IMP: dedizierter Netzrechner zur Nachrichtenzerlegung und Paketweiterleitung

5 decvax: Digital Equipment Corp. / Virtual Address eXtension

6 The World: http://world.std.com/ Noch heute ist es möglich, sich über die Website von „The World“, eine eMail-Adresse mit der Endung @theworld.com zu registrieren.

7 Gopher: zu deutsch Erdhörnchen

8 Gilster, Paul (1997): Der neue Internet Navigator

9 Studie 2007 von OneStat.com Web Analytics

10 Pressemitteilung von 1999: http://www.dfn.de/fileadmin/5Presse/Pressemitteilungen/1999/pm99-03-10.pdf 11 Elster: https://www.elster.de/

12 http://www.youtube.com

13 http://www.flickr.com

14 SAP Homepage: http://www.sap.com/germany/solutions/business-suite/erp/index.epx

15 Ein Großteil der Anfragen an die Service-Hotline betrifft die Installation. Diesen Schluss fasst der Autor aufgrund jahrelanger Erfahrung in enger Zusammenarbeit mit der Service- Hotline der HD Software und Beratungs GmbH.

Ende der Leseprobe aus 93 Seiten

Details

Titel
Entwicklung und Einsatz von Rich Internet Applikationen in kommerziellen Bereichen
Hochschule
Fachhochschule Gießen-Friedberg; Standort Gießen
Note
1,7
Autor
Jahr
2008
Seiten
93
Katalognummer
V118730
ISBN (eBook)
9783640221028
ISBN (Buch)
9783640223107
Dateigröße
11201 KB
Sprache
Deutsch
Anmerkungen
Diese Diplomarbeit befasst sich dem Thema der Rich Internet Applikationen, kurz RIA, und spezialisiert sich auf kommerzielle Bereiche. Neben der Erläuterung von Rich Internet Applikationen, werden Beispielanwendungen aufgezeigt. Eine vom Autor entwickelte, internetbasierte Finanzbuchhaltungssoftware wird in Beispielen und Quellcodeauszügen beschrieben. Wissenschaftliche Prognosen anhand diverser Studien sind ebenfalls enthalten.
Schlagworte
Entwicklung, Einsatz, Rich, Internet, Applikationen, Bereichen
Arbeit zitieren
Marcus Steller (Autor), 2008, Entwicklung und Einsatz von Rich Internet Applikationen in kommerziellen Bereichen, München, GRIN Verlag, https://www.grin.com/document/118730

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Entwicklung und Einsatz von Rich Internet Applikationen in kommerziellen Bereichen



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden