Konzeption und integrierte Formalisierung eines Referenzmodells für informationslogistische Agentensysteme

Ontologie; Intuition des Thesaurus?


Doktorarbeit / Dissertation, 2007
288 Seiten, Note: 2,0

Leseprobe

Inhaltsverzeichnis

Anforderung an die Publikation

Ergebnis der Untersuchung

Einleitung

1.0 Information
1.1 Kommunikation
1.2 Geschäftsprozess
1.2.1 Technologietransferprozess
1.2.2 Entscheidungsprozess
1.3 Virtualisierung
1.3.1 System
1.3.2 Kooperation
1.4 Informationslogistik
1.5 Nutzwert des Produktionsfaktors Wissen

2.0 Dokumentenmanagement
2.0.1 Information Retrieval
2.0.2 Relevanz
2.1 Dublin Core
2.2 Ontologie
2.3 Thesaurus
2.3.1 Semiotik
2.3.2 Semiotischer Thesaurusbegriff
2.4 Klassifizierung

3.0 Ontologische Modellierung
3.0.1 Gestaltung von Ontologien
3.0.2 Ontologische Modellierung mittels Thesauri
3.1 Knowledge Interchange Format
3.1.1 KIF-Formalisierung
3.1.2 Bildung von Axiomen mit dem KIF
3.2 Web Ontology Language
3.2.1 OWL-Formalisierung
3.2.2 Bildung von Axiomen mit der OWL
3.3 Simple Knowledge Organisation System
3.3.1 SKOS-Formalisierung
3.3.2 Bildung von Inferenzen mit dem SKOS

4.0 Fachkonzeptmodellierung
4.0.1 Informationsmodell
4.0.2 Meta-Modell
4.1 Informationsmodellmanagementsystem
4.2 Thesaurus-gestützte phonotaktische Forecast-Steuerung
4.2.1 Phonetik und Phonologie
4.2.2 Phonotaktik
4.2.3 Phonotaktische Modellierung

5.0 Zusammenfassung

Anhang:

Literaturverzeichnis

Linkliste

Referenzliteratur /Wissen, ist zu wissen, wo es steht/

Definitionen

Abkürzungen

Lebenslauf

Anforderung an die Publikation

Anspruch der Ausführungen ist die umfassende konzeptionelle und formale Beschreibung eines informationslogistischen Agentensystems als natürlichsprachiges Referenzmodell. Allgemein verstehen wir unter einem informationslogistischen Agentensystem, das den Anforderungen heutiger (elektronischer) Märkte gerecht wird und ein zentrales Instrument zur Koordination der Geschäfts- und der mit ihnen einhergehenden Unterstützungsprozesse darstellt, ein integriertes Konzept der Kontrolle und Steuerung wissenbasierter sowie zunehmend intelligenter Datawarehouse-Technologien. Die zu implementierenden Koordinationsfunktionen dienen der automatisierten Abstimmung der Wissenserwerbsstrategie über alle Unternehmensbereiche und -ebenen hinweg, zunehmend mittels selbsttätiger (semiotischer) Verfahren der Künstlichen Intelligenz. Das informationslogistische Agentensystem soll zum einen Funktionen zur zeitnahen Koordination der Mechanismen und Regelkreise beinhalten, die zur Befriedigung der Informations- und Kommunikationsbedürfnisse von menschlichen und artifiziellen Agenten (das sind die Akteure bzw. Handlungsträger, die wir auch mit dem Begriff „Nutzer“ bezeichnen) in konkreten Problemlösungs- bzw. Entscheidungssituationen dienen. Zum anderen soll das informationslogistische Agentensystem eine Prognoseperspektive (Stichwort: Forecast) zur vorausschauenden Planung der Informations- und Kommunikationsbedürfnisse im Rahmen einer übergeordneten Kontrolle und Steuerung der Unterstützungsprozesse, der sog. „Technologietransferprozesse“, im Gesamtunternehmen umfassen. Eine Erläuterung der Begriffe „Unterstützungsprozess“ und „Technologietransferprozess“ sowie eine Abgrenzung der Begriffe untereinander findet sich in Kapitel 1.2.1.

Zur Optimierung der Informationsflüsse und als Ausgangspunkt der evolutionären Weiterentwicklung des Geschäftshandelns wird eine in Kapitel 3.0.2 vorgestellte Ontologie dienen, welche sowohl die Aspekte des Wissensmanagements wie die des Informationscontrollings bzw. der computergestützten Revision beim Einsatz der „Bestände organisationellen Wissens“ (Wissensbestände) in sich vereinigt. Eine Ontologie ist ein Gerüst, das ein gemeinsames Verständnis einer Domäne, eines Wertebereichs bzw. einer Diskurswelt beinhaltet und zwischen den heterogenen Nutzern sowie immer häufiger verbreiteten, auf künstlicher Intelligenz basierten Agenten übermittelt werden und vermitteln kann. Auf den grundlegenden Aspekten der Beschreibung eines Wertebereichs aufbauend kann ein informationslogistisches Agentensystem mittels einer ontologischen Modellierung bestimmen, wie welche Geschäftsprozesse optimal zu unterstützen sind. Zielsetzung ist die bedarfsgerechte Versorgung der an einer sog. „Wertekette“ nach Porter[1] beteiligten Agenten mit dem von ihnen benötigten Wissen in konkreten Problemlösungs- bzw. Entscheidungssituationen; aus einer Wertekette gehen die einzelnen (Teil-)Aktivitäten (Geschäftsprozesse) einer Unternehmung hervor. Als alternative Methode der ontologischen Modellierung wird von uns in Kapitel 3.0.2 ebenfalls ein Thesaurus vorgeschlagen, auf dessen Basis Bibliotheken häufig Bücher katalogisieren oder sie mit einer inhaltlichen (Schlagwort-)Beschreibung versehen. (Wir subsummieren unter dem Begriff „ontologische Modellierung“ die Ontologien und Thesauri, aber auch Relationssprachen wie etwa das „Entity Relationship Modell“ [ERM] von Chen.)

Durch den Einsatz eines Thesaurus, durch die mit ihm einhergehende konsequente Anwendung natürlichsprachiger Ausdrücke, deren syntaktisch korrekte Verknüpfung in unserem Ansatz mittels funktionaler Ausdrücke kontrolliert wird, sollen Problemstellungen als Weltausschnitte modelliert in ein (unternehmungsspezifisches) Informationsmodell gefasst, verstanden, gelöst, dokumentiert und fortan harmonisiert weiterentwickelt werden. So wird eine Ausgangssituation geschaffen, die den Bedingungen des fortgeschrittenen Information Retrieval jederzeit entspricht und Anpassungen flexibel und zeitnah ermöglicht, die etwa durch die Änderung der Anforderungen notwendig bzw. durch neue technologische Entwicklungen erstmals möglich werden.

Das Thesauri inhärente Meta-Wissen soll dabei von den wissensbasierten und zunehmend intelligenten Agentensystemen, die einen Netzwerk-Thesaurus gemeinsam verwenden, kohärent (zusammenhängend, sinnbildend) und konsistent (in sich stimmig) in die Problemlösungs- bzw. Entscheidungsprozesse einbezogen werden. Wir hoffen, durch den unterstützenden Einsatz des Verfahrens der Logfile-Analyse, etwa im Rahmen der Betriebsdatenerfassung jederzeit ein genaues, wenn auch „geronnenes“ Abbild der betrieblichen Realität anhand des Meta-Wissens standardisiert darstellen zu können, welches die umfangreichen operativen und wertorientierten Aspekte der Verwendung von organisationellem Wissen berücksichtigt, so dass die darin enthaltenen Intangible Assets durch spezialisierte Monitore konsequent bewertet werden können (Stichwort: Flow Manager).

[ Anmerkung: Für Lev[2] stellen sog. „Intangible-Assets“ immaterielle Vermögenswerte dar, ähnlich den materiellen Vermögenswerten, wie etwa durch kommerzielle Rechte generierte Gewinne, von einem Wertpapier abgeleitete Zinszahlungen oder von einer Produktionseinrichtung ausgelöste Cashflows. Ein immaterieller Vermögenswert ist ihm zufolge eine Option auf den zukünftigen Nutzen, der jedoch keine physikalische oder finanzielle Verkörperung wie etwa eine Lagerhaltung oder ein Wertpapier hat. Ein Patent, eine Marke oder eine einzigartige Organisationsstruktur, etwa eine internetbasierte Wertschöpfungskette, die Kostenersparnisse generiert, sind in seinem Sinne immaterielle Vermögenswerte.]

In einem betrieblichen Umfeld umfasst das Anwendungsspektrum ontologischer Modellierungen vor allem die Koordination des Wissens- und Geschäftsprozessmanagements in vernetzten Unternehmensstrukturen, etwa im Bereich des Datawarehousing oder im Kontext von Auktionsmechanismen (Stichwort: Market-In-Approach). Mittels Thesaurus-gestützter informationslogistischer Agentensysteme soll es möglich werden, die (zukünftigen) Leistungspotenziale zu erkennen und entsprechende Mechanismen und Regelkreise zur Kontrolle und Steuerung der Informationsarbeit zu etablieren, um sowohl Information-Retrieval-Prozesse durchzuführen und darauf aufbauende Verhandlungen nach außen zu führen als auch die Leistungsentwicklung anhand der erkannten Potenziale zu koordinieren. Das von uns vorgestellte Konzept des Netzwerk-Thesaurus zielt, vor dem zunehmenden Trend zu elektronischer Geschäftskommunikation mittels Agententechnologie, auf die automatisierte und standardisierte Unterstützung der Koordinationsfunktionen sowohl der Geschäftsprozesse als auch der mit ihnen einhergehenden Informationsvermittlungsprozesse (Technologietransferprozesse). Hier sind sowohl Aspekte des Managements als auch die für ein Unternehmen unabdingbaren Fragen der computergestützen Planung und vertiefenden, informationslogistischen Unterstützung technischer Systemeigenschaften zu betrachten.

Auf der Grundlage des in Kap. 3.0.2 hergeleiteten Thesaurus beschreiben wir in Kap. 4.2.3 die horizontal und vertikal verflochtenen funktionalen und ablauforientierten Geschäftsprozesse eines Unternehmens durch ein Modell zur nicht-linearen Darstellung von Werteketten. (Das Ursprungsmodell stammt aus dem Bereich der Phonologie.) Wir beabsichtigen ein Unternehmen in die Lage zu versetzten, nicht nur seine Leistungserstellung und Wertschöpfung zu optimieren, sondern auch seine eigenen Kommunikationsabsichten und seinen eigenen Kommunikationsbedarf im Rahmen der Geschäftsprozesse, wie die bzw. den seiner Kooperationspartner, vorausschauend zu identifizieren und entsprechende Informationsmodelle zeitnah zu modellieren. Mit dem Ziel, die unternehmensweiten und -übergreifenden Mechanismen und Regelkreise zur Kontrolle und Steuerung der Informationsarbeit weiter zu optimieren, soll der (zukünftige) Bedarf an Technologietransferprozessen anhand von Informationsmodellen entlang der gesamten Wertekette einer Unternehmung fortlaufend feingranular und zeitnah erfasst sowie die zum Einsatz kommenden Ablaufstrukturen vom informationslogistischen Agentensystem automatisch evaluiert werden. Eine weitere Anforderung an das informationslogistische Agentensystem besteht darin, die zur Unterstützung benötigten Technologietransferprozesse, durch das Einschalten einer Forecast-Komponente zur synchronen Koordination des abteilungs- und unternehmensübergreifenden Wissens- und Geschäftsprozessmanagements, selbsttätig zu steuern. Durch die gemeinsame Verankerung der Mechanismen und Regelkreise zur Koordination der Geschäfts- sowie der mit ihnen einhergehenden Unterstützungsprozesse (Technologietransferprozesse) auf dem Boden einer phonotaktischen Forecast-Steuerung soll ein informationslogistisches Agentensystem neue Geschäftsstrategien selbsttätig erarbeiten, was bis hin zur automatisierten Schaffung neuer Organisations- und Geschäftsprozessstrukturen führen wird.

Gesamthintergrund der Überlegungen ist die Absicht, Managern, Architekten und Entwicklern einen in sich geschlossenen und konsistenten Rahmen als Basis für ihre Arbeit an die Hand zu geben, der, in weitester Interpretation der durch die herausgearbeiteten betrieblichen Rahmenbedingungen implizierten strategischen Aspekte, gleichzeitig genügend Spielraum für eigene operative und taktische Interpretations- und Implementierungsentscheidungen bei der Entwicklung unterschiedlichster Informationssysteme bietet.

Ergebnis der Untersuchung

Die Architektur wissensbasierter und zunehmend intelligenter Agenten muss die Koordination der vielfältigsten Arten von Wissen differenziert berücksichtigen. Die den benötigten, inhaltsspezifischen Vereinbarungen zugrunde liegenden Definitionen sind sprachlicher Natur und beinhalten grundsätzliche, formalsprachige Vereinbarungen über die Objekte und deren Beziehungen untereinander, die zwischen den menschlichen Agenten über die Wissensbasen und zwischen den artifiziellen Agenten an den Softwaremodulschnittstellen ausgetauscht werden. Auf der Ebene des Fachkonzeptes und des Datenverarbeitungskonzeptes kommen zunehmend formalsprachige Mittel auf natürlichsprachiger Basis, also semantische Formalismen zum Einsatz.

Zur Unterstützung eines Handlungsträgers im betrieblichen Alltag muss ein artifizieller Agent in der Lage sein, sachlogische Entscheidungen auf der Grundlage eines zuvor definierten Vokabulars zu treffen. Agiert ein Agenten im Auftrag eines Handlungsträgers selbsttätig über das Intra- bzw. Internet oder wird ein umfangreiches Planungsproblem an mehrere kooperierende Agenten verteilt, bedarf es der Vereinbarung über die (potenziell) inhaltlich zu erwartenden Themen des Transfers von Wissen, so dass die an einer Interaktion beteiligten Agenten sich „verstehen“ und „unterhalten“ können. Dabei kommt es darauf an, die tragenden Wissenselemente einer Domäne bereits im Vorfeld einer Interaktion sachlich richtig zu erfassen und sie zunächst den artifiziellen Agenten verständlich zu machen, um sie in der Folge in die Lage zu versetzen, sowohl den Strom der Daten innerhalb der Wertekette (und entlang der Wertschöpfungsketten) eines Unternehmens zur informationellen Absicherung einer Informierung aufzubereiten als auch Information-Retrieval-Prozesse durchzuführen und darauf aufbauende Verhandlungen zu führen. (Dazu ist vorweg eine gründliche Erforschung sowohl der Verwendung des Wissens als auch der Repräsentationsformalismen vonnöten.) Im Rahmen eines informationslogistischen Agentensystems muss vor diesem Hintergrund sowohl ein Konzept zur Erschließung der organisationellen Wissensbasis als auch ein Modell zur vertiefenden Analyse der Inhalte des im Kontext einer Information-Retrieval-Funktion gesammelten Wissens etabliert werden und mit Relevanz-Feedback-Kompetenz gekoppelt sein. Die dazu notwendigen Mechanismen und Regelkreise müssen bereits bei der Konzeption des informationslogistischen Agentensystems (auf der Fachkonzeptebene) in die Funktionen integriert (vgl. Kap. 4.1) und im Rahmen der Modellierung des Datenverarbeitungskonzeptes initialisiert werden (vgl. Kap. 4.2.3).

Durch das Einschalten einer Forecast-Komponente zur synchronen Kontrolle und Steuerung (Koordination) des abteilungs- und unternehmensübergreifenden Wissens- und Geschäftsprozessmanagements wird ein Unternehmen in die Lage versetzt, nicht nur seine Leistungserstellung und Wertschöpfung zu optimieren, sondern auch seine eigenen Kommunikationsabsichten und seinen eigenen Kommunikationsbedarf im Rahmen der Geschäftsprozesse, wie die bzw. den seiner Kooperationspartner, vorausschauend zu identifizieren und entsprechende Informationsmodelle zeitnah zu modellieren. Mit dem Ziel, die unternehmensweiten und -übergreifenden Kontroll- und Steuerungsmechanismen weiter zu unterstützen, kann der (zukünftige) Bedarf an Technologietransferprozessen anhand von Informationsmodellen entlang der gesamten Wertekette einer Unternehmung fortlaufend feingranular und zeitnah erfasst sowie die zum Einsatz kommenden Ablaufstrukturen vom informationslogistischen Agentensystem automatisch evaluiert werden.

Neben der operativen Perspektive ist in diesem Zusammenhang besonders die planerische und dispositive Perspektive zu betrachten. (Simulationen unterstützen in diesem Umfeld zudem die Gestaltung der Funktionen und Konzepte hinsichtlich der Versorgung der Agenten mit handlungsrelevantem Wissen.) Durch die zeitnahe Modellierung der Werteketten eines Unternehmens kann ein wichtiges Instrument zur Koordination und Evaluierung der Leistungserstellung sowie der sie unterstützenden Technologietransferprozesse mit der Methode der phonotaktischen Kombinatorik auf der Grundlage semiotischer Thesauri etabliert werden (vgl. Kap. 4.2.3).

Wir können im Kontext derartiger Koordinations- und Evaluierungsfunktionen wiederum von artifiziellen Agenten sprechen, die vom informationslogistischen Agenten- bzw. Muttersystem entsprechend „indoktriniert“, gewissermaßen als Replikator seiner Strategien fungieren. Mittels eines Informationsmodells, das zuvor situationsbezogen aus einem Informationsmodell-Repository extrahiert oder zur Laufzeit generiert wird, bildet ein Agent die relevanten Aspekte etwa einer möglichen Kooperation auf seine Umgebung ab. Eine entsprechende Replikationsfunktion gestattet, einerseits unverzüglich eine beliebige Wertekette eines Unternehmens visualisieren bzw. virtualisieren zu können und andererseits durch den Austausch von Netzwerk-Thesauri an den Softwaremodulschnittstellen, die jeweils aus einem Grundstock von mehreren Diskurswelten ausgewählt werden, das unternehmungsspezifische Informationsmodell nach außen zu kommunizieren. Um unterschiedlichste Arten von Geschäfts- und Technologieprozessen formal selbsttätig generieren zu können, muss ein Agent mittels semiotischer Thesauri in der Lage sein, sein Weltbild vermitteln und eigenständig Relevanzbeurteilungen durchführen zu können. Er stellt hierzu die relevanten Aspekte bspw. einer möglichen Kooperation in seiner Formalsprache dar und stellt den Beschreibungsausschnitt an seiner Softwaremodulschnittstelle zur Verfügung. Die Bildung einer gemeinsamen Verbegrifflichung von möglichen Realitätserfahrungen zielt darauf ab, Meta-Wissen, das über eine Vielzahl von unterschiedlichen Informationsobjekten verfügbar ist und an den Softwaremodulschnittstellen ausgetauscht wird, so aufzubereiten und zu vermitteln, dass heterogene Agenten dieses in einer kohärenten und konsistenten Art nutzen können. Dabei werden nicht alle benannten Begriffe global in einer ontologischen Modellierung erfasst, sondern es entsteht ein eher loses Netzwerk aus dezentralen, spezialisierten Thesauri. Die Wertebereiche semiotischer Thesauri können entsprechend spezialisiert gestaltet sein, da sie durch eine völlig neue (intelligente) Vernetzung in eine logische Relation gebracht sind. Eine Übereinkunft über ein gemeinsames Weltbild ermöglicht es schließlich zwei interagierenden Agenten, selbsttätig Relevanzbeurteilungen, bspw. hinsichtlich der Möglichkeiten und des Umfangs einer Zusammenarbeit, durchzuführen und eine Kooperation zu initiieren (oder auch zu beenden).

Netzwerk-Thesauri dienen somit zum einen der Konzipierung, der Etablierung, der Koordination und der Evaluierung der informationellen Absicherung des Informationsflusses, der Geschäftsprozesse, der Technologietransferprozesse zugleich, ebenso wie es Ontologien tun. Zum anderen dienen sie, über die Möglichkeiten von Ontologien hinaus, der Etablierung einer gemeinsamen Sprachkultur, damit die beteiligten menschlichen und artifiziellen Agenten zu einem gemeinsamen Weltbild finden, sich verstehen und erfolgreich kooperieren können. Durch Netzwerk-Thesauri wird es möglich, alle Perspektiven des Einsatzes intelligenter IuK-Systeme bzw. der Agententätigkeit zu erfassen und in ein (taktisches) Steuerungsinstrument des Wissens- und Geschäftsprozessmanagements zu überführen, das eine Kooperation fortlaufend überwacht.

Wir haben es bei den im Rahmen eines informationslogistischen Agentensystems zum Einsatz kommenden semiotischen Thesauri mit einer konsequenten Fortentwicklung der Organisation von Wissen zu tun. Aus den früheren, auf einer Monohierarchie aufbauenden Klassifizierungen des Bibliothekswesens (zur systematischen Aufstellung von Büchern) entwickelten sich zunächst die feiner gegliederten Thesauri der Dokumentation zur Erschließung von nicht-selbstständigen Publikationen. Diese Art von Thesauri enthalten bereits weitaus begrenztere Wissenselemente als die ersten Klassifizierungen. Die semiotischen Thesauri gehen noch einen Schritt weiter, indem sie noch schärfer umrissenes Wissen etwa im Datawarehouse-Bereich für Information-Retrieval-Prozesse bereitstellen.

Während die frühen Thesauri hauptsächlich durch eine Polyhierarchie (d.h. einen gerichteten azyklischen Graphen, mit dem jeder Begriff mehreren Oberbegriffen zugeordnet werden kann) gekennzeichnet sind, erweist es sich Umstätter[3] zufolge als immer wichtiger, den Wortschatz durch mathematische, logische, syntaktische und definitorische Relationen so zu vernetzen, dass die Begrifflichkeiten immer komplexer darstellbar und somit eindeutig sind. Umstätter bezeichnet derartige Verbegrifflichungen von möglichen Realitätserfahrungen als sog. „semiotische Thesauri“, die, auf dem Boden des semiotischen Informationsbegriffs, den Gedanken der Semantik und Pragmatik nach Morris[4] umfassen und dabei auf die Beziehung von Begriffen zu ihren Benennungen ausgerichtet sind. Auch Panyr[5] zufolge steht im Mittelpunkt des Interesses moderner Thesauri die Darstellung der Beziehungen und Relationierungen, letztere umfassen die Verknüpfungen von Beziehungen, wobei insbesondere die Differenzierung der hierarchischen Beziehungen, ein stärkeres Betonen der systematischen Darstellungen und die Verstärkung der klassifikatorischen Anteile bis hin zur Bildung von sog. „Scheindeskriptoren“, die nicht zur Indexierung, sondern nur zur Komplettierung der Hierarchie gebraucht werden, in den letzten Jahrzehnten der Thesaurusarbeit herausgearbeitet wurden. Auch die Differenzierung der assoziativen Beziehungen sowie die Einbringung der zeitlichen Dimension der Deskriptorengestaltung, entweder als Änderungsbeziehung oder zusätzliches Ordnungskriterium, spielen bei modernen Thesauri eine wichtige Rolle.

Wir müssen nach Umstätter[6] zwischen zwei Arten von Thesauri unterscheiden. Solche, die in erster Linie dazu dienen, die Bedeutung des Gesendeten zu verstehen und solche, die uns ein vertieftes Verständnis im Sinne von Wissen über das Gesendete, und somit auch über den Sender selbst, vermitteln. Für uns umfasst die Idee eines gemeinsamen „Netzwerk-Thesaurus“ die Möglichkeit, sowohl die Motive (Werte, Ziele und Strategien) des Empfängers als auch die des Senders einer Mitteilung etwa im Rahmen einer Kooperation gleichzeitig in die Interpretationsarbeit einzubeziehen. Die Agenten, die eine Begriffssammlung teilen, müssen nach der Übermittlung, vor der Assimilation eines übermittelten Weltausschnitts, beurteilen können, ob das Weltbild des Kommunikationspartners (Stichwort: Sender-Empfänger-Modell) mit ihrem eigenen übereinstimmt und letztendlich entscheiden, ob der übermittelte Weltausschnitt zu verwerfen oder als handlungsrelevant anzunehmen ist. Die Interoperativität der an einem Technologietransferprozess beteiligten Agenten kann deutlich verbessert werden, indem die an den Softwaremodulschnittstellen ausgetauschten Realitätsausschnitte durch den Empfänger hinsichtlich der internen Repräsentationsmerkmale des Senders beurteilt und mit seinen eigenen Objektdefinitionen abgeglichen werden. Dies gelingt nur über moderne Netzwerk-Thesauri, in denen Benennungen durch ihre hierarchische Organisation eine Begrifflichkeit erhalten, die auch für Computer verständlich ist. Mit Hilfe der Relationen, die im Prinzip eine eigene Syntax darstellen, werden Bezeichnungen einer Begrifflichkeit zugeordnet, die in unserem Konzept auf der Empfängerseite den semantischen und auf der des Senders den pragmatischen Aspekt anspricht (vgl. Kap. 1.1). So ist es möglich, sowohl die kognitiven Prozesse des Empfängers einer Mitteilung als auch die des Senders in die Interpretationsarbeit einzubeziehen und eine Verbindung von Begriff und Benennung zu erzeugen, die eine semiotische Interpretationsarbeit im Kontext informationslogistischer Agentensysteme erlaubt. Der dabei verwendete Thesaurusbegriff ist semiotisch bestimmt und knüpft in Anlehnung an Umstätter (s. o.) an die Theorie der Zeichen nach Morris (s. o.) an. Demnach umfasst das Konzept des Netzwerk-Thesaurus – entsprechend den drei semiotischen Ebenen (Sprachebenen) – den syntaktischen, den semantischen und den pragmatischen Informationsbegriff.

Der Einsatz eines Netzwerk-Thesaurus ist jedoch weder automatisch eine Garantie für die Konsistenz des definierten Vokabulars, das die durch den Thesaurus erschlossene Ontologie umfasst, noch für die Vollständigkeit der Beschreibung der Diskurswelt (des Realitätsausschnitts) in Bezug auf die Fragen, die Antworten sowie die Aussagen des bzw. der Agenten. Ontologische Regeln (bzw. Vorschriften) dienen lediglich dazu, das gemeinsame Vokabular in einer kohärenten (zusammenhängenden, sinnbildenden) und konsistenten (in sich stimmigen) Art darzustellen. (Der Begriff „Kohärenz“ bildet ein Begriffspaar mit „Kohäsion“. Unter dem Begriff „Kohäsion“ wird die an das Sprachmaterial gebundene Textoberflächenstruktur verstanden; vgl. Einleitung.) Dabei besteht die Herausforderung im Rahmen der Implementierungsarbeit eines informationslogistischen Agentensystems für den Architekten und Entwickler darin, sowohl ein konsistentes Weltbild zu formen als auch mittels Inferenzregeln und Axiomen jene unvermeidlichen inkonsistenten Situationen abzufangen, die im Rahmen der Interaktion bzw. Kooperation eines Agenten mit anderen Systemen entstehen. Das bedeutet, dass zum einen ein Inferenzregelsystem zwecks der Erschließung von Situationsbeziehungen gebildet und zum anderen die Plausibilität der Inferenzregeln durch Axiome begründet werden muss.

Ein besonders gut geeignetes Format zur formalen Repräsentation ontologischer Modellierungen im Semantic Web ist das SKOS-Framework. Das SKOS liefert einen übergeordneten Rahmen, der es erlaubt, Daten und aus ihnen abgeleitetes Wissen über Unternehmensgrenzen hinweg zu teilen und hinsichtlich ihrer Interpretation konsistent zu verwenden. Es bleibt zu untersuchen, ob die an semiotische Thesauri geknüpften Erwartungen im Semantic Web in der Praxis bestätigt werden können.

Einleitung

In den meisten Unternehmen hat sich der Einsatz moderner „Informations- und Kommunikationstechnologie“ (IT) zur Erfüllung von Verwaltungsaufgaben als effizient erwiesen und der „Personal-Computer“ (PC) ist als Arbeitserleichterung und Wissensquelle am Arbeitsplatz nicht mehr wegzudenken. Er vereinfacht die Aktenverwaltung und -archivierung, ermöglicht kooperative Arbeitsabläufe (wie bspw. mit der Unterstützung von Workflow- bzw. Groupware-Anwendungen) und setzt Synergieeffekte frei, die mit dem Fluss der Produktionsfaktoren und der Organisation der Aktivitäten einhergehen.

Während unter dem in diesem Zusammenhang gebräuchlichen Begriff „E-Business“ meist alle Aktivitäten eines Unternehmens verstanden werden, welche auf die Anpassung (und Integration) der IT an (in) die Aktivitäten zum Zwecke der Effizienzsteigerung nach Innen ausgerichtet sind (Stichwort: Computer Aided Industry), werden unter dem Begriff „E-Commerce“ in erster Linie der Austausch von Waren und Dienstleistungen (der mit Internet-Technologie gestützte und unterstützte Handel) sowie die Koordination der dazu notwendigen „Informations- und Koordinationssysteme und -prozesse“ (IuK-Systeme und -Prozesse) verstanden.[7]

Scholz, Stein und Eisenbeis definieren den Begriff „E-Commerce“ allgemein als „ein integriertes Konzept zur Nutzung bestimmter Informations- und Kommunikationstechnologien zur elektronischen Integration und Verzahnung unterschiedlicher Wertschöpfungsketten oder unternehmensübergreifender Geschäftsprozesse und zum Management von Geschäftsbeziehungen“.[8]

Wir werden im Rahmen der Informationsmodellierung vor dem Hintergrund des Managements mitunter unternehmens- und länderübergreifender sog. „Supply Chains“ (Wertschöpfungsketten), die durch den Einsatz von IT implizierten Fragen der vertiefenden (elektronischen) Unterstützung der Unternehmungen nicht explizit auf eine interne und eine externe (Prozess-)Perspektive beziehen, sondern fassen beide Perspektiven unter dem Prinzip der „Virtualisierung“ zusammen. Dies ist aufgrund der Interdependenzen des Managements der internen und externen Aspekte des standardisierten Betriebs technischer Netzwerke vorteilhaft.

Scholz, Stein und Eisenbeis[9] verstehen unter einem virtuellen Unternehmen ein „künstliches Unternehmen“, das basierend auf den individuellen Kernkompetenzen der Stakeholder eine Integration entlang der gesamten Wertschöpfungskette realisiert, ohne dass ein zusätzlicher organisatorischer Aufwand notwendig wird. (Die Stakeholder sind die Akteure im Umfeld eines Unternehmens, die besondere Interessen und Ansprüche an die Tätigkeit richten.) Die Virtualisierung eines Unternehmens bedeutet sowohl die umfassende und interaktive Visualisierung im Internet (Stichwort: E-Commerce) als auch die Virtualisierung interner Geschäftsprozesse und Organisationseinheiten (Stichwort: E-Business).

Der Gedanken eines informationslogistischen Agentensystems beinhaltet ein integriertes Konzept der Koordination wissenbasierter und intelligenter IT zur elektronischen Integration und Verzahnung unterschiedlicher Wertschöpfungsketten oder unternehmensübergreifender Geschäftsprozesse und zum Management von Geschäftsbeziehungen, zunehmend ausschließlich mittels artifizieller (softwarebasierter, intelligenter) Agenten (zum Begriff „informationslogistisches Agentensystem“ vgl. Kap. 1.4). Dies beinhaltet die Organisation von Prozessen und Institutionen auf virtueller (elektronischer) Basis, die entsprechend keine festen Ordnungsstrukturen und Vereinbarungen erforderlich macht. Virtualisierung bedeutet die Vernetzung heterogener (Teil-)Objekte für in der Regel zeitlich befristete Aufgaben.

Eine Aufgaben- und Arbeitsteilung, wie sie entlang der (unternehmensübergreifenden) Wertschöpfungsketten, innerhalb der Wertekette in Unternehmen stattfindet, bedingt die Koordination einzelner Teilprozesse, die nach innen wie nach außen unterschiedlichen Akteuren zugeordnet sind. In der Abbildung 1 ist die sog. „Wertekette“ nach Porter,[10] aus der die einzelnen (Teil-)Aktivitäten (Geschäftsprozesse) hervorgehen, schematisch dargestellt (zum Begriff „Geschäftsprozess“ vgl. Kap. 1.2). Es geht darum zu koordinieren, welche Rolle, welche Fragestellung, zu welchem Zeitpunkt mit welchen (methodischen) Werkzeugen bearbeitet.

Abbildung in dieser Leseprobe nicht enthalten

[Abb. 1: Die Wertschöpfungskette ist ein Teil der Wertekette nach Porter (abgewandelte Darstellung)[11] [12] ]

- Abb. 1: Die Aktivitäten innerhalb der Wertekette eines Unternehmens wirken nicht unabhängig voneinander, sondern sind durch zahlreiche Querverbindungen, die wir als Schnittstellen bezeichnen, miteinander verknüpft. Die Umsetzung einer Aktivität hat häufig Konsequenzen für die Effizienz oder die Effektivität der übrigen Maßnahmen.

Anhand Porters Modell können Manager, Architekten und Entwickler die einzelnen Aktivitäten (Geschäftsprozesse) eines Unternehmens kategorisieren und zuordnen. Alle betrieblichen Funktionen eines Unternehmens, unabhängig von der Branche, lassen sich einer der gezeigten Aktivitäten zuordnen, die sich wiederum in zwei große Perspektiven unterteilen:

1. In der oberen Hälfte sind die sog. „flankierenden Maßnahmen“ angeordnet, durch die erforderliche Inputfaktoren bereitgestellt oder entsprechende infrastrukturelle Bedingungen geschaffen werden, um eine reibungslose Abwicklung der Primäraktivitäten zu gewährleisten.
2. Im unteren Teil des Modells sind die sog. „Primäraktivitäten“ angesiedelt. In diesen Bereich fallen Geschäftsprozesse, die mit der Herstellung des Produktes bzw. der Erstellung der Leistung selbst, der Auslieferung an den Kunden, dem Marketingprozess und den Serviceleistungen nach dem Kauf zu tun haben. Wir werden diese Aktivitäten im Weiteren zusammenfassend mit dem Begriff „Wertschöpfungskette“ bezeichnen.

Hinweis: Hervorzuheben ist das von uns hinzugefügte Prinzip der „virtualisierten Organisation“ (vgl. Kap. 4.1). Die Virtualisierung löst herkömmliche Unternehmensgrenzen auf und schafft neuartige Gestaltungsformen und -potenziale (vgl. Kap. 1.3). Die neuen Ansätze zur Entwicklung von Wertschöpfungsstrategien gehen, im Gegensatz zu den traditionellen, ablauforientierten, von informationsorientierten Prozessmodellen aus, die eine zeitnahe Modellierung einzelner Geschäftsprozesse der Werteketten und der unterstützenden Technologietransferprozesse implizieren (vgl. Kap. 4.2). Die Aktivitäten zielen insbesondere auf die informationelle Absicherung der Geschäftsprozesse sowie der Fragen des wirtschaftlichen Einsatzes entsprechender (durch die zunehmende Komplexität der IT-implizierten) Unterstützungssysteme.

Die Aktivitäten innerhalb eines Unternehmens wirken nicht unabhängig voneinander, sondern sind durch zahlreiche „Querverbindungen“ miteinander verknüpft. Wir werden in dieser Publikation die direkte Verknüpfung von Geschäftsprozessen als Schnittstellen bezeichnen und verstehen unter der Aneinanderreihung einzelner (überbetrieblicher) Geschäftsprozesse eine (überbetriebliche) Wertschöpfungskette, denn durch die Zergliederung (Virtualisierung) der Unternehmungen entstehen zunehmend unabhängige Einzelunternehmen, die, als wirtschaftlich unabhängige Instanzen agierend, über geschlossene Werteketten verfügen. Durch die Verknüpfung der Werte- bzw. Wertschöpfungskette(n) von Unternehmen verfügen die Kooperationspartner über einen Kontakt zu den (elektronischen) Märkten.

Sobald ein Unternehmen den ersten Schritt von der Datenverarbeitung zum Wissensmanagement vollzieht, wird der Prozess der Problemlösungs- bzw. Entscheidungsfindung, werden die Management- und Organisationsstrukturen, aber auch die Geschäftsprozesse sich zu verändern beginnen[13] und es wird zur Koordination der neuen (durch die Internet-Technologie erstmals denkbaren) Werte- bzw. Wertschöpfungsketten notwendig werden, sowohl die Schnittstellen als auch die Ablaufstruktur (den Workflow) der beteiligten Systeme zur Unterstützung dieser neuen Rahmenbedingungen fortlaufend anzupassen[14] und diesen Prozess sowohl mit Wissen als auch mit IT weiter zu unterstützen.[15]

D.h. Wissen auf Wissen anzuwenden. Strategisch betrachtet hat die zunehmende Verbreitung technologischen Wissens (Know-hows) und darauf aufbauender (IuK-)Systeme zur Folge, dass:[16]

- die strategischen Mechanismen und Regelkreise im Bereich des Wissensmanagements geschützt, gestützt und ausgebaut werden müssen,
- das existierende Know-how ausgebaut sowie das spezialisierte Personal geschult und als Unternehmenswerte behandelt werden müssen,
- die organisationellen Wissensstände im Datawarehouse handhabbar bzw. durchsuchbar gemacht werden müssen, um aus unzusammenhängenden Daten wertvolle Zusammenhänge im Sinne von Innovationen zu extrahieren.

Nur so können die Geschäftsprozesse aufrechterhalten werden. Die optimale Allokation der Ressourcen eines Unternehmens erfordert eine vollständige und gesicherte, richtige Berücksichtigung aller objektiv vorhandenen Produktionsfaktoren. Dies beinhaltet auch die Bestände organisationellen Wissens. Um die unterstützenden, den eigentlichen Geschäftsprozessen voran- und nachgestellten, übergreifenden Technologietransferprozesse zu etablieren, zu überwachen, zu steuern und weiterzuentwickeln, bietet sich als Hilfsmittel zur Erschließung der Quellen geschäftsrelevanten Wissens der Einsatz eines informationslogistischen Agentensystems an. Dieses operationalisiert durch den Einsatz verschiedenen Verfahren des Wissensmanagements die im Rahmen der Geschäftsprozesse anfallenden Rohdaten in einer Wissensbasis bzw. einem Datawarehouse (zum Begriff der „Wissensbasis“ bzw. des „Datawarehouse“ vgl. Kap. 1.4). Es umfasst Mechanismen und Regelkreise, die den organisatorischen Rahmenbedingungen moderner (elektronischer) Märkte gerecht werden, zur automatisierten Abstimmung der Wissenserwerbsstrategie über alle Unternehmensbereiche und -ebenen hinweg, zunehmend mittels selbsttätiger (semiotischer) Verfahren der „Künstlichen Intelligenz“ (KI). Das Management hat durch den Einsatz eines informationslogistischen Agentensystems die Möglichkeit, nicht nur die IuK-Prozesse zu optimieren, sondern ebenfalls die Wettbewerbschancen des Unternehmens zu verbessern.

Sachthematisch geordnete oder auch vorwiegend nach formalen Gesichtspunkten erfasste Datensammlungen verbinden sich im Datawarehouse zu einem unternehmensbezogenen, organisationellen Wissensstand. Diese umfangreiche Wissens- und Faktendokumentation, zu der noch Formen der Ergebnisdokumentation und chronologische Abläufe hinzutreten, beinhaltet umfangreiche prozedurale Aspekte des Einsatzes aller Produktionsfaktoren sowie der Organisation und der Durchführung der Geschäftsprozesse zugleich. Um das zur Durchführung der Geschäftsprozesse, etwa der Leistungserstellung, notwendige Wissen zu generieren, dokumentieren die Unternehmen mit der BDE betriebliche Abläufe von der Zugangskontrolle am Eingang eines Unternehmens bis zur Lagerbestandsaufnahme.[17] Dabei wird ein umfangreicher Bestand an Rohdaten erhoben und ausgewertet. Dies sind:[18]

- betriebsmittelbezogene Daten (Störungen, Laufzeiten, Unterbrechungen und Instandhaltungsmaßnahmen),
- materialbezogene Daten bzw. Erzeugnisstrukturdaten (Zu- und Abgänge sowie Rezepte),
- kunden- bzw. auftragsbezogene Daten (Zu- und Abgänge, Fertigungszeiten, Fertigungsmengen und Qualitäten),
- lieferantenbezogene Daten (Zu- und Abgänge sowie Verfügbarkeiten),
- leistungsbezogene Daten bzw. Arbeitsgangstrukturdaten (Kapazitäten, Kosten- und Arbeitspläne),
- personalbezogene Daten (Zu- und Abgänge sowie Anwesenheitszeiten).

Die Systeme der BDE und ihre Daten sind jedoch nicht nur die Vorraussetzung für eine aktuelle zeitnahe Koordination (Kontrolle und Steuerung) der Leistungserstellung, sondern sie bilden die Infrastruktur für unterschiedliche andere Anwendungsbereiche. So werden neben den leistungsbezogenen Daten der Personalbuchhaltung zeitnahe, prozessbezogene Daten für die mitlaufende Kalkulation sowie Rohdaten für die strategische Planung der Geschäftsprozesse benötigt. Die Planung ist in der unternehmerischen Praxis stets mit einer gewissen Unsicherheit verbunden. In der Regel stimmen die tatsächlich realisierten Zielbeträge mit den geplanten nicht überein. Im Rahmen der betrieblichen Überwachung sind die erwarteten Plangrößen (SOLL-Werte) daher den tatsächlich realisierten Größen (IST-Werten) gegenüberzustellen. Es sind also Kontrollmitteilungen zu verarbeiten. Die Kontrolle dient dabei vordergründig der Abweichanalyse, letztendlich aber der Verbesserung künftiger Planung. Aus Kontrollmitteilungen werden so potenzielle Planungsgrößen. Letztere Größen werden im betrieblichen Umfeld als Indikatoren bezeichnet. Je vollständiger und zuverlässiger diese sind, desto genauer ist die Forecast-Planung, desto kleiner wird die Gefahr von Fehlentscheidungen und desto höher ist auch der Zielerreichungsgrad.

[ Anmerkung: Ein Plan ist Kunz und Rittel[19] zufolge eine halbgeordnete Menge von beabsichtigten Aktivitäten, die einen erwünschten Zustand eines Systems herbeiführen sollen. Der Zustand ist durch eine Liste von zuvor definierten Eigenschaften geprägt und soll keine unerwünschten bzw. unvorhergesehenen Seiten- und Späteffekte mit sich bringen.]

Ein verbreitetes Ziel der BDE ist die maschinell nutzbare Erschließung und Speicherung von Daten als Grundlage für Expertensysteme. Hier liegt ein großes Problem in den vielfältigen Formen des von menschlichen Experten genutzten Wissens. So verfügt ein Mensch nach einer Einteilung von Jandach[20] über Faktenwissen, über Problemlösungswissen sowie über Anwendungs- und Erfahrungswissen. Dieses Wissen lässt sich lediglich mit entsprechendem Aufwand über IT zugänglich machen. Eine ähnliche Einteilung vollzieht Krüger,[21] der aber der Effizienz derartiger Verfahren kritisch gegenübersteht.

Richter[22] zufolge ist es einfacher, das gesamte Produktspektrum eines Großkonzerns zu erfassen als einen beliebigen Sachverhalt in seiner allgemeinen Form zu beschreiben. Es liegt meist schon, wenn auch nicht zwingend gesammelt, in Form von Rohdaten vor. Eine Konsequenz ist, dass Architekten und Entwickler eher versuchen können, sukzessive einen „intelligenten Experten für bestimmte Fragen“ zu beschreiben, dessen Hauptgewicht auf der Verarbeitung formaler Strukturen liegt, als etwa einen Grundlagenforscher. Bei Letzterem steht in den meisten Fällen die Kombination von vorhandenem Wissen zu neuem im Vordergrund und er wird viele Fälle approximativ, aber keinen abschließend lösen können. Je komplexer Fachexperten werden, desto weniger sind sie in der Lage, ihr angewandtes Wissen explizit darzustellen (Stichwort: Knowledge-Engineering-Paradoxon).

Natürlich benötigt ein intelligenter Fachexperte auch Alltagswissen, um nicht bei einem schwierigen Problem, etwa in der Informatik, daran zu scheitern, dass er nicht weiß, was eine Maus oder eine Tastatur ist. Es handelt sich hierbei um wichtiges Grundwissen und viele fachspezifische Anwendungen setzen derartige Kenntnisse implizit voraus, die aber nicht in den Lehrbüchern stehen. Architekten und Entwickler haben trotzdem die Möglichkeit, den zur Lösung von speziellen Problemen benötigten „gesunden Menschenverstand“ geeignet zu lokalisieren und fachlich objektiviert in einem informationslogistischen Agentensystem verfügbar zu machen.

Welche Relationen für ein informationslogistisches Agentensystem darstellbar sind, ergibt sich auf jeder Ebene der Systembildung aus der Differenz von System und Umwelt. In umgekehrter Blickrichtung lässt sich das Problem der System-Umwelt-Differenz mit Hilfe des Komplexitätsbegriffs erklären (vgl. Kap. 1.3.1). Die Einrichtung und Erhaltung einer Differenz von System und Umwelt ist jedoch ein Problem, da die Umwelt für jedes System komplexer als das System selbst ist. Dem System fehlt die Möglichkeit, die erforderlich ist, auf jeden Zustand der Umwelt zu reagieren bzw. die Umwelt genau systemadäquat einrichten zu können.

Diese Komplexitätsunterlegenheit muss durch Selektionsstrategien ausgeglichen werden. Dass das System zur Selektion gezwungen ist, ergibt sich schon aus seiner eigenen Komplexität. Welche Ordnung in der Relationierung seiner Elemente gewählt wird, resultiert aus der Komplexitätsdifferenz zur Umwelt. Von einer Reduktion der Komplexität kann immer dann gesprochen werden, wenn das Relationsgefüge eines komplexen Zusammenhanges durch einen zweiten Zusammenhang mit weniger Relationen rekonstruiert wird. Der Komplexitätsverlust muss dann durch besser organisierte Selektivität aufgefangen werden.

Diese komplizierte Fassung des Reduktionsproblems ist dadurch notwendig geworden, dass man den ontologischen Begriff des „Elementes“ als einfachste, nicht weiter dekomponierbare Seinseinheit aufgegeben hat (vgl. Kap. 2.2). Solange eine solche als „Seinsgarantie“ anzusehende Einheit angenommen wurde, konnte die Reduktion der Komplexität einfach als Rückführung auf solche Einheiten angesehen werden. Durch die Virtualisierung entsteht nun eine unfassbare Komplexität eines Systems (bzw. seiner Umwelt), wenn alles mit allem verknüpft ist.

Komplexität in diesem Sinne ist ein Maß für Unbestimmtheit oder für einen Mangel an Wissen über das System und seine Umwelt. Komplexität ist, so gesehen, das Wissen, welches dem System fehlt, um seine Umwelt bzw. sich selbst vollständig erfassen und beschreiben zu können. Dies zeigt, dass Systeme ihre eigene Komplexität (und erst recht die ihrer Umwelt) nicht erfassen und doch problematisieren können. Das System produziert also lediglich und reagiert lediglich auf ein unscharfes Bild seiner selbst.

Diese Zusammenhänge sind bei Luhmann[23] nachzulesen, der natürlich nicht von einem Knowledge-Engineering-Paradoxon spricht, sondern seine Ausführungen auf physische Systeme (Gedanken) und soziale Systeme (Kommunikationszusammenhänge) bezieht (vgl. Kap. 1.3.1).

Ein besonderes Interesse gilt der Frage, wie sich die individuellen „Weltwahrnehmungen“ der Nutzer und deren artifizieller Agenten auf einer natürlichsprachigen Basis formalsprachig beschreiben und etwa zwecks arbeitsteiligen Zusammenwirkens der Agenten aufeinander abstimmen lassen. Solche Fragestellungen gewinnen im Hinblick auf Multi-Agentensysteme, in Bezug auf sog. „Kollektive autonomer Roboter“ und neuerdings auch auf Softwareagenten im Internet große Beachtung innerhalb der Forschung im Bereich der KI. Seit Anfang der 90er Jahre beschäftigt sich auch die Wirtschaftsinformatik unter Schlagworten wie „Informations- und Wissensmodellierung“, „Knowledge Sharing“, „Knowledge Reuse“ und „Distributed Knowledge Management“ intensiv mit diesem Thema.

[ Anmerkung: Wir beziehen uns bei der Definition des Begriffs „Künstliche Intelligenz“ auf Panyr,[24] der unter Rückgriff auf Walker,[25] den Begriff vor einem computerlinguistischen Hintergrund erläutert. Wir resümieren hier in unserem Sinne: Um die (natürlichsprachigen) Kontroll- und Steuerungsinstrumente zur Koordination der mit den Geschäftsprozessen einhergehenden Unterstützungsprozesse (Technologietransferprozesse) zu etablieren bzw. initialisieren ist es wichtig, die zur Ausführung der Geschäftsprozesse nötigen, komplexen Assoziationsprozesse des menschlichen Verstehens ausführlich zu erforschen. Die Methoden und die Modelle der KI zielen darauf ab, Konzepte und Techniken zur Verfügung zu stellen, um die kognitiven Prozesse des menschlichen Verstehens bei der Verarbeitung von Wissen zu modellieren. Dazu ist es notwendig, sowohl die Vision als auch die Vorstellungskraft der Nutzer zu erforschen, um so mehr über den grundsätzlichen Verarbeitungsprozess im menschlichen Gehirn in Erfahrung zu bringen. Die Methoden und die Modelle der KI beinhalten die Begründung, die Repräsentation und die Modellierung der menschlichen Verarbeitungsprozesse und dienen der Abbildung des menschlichen Handelns auf softwarebasierte intelligente Systeme. Dabei kommen heuristische Funktionen zur Informationsaufbereitung und Wiedergewinnung zum Einsatz, die im Rahmen der Koordination der Geschäftsprozesse zur optimalen Allokation des Produktionsfaktors Wissens dienen. Panyr (s. o.) spricht zwar nicht von der Unterstützung von Geschäftsprozessen, die in seiner Ausführung beschriebenen Verfahren werden jedoch, angesichts der fortschreitenden Notwendigkeit, die Kapazitäten zur (natürlichsprachigen) Bereitstellung von organisationellem Wissen auszuweiten, zunehmend in die (unternehmensübergreifenden) Kontroll- und Steuerungsinstrumente integriert.]

Das Kriterium der uniformen Repräsentation von Wissen besagt, dass gleiches oder analoges Wissen auch in gleicher oder analoger Form repräsentiert werden soll, und dass eine uniforme Lesbarkeit der Rohdaten, in denen es enthalten ist, zu ermöglichen ist. Diese Forderung bezieht sich nicht nur auf einen einzigen Sachverhalt oder auf ein einziges Programm, sondern auf die gesamte Wissensrepräsentationssprache. Bei einem Programm, das in einer klassischen prozeduralen Programmiersprache geschrieben ist, trifft dies jedoch nur auf diejenigen Teile zu, die von der Semantik der Kontroll- und Datenstrukturen der Programmiersprache abgedeckt sind. Darüber hinaus enthalten die Daten selbst jedoch vielfältiges, weitergehendes Wissen. Wenn etwa ein Register eine Eins enthält, so kann das bedeuten:[26]

- In einem ersten Programm: Es existiert ein gewisses Objekt X mit einer bestimmten Eigenschaft P.
- In einem zweiten Programm: Wir haben jetzt bewiesen, dass alle Objekte X eine gewisse Eigenschaft haben.
- In einem dritten Programm: Wir haben nun einen bestimmten Befehl auszuführen.

Diese Mehrdeutigkeit verdeutlicht den Sinn des sog. „Uniformitätskriteriums“. Wir müssen stets spezielle Verabredungen treffen, um solche Inhalte verstehen zu können, was wiederum bedeutet, dass wir unabhängig von der speziellen Situation jederzeit feststellen können oder müssen, um welche Art der Aussage es sich handelt, ob wir ein allgemeines Gesetz, eine Frage, einen Befehl oder eine Ablaufbeschreibung vor uns haben. Der Sinn des Uniformitätskriteriums ergibt sich nicht zuletzt daraus, dass wir einen Agenten in die Lage versetzen wollen, dynamisch auf neue Situationen angemessen zu reagieren. Dies wird dann interessant, wenn wir wegen der Komplexität des dargestellten Realitätsausschnitts nicht mehr in der Lage sind, alle möglichen Situationen von vornherein zu erfassen und es daher dem Agent möglich sein muss, selbsttätig zu reagieren.

Weitere Modellierungskriterien ergeben sich aus den Anforderungen an das Problemlösungsverhalten des Agenten. Die wichtigste Forderung ist, dass ähnliche Probleme auch mit ähnlichen Lösungsversuchen angegangen werden, was aber nicht bedeutet, dass ähnlich klingende Probleme auch ähnliche Lösungen haben müssen. Es heißt nur, dass bei einer leichten Variation der Problemstellungen als Erstes einmal versucht wird, die Lösungsmöglichkeit auch entsprechend zu variieren. Die Hauptleistung eines informationslogistischen Agentensystems liegt (in Anlehnung an Panyr[27] ) demzufolge insbesondere in den folgenden Aufgaben:

- Der Formalisierung des Problems zwecks Abbildung auf ähnliche Probleme bzw. Anwendungen.
- Der Bereitstellung des Anwendungs- bzw. Handlungswissens bezüglich der anzuwendenden Methoden.
- Der Zuführung des bereits aufbereiteten Wissens und inferenziellen Regelwerks zu einer geeigneten Verwendung.

Gewöhnlich gibt es viele Beziehungen und Relationen zwischen verschiedenen Wissensinhalten und die Repräsentation sollte so viele von ihnen als möglich enthalten. Der Grund ist, dass gerade diese Beziehungen, die ja auch wieder Wissen darstellen, den Problemlösungsprozess unterstützen. Wichtig sind hier vor allem sog. „horizontale“ und „vertikale“ Relationen. Horizontale Relationen gruppieren solche Objekte in einzelne Pakete, die miteinander korrelieren. In der Softwaretechnologie ist dies im Modulkonzept verwirklicht. Vertikale Relationen sind vor allem Abstraktionsvorgänge, welche entweder die typentheoretischen oder taxonomischen Hierarchien widerspiegeln.

Es reicht jedoch nicht aus, lediglich Kriterien an die Art und Stärke der Ausdrucksfähigkeit des Repräsentationssystems zu stellen. Damit alleine ist noch kein sinnvolles und effizientes Problemlösungsverhalten festgelegt. Es muss vielmehr dafür gesorgt werden, dass die ausgedrückten Aspekte auch in der intendierenden Weise in Wissensverarbeitung umgesetzt werden können. So würde etwa die Möglichkeit zur Formulierung der Einsicht, dass in bestimmten Situationen eine gewisse Strategie vorzuziehen ist, nichts nützen, wenn dies nicht zu der Konsequenz führt, dass in entsprechenden Situationen eine Strategie tatsächlich angewandt wird. Ein Verhaltensmodell beinhaltet zugleich, dass der (zeitliche) Aufwand sowohl zu dieser Überlegung als auch zur Realisierung einer Strategie den Effizienzgewinn nicht wieder hinfällig macht.

[ Anmerkung: Allgemein ist eine Strategie (Entscheidungsregel) eine Spezifikation dessen, was in jeder Situation, in der ein Agent Informationsarbeit leistet, zu tun ist. Die Situation ihrerseits hängt vom bisherigen Verlauf der Informierung ab. Daher kann eine Strategie Axelrod[28] zufolge im Anschluss an bestimmte Muster von Interaktionen einerseits kooperieren oder andererseits defektieren (das bedeutet bspw. eine Kooperation aufgrund eines beiderseitigen Einverständnisses ablehnen).]

Eine der Hauptaufgaben ist es, Wissen so zu repräsentieren, dass wir es im Kontext eines informationslogistischen Agentensystems schnell „verstehen“ und flexibel anwenden können. Dazu ist eine gründliche Erforschung sowohl der Repräsentationsformalismen als auch der Verwendung vonnöten. Mit dem Konzept der sog. „Präsuppositionen“ wird dabei versucht, die Funktion von außersprachigen Wissensbeständen bei der Konstitution von Kohärenz (d.h. bei der Erschließung eines Zusammenhangs) zu erfassen und zu erklären.

[ Anmerkung: Der Begriff „Kohärenz“ bildet ein Begriffspaar mit „Kohäsion“. Unter dem Begriff „Kohäsion“ wird die an das Sprachmaterial gebundene Textoberflächenstruktur verstanden. Hierzu seien die Ausführung von de Beaugrande und Dressler[29] sowie Linke, Nussbaumer und Portmann[30] empfohlen.]

Damit etwas zu einem kohärenten Text wird, muss im Normalfall Interpretationsarbeit geleistet werden. Schlussfolgerungsverfahren, die dazu dienen, Präsuppositionen zu (re-)konstruieren, werden in diesem Zusammengang als sog. „Inferenzen“ bezeichnet. Der Begriff „Inferenz“ steht für die Bezeichnung einer Aussage, die sich auf vorangegangene Aussagen und deren Überprüfungen bezieht und mit welcher der Agent zu einem logischen Schluss kommt. Manchmal ist Sprachverstehen nur durch Inferenz möglich, etwa um einen anschaulichen und bildlichen Satz richtig deuten zu können.

[ Anmerkung: In der Mathematik wird unter dem Begriff „Inferenz“ eine Aussage verstanden, die sich auf vorher getroffene oder allgemein akzeptierte Urteile und ihre Überprüfung bezieht.]

Natürliche Sprache in gesprochener oder geschriebener Form bildet die verbreitetste und natürlichste Darstellungsform von Wissen. In gewissem Sinne stellt die natürliche Sprache auch den Ausgangspunkt für die meisten Repräsentationsformalismen dar. Sehr überspitzt stellen Bibel, Hölldobler und Schaub[31] (die auf Haugeland[32] rekurrieren) das Gebiet der Wissensrepräsentation mit dem des Verstehens und der Verarbeitung natürlicher Sprache gleich.

Soll natürliche Sprache bis zu einem Detaillierungsgrad verstanden sein, der ihre mechanische Beherrschung erlaubt, so muss sie als Formalismus mit einer bestimmten Semantik begreifbar gemacht werden. Dabei begegnen wir jedoch sofort der fundamentalen Schwierigkeit, dass jeder sprachliche Satz, schon einmal vorausgesetzt, er sei syntaktisch richtig gebildet, je nach Umständen verschiedene Bedeutungen haben kann. Als Beispiel sei der folgende Satz angeführt: „Er ist auf dem richtigen Weg.“. Erst im Kontext der begleitenden Umstände ergibt sich die Eindeutigkeit. Hat der Kontext die Eindeutigkeit hergestellt, bleibt immer noch die Frage, wie sich diese Bedeutung aus dem Satz und seinen Teilen ergibt. Die elementare Schwierigkeit liegt darin, dass der syntaktische Aufbau des Satzes mit einem entsprechenden Aufbau der Gesamtbedeutung aus primitiven Bedeutungseinheiten (wie bspw. den einzelnen Wortbedeutungen) offenbar nicht einhergeht.

Von einer Theorie der Wissensrepräsentation zu einer gegebenen Problemstellung und Wissensquelle kann allgemein gefordert werden, dass sie die dazu passenden Formalismen bereitstellt, welche die Akquisition des erforderlichen Wissens aus der genannten Quelle in einer Form ermöglichen, die dieses Wissen für menschliche und artifizielle Agenten gleichsam verständlich repräsentiert und zur möglichst effizienten Problemlösung beiträgt.

[ Anmerkung: Der Begriff „Formalismus“ bezeichnet in der Mathematik eine Theorie, deren Aussagen durch ein System formaler Regeln gewonnen werden. Die Regeln einer formalen Theorie beschreiben, wie durch logisches Schließen mittels Axiomen, die Produktion einer formalen Grammatik erfolgt, insbesondere um neues Wissen aus bereits Bekanntem herzuleiten (Stichwort: Inferenz).]

Bei der Diskussion von Wissen im Kontext von Agentensystemen sollten wir so genau wie möglich zwischen drei Ebenen unterscheiden. Es sind dies (Newell;[33] ähnlich Richter[34] ):

1. die Wissensebene (kognitive Ebene),
2. die Darstellungsebene (Repräsentationsebene) und
3. die Symbolebene (Implementierungsebene).

Auf der obersten, der Wissensebene (kognitiven Ebene), organisieren Menschen ihre Gedanken Newell (s. o.) zufolge, ein ähnliches Konzept findet sich bei Richter (s. o.), in rationaler Weise und formulieren sie umgangssprachlich. Hier werden Probleme modelliert, aber sie werden noch nicht formalisiert. Auf der Darstellungsebene (Repräsentationsebene) werden diese Gedanken dann in formalisierter Form dargestellt, etwa in einer Sprache der Logik. Auf der Symbolebene (Implementierungsebene) ist schließlich die Formalisierung so weit fortgeschritten, dass sie auf einem PC behandelt werden kann. Dies kann etwa mit der Programmiersprache „Lisp“ geschehen. Die Implementierungssprache orientiert sich also an den Möglichkeiten vorhandener Systeme, während die Darstellungsebene eher an der Wissensebene ausrichtet ist. Das Ebenenbild ist recht grob und kann nach Newell in verschiedener Weise verfeinert werden. Zwischen den Ebenen müssen Übersetzungsprozesse stattfinden, die sich an der menschlichen Wissensverarbeitung orientieren (Stichwort: KI-Lücke).

Dies bedeutet, dass die „Weltwahrnehmungen“ natürlichsprachig, also auf Basis der Wortbedeutung, vorliegen und semantisch abrufbar sein müssen. Dabei spielen Ontologien und Thesauri eine wichtige Rolle, um Inhalte objektorientiert zu spezifizieren und die Objekte und deren Beziehungen zueinander formal zu beschreiben. Ontologien und Thesauri sind vor allem im Wissensmanagement nützlich und können einen Beitrag zur Interoperativität und Integration verschiedener Datenbanksysteme leisten und zu mehr Interaktion mit anderen Anwendungen führen, wenn sich heterogene Systeme verstehen können. Dieser objektorientierte Ansatz ist nicht zuletzt notwendig, um die möglichen Geschäftsprozessmodellvorteile durch Internet-Technologie zu verwirklichen (zum Ontologiebegriff vgl. Kap. 2.2; zum Thesaurusbegriff vgl. Kap. 2.3).

In einer Studie des „Bundesamtes für Sicherheit in der Informationstechnik“ (BSI)[35] nehmen Experten zu den Anwendungs- und Einsatzmöglichkeiten ontologischer bzw. semantischer Technologien Stellung. Die befragten Vertreter aus Wissenschaft und Forschung erwarten die Realisierung „intelligenter“ Agenten, welche auf der Grundlage derartiger Methoden eigenständig interagieren können, allerdings erst frühestens bis zum Jahre 2010. Von den Befragten wird betont, dass einheitliche Standards und Klassifizierungen für Ontologien und in unserem Sinne Thesauri zum Einsatz in informationslogistischen Agentensystemen eingeführt werden müssen. Wir werden in Kapitel 2.4 etablierte Methoden zur Klassifizierung vorstellen und am Beispiel des Projekts CONDOR[36] aufzeigen, dass sich die bewährten Verfahren aus dem Dokumentationsbereich auf die Bereitstellung von Ontologien durch bzw. und Thesauri zur Unterstützung der zunehmend selbsttätigen Kommunikation zwischen artifiziellen Agenten erfolgreich übertragen lassen.

Definition 1 – Agent:

Unter einem artifiziellen Agenten wird allgemein eine (softwarebasierte) intelligente Dienstleistung verstanden, die im Auftrag von Nutzern (menschlichen Systemen), z.B. im Intranet, auf elektronischen Marktplätzen oder im offenen Internet selbständig, alleine oder in Kooperation mit anderen Agenten, Informations-, Transaktions- oder Kommunikationsfunktionen übernimmt.[37]

Ein „intelligenter“ bzw. artifizieller Agent kann (nach Vorgaben) ohne menschliche Interaktion Entscheidungen fällen sowie Operationen selbständig durchführen und besitzt die Fähigkeit, auf eine sich dynamisch verändernde Umwelt reagieren zu können, wozu er sich der Techniken aus dem Bereich der KI bedient.[38] Durch die Einbeziehung softwarebasierter, intelligenter Funktionen in die Architektur von IuK-Systemen, lassen sich die Werte, Ziele und Strategien der entscheidenden Instanzen einer (virtualisierten) Unternehmung in allen IuK-Prozessen berücksichtigen sowie die mit den Geschäftsprozessen einhergehenden Unterstützungsprozesse (Technologietransferprozesse) selbst um komplexe Mechanismen und Regelkreise zur selbsttätigen Optimierung des Geschäftshandelns erweitern. Die zu implementierenden Zielsetzungen eines Agenten, d.h. seine Werte und Ziele wie seine Präferenzen, Interessen und etwa Wünsche in Bezug auf sein Handeln, werden in der Literatur hinsichtlich ihrer zeitlichen Aspekte zumeist in eine strategische und eine operative Perspektive unterteilt:[39]

- Die strategische Perspektive beinhaltet die übergeordneten Werte, Ziele und Strategien eines Agenten, die einen langfristigen Geltungsrahmen besitzen. Die Effizienzsteigerung der Informationsversorgungsfunktionen oder die sparsame Produktion von Meta-Wissen ist z.B. eine strategische Zielsetzung.
- Die Zielsetzungen der operativen Perspektive sind direkt an aktuelle Handlungen geknüpft. Die bedarfsgerechte Versorgung der Akteure mit Wissen oder die selbsttätige Kosten-Nutzen-Abwägung einer Informierung ist z.B. ein mögliches Ziel.

Die durch die Optimierung der Informationsversorgung einzelner Akteure des Unternehmens implizierten Koordinationsaufgaben bedürfen zu ihrer aufgabenbezogenen Ausrichtung einer Ergänzung bei der Modellierung eines artifiziellen Agenten

- um die taktische (administrative) Perspektive: Die Zielsetzungen dienen der individuellen Festlegung der Ressourcen wie z.B. der zur Verfügung stehenden Zentraleinheitszeit (CPU-Zeit), der Hauptspeicher- oder der Leitungskapazitäten. Taktische Ziele können bei „fortgeschrittenen“ Technologien Angaben zur Präsentation der (Such-)Ergebnisse, der zeitlichen Durchführung von Aktionsprogrammen oder zur Festlegung einer Wissenserwerbsstrategie, wie etwa der Auswahl der Quellen, beinhalten.

Eine zentrale Aufgabe, die von einem artifiziellen Agenten gelöst werden muss, ist die Vermittlung zwischen dem Informationsangebot und dem Informationsbedürfnis eines menschlichen Individuums oder eines anderen elektronischen Systems. Neben der detaillierten Erfassung des Informationsbedürfnisses nicht nur hinsichtlich des Zwecks, sondern auch bezüglich der zeitlichen und örtlichen Rahmenbedingungen, muss durch entsprechende Annotation von Informationsangeboten und -diensten die Möglichkeit geschaffen werden, dass Nutzer Wissen bedarfsgerecht auswählen und es ihnen in einer geeignete Präsentationsform zur Verfügung gestellt wird. Die übergeordnete Zielsetzung der Informationslogistik ist somit die Versorgung der Akteure mit dem von ihnen benötigten Wissen zur gegebenen Zeit, im richtigen Format und in gesicherter Qualität, für die individuelle Nutzung am richtigen Ort.

1.0 Information

In der Informationswissenschaft wird Information meist mit Kuhlens „in Aktion gebrachtes Wissen“ definiert:[40] [41]

- „Information ist aus informationswissenschaftlicher Sicht Wissen in Aktion.“[42]

Wissen ist für Kuhlen ähnlich wie für Bell,[43] der den Begriff „Wissen“ explizit von dem der „Neuigkeit“ oder der „Nachricht“ in der Unterhaltung abgrenzt und ihn auf neue Kenntnisse aus Forschung und Technik oder die neue Darstellung älterer Ansichten wie etwa im Intra- bzw. Internet bezieht, eine Sammlung in sich geordneter Aussagen über Fakten und Ideen, die ein vernünftiges, sozial anerkanntes Urteil oder ein experimentelles Ergebnis zum Ausdruck bringen. Kuhlen[44] versteht unter Wissen den gesicherten Bestand von Aussagen über Objekte und Sachverhalte, der individuell oder auch gesamtgesellschaftlich erarbeitet wurde, der auf verschiedene Weise, zunehmend auch über elektronische Dienste, verfügbar ist und mit einem zu belegenden Anspruch für wahr erachtet wird. Als Wahrheitskriterium kann die Begründbarkeit angenommen werden. Zimmermann wiederum versteht (Panyr zufolge) unter dem „Wissen“ keine philosophische Kategorie, sondern:

Definition 2Wissen:

Wissen „schließt auch ‚Meinen’ und ‚Glauben’ ebenso ein wie theoretisches, praktisches (Handlungs-)Wissen oder in materiellen Gegenständen (‚Technologien’, ‚Werkzeugen’) gleichsam kondensiertes Wissen.“[45]

Das Wissen muss nach Zimmermann „nicht unbedingt ‚wahr’ sein: die Vermittlung von Meinen und Glauben kann – entsprechend differenziert und ggf. gekennzeichnet – mit einbezogen werden.[46] Panyr[47] hat (in Anlehnung an Bloom, Engelhardt, Furst et al.[48] ) eine Wissenstaxonomie erstellt, welche die für informationslogistische Agentensysteme (zum Erlernen eines bestimmten Lernziels) vorausgesetzte bzw. benötigte Abstraktionsebene berücksichtigt. Zur Ausführung einer Interaktion benötigt ein Agent Panyr (s. o.) zufolge unterschiedliche Arten von Wissen. Seine Klassifikation von Wissen geht vom Speziellen und relativ Konkretem bis hin zu abstrakten Perspektiven. So bezieht sich das Wissen von Einzelheiten auf solche Mitteilungen, die isoliert oder getrennt verarbeitet werden können. Das Wissen von Allgemeinheiten und Abstraktionen dagegen bezieht sich hauptsächlich auf die Beziehungen und Strukturen, in denen (Meta-)Wissen organisiert werden kann.

- „Globales“ Fachwissen: Hierunter fällt allgemein begrifflich-semantisches Wissen, d.h. Definitionen und strukturelle Klassifikationsschemata. Weiter beinhaltet diese Perspektive Regeln über generelle Beziehungen zwischen Klassen von Sachverhalten sowie theoretisches Wissen, welches das „kausale“ Verstehen von Zusammenhängen ermöglicht.[49]
- Einfaches Faktenwissen: Zum einfachen Faktenwissen gehört zum einen das Wissen über einzelne Fakten, Ereignisse bzw. ihre Benennungen oder Informationsquellen. Diese Einzelheiten sind für Fachleute, die in einem bestimmten Bereich tätig sind, in (<ganz exakt> genau) dieser Form nützlich und unterliegen kaum einer Veränderung. Zum anderen gehört zu dieser Perspektive terminologisches Wissen, d.h. das Wissen um die Bedeutung spezieller verbaler Symbole, wie z.B. technischer Begriffe und die Zuordnung von alltäglicher und allgemeiner Bedeutung zu verschiedenen Begriffen, die zu einem vorgegebenen Gebrauch eines Symbols am besten passt.
- Wissen von Konventionen, Regeln und Trends: Als eines der wichtigsten Beispiele für diese Wissensart können die Terminologie und die Grundvorschriften eines Fachgebiets angeführt werden, d.h. im Allgemeinen das zu einer sinnvollen fachlichen Kommunikation benötigte einheitliche Interpretationsschema. Hierzu gehören unterschiedliche Phänomene wie z.B. die Symbole beim Zeichnen von Karten oder beim Aufstellen von Büchern in Bibliotheken. Unter Trends und Abfolgen werden Beziehungen und Prozesse verstanden, die von Fachleuten herausgegriffen oder als besonders wichtig erachtet werden. Die Trends und Abfolgen sind häufig schwer beschreibbar, da sie dynamische Aktionen, Prozesse und Bewegungen beinhalten.
- Wissen von der Organisation der Elemente eines Fachgebiets und über den methodologischen Umgang mit diesen Elementen: Darunter fällt sowohl das Wissen von Kriterien, durch die (irgendwelche) Tatbestände, Prinzipien und eventuell auch eine Ordnungssystematik überprüft bzw. beurteilt werden können, als auch das Wissen von Klassifikationen und Kategorien, d.h. das Wissen von Klassen, Mengen und Einteilungen, die für ein vorgegebenes Fachgebiet als grundlegend oder nützlich gelten. Hinzu kommt das Wissen von Methoden und Techniken in einem Fachgebiet.
- Wissen von Verallgemeinerungen und Abstraktionen in einem Fachgebiet: Es handelt sich hierbei um das Wissen (im Sinne von Kennen) der wichtigsten Schemata, Ideen und Muster, durch welche die Begriffe eines Fachgebiets organisiert sind. Sie geben einem Spezialisten die Möglichkeit, das Fachgebiet bzw. seine Grundbegriffe optimal und sinnvoll zu strukturieren. Diese Kategorien des Wissens können in der Regel auch mittels einer automatischen Indexierung gewonnen werden.
- Heuristisch-strategisches Wissen: Hierunter fällt das Wissen um sog. „Faustregeln“ und routinemäßige Fertigkeiten. Weiter beinhaltet diese Perspektive das Wissen über heuristische Prinzipien, d.h. über die zweckmäßigen Vorgehensweisen in bestimmten Situationen sowie übergeordnete Strategien.[50]
- Bedingungen der Wissenserfassung bzw. -aufnahme (Verstehen): Hierunter wird die niedrigste Ebene des Begreifens (bzw. Wahrnehmens) verstanden. Zwei kooperierende Agenten z.B. müssen zumindest „Bescheid wissen“, worüber kommuniziert wird. Das Verstehen beinhaltet die Übersetzung des Ausgangsmaterials, das in der ursprünglichen Version einer Mitteilung enthalten ist, in eine interne Repräsentation auf der Seite des Empfängers. Dies betrifft zum einen den Inhalt der Mitteilung selbst. Zum anderen bezieht sich diese Perspektive auf die äußere Form einer Mitteilung, da sich z.B. die mediale Darstellung durch die Übermittlung geändert hat. Eine notwendige Vorraussetzung für eine sinnvolle Kommunikation zwischen zwei Agenten ist die Existenz eines gemeinsamen Interpretationsschemas (Stichwort: Thesaurus).
- Anwendung bzw. Anwendungs- und Handlungswissen: Unter dieser Kategorie wird der Gebrauch von Abstraktionen in besonderen und konkreten Situationen verstanden. Die Abstraktionen können in Form von allgemeinen Ideen, Regeln über Prozeduren oder verallgemeinerten Prozeduren vorliegen. Bei den Abstraktionen kann es sich ebenfalls um technische Prinzipien, Ideen und Theorien handeln.
- Analyse und Synthese: Die Perspektive „Analyse“ stellt eine wesentliche Erweiterung gegenüber der Perspektive „Anwendung“ dar, indem sie den zunächst lediglich schematisch oder formal beschriebenen Objekten die Dimension der Bedeutung und der Struktur zuordnet. Unter der Perspektive „Synthese“ wird das Zusammenfügen von Elementen und Teilen zu einem ganzen subsumiert. Es entsteht dabei eine Struktur bzw. ein Muster eines Wissensbereichs oder Begriffs, auch wenn dies vorher nicht deutlich war.
- Werte und Merkmale: Die Werte und das eigentliche Werten, die Konzeptbildung für einen Wert, die Organisation eines Wertesystems und die Problematik der Interessen bzw. Einstellungen können im Kontext der Informierung bzw. Kommunikation dem pragmatischen Aspekt auf der Seite des Senders und dem semantischen Aspekt auf der Seite des Empfängers zugeordnet werden. Die gleichzeitige Einbeziehung der Werte, Ziele und Strategien beider Kommunikationspartner ermöglicht eine Verbindung von Begriff und Benennung, die eine semiotische Interpretationsarbeit, unter Einbeziehung sowohl der kognitiven Prozesse des Empfängers als auch der subjektiven Absichten des Senders, etwa einer Mitteilung, im Kontext von informationslogistischen Agentensystemen erlaubt und letztendlich zu einer verbesserten Interoperativität der an einem Technologietransferprozess beteiligten Agenten führt.
- Werten (Gewichtung): Beim Werten geht es um Kriterien für die Auswahl bestimmter Merkmale zwecks optimaler Beschreibung von Objekten oder auch Systemen, indem die Unterscheidung zwischen dem Wesentlichen und Unwichtigen erleichtert bzw. überhaupt erst ermöglicht wird. Dies betrifft sowohl den Sender als auch den Empfänger einer Mitteilung.
- Wertordung und Wertsystem: Es ist insbesondere notwendig, die Werte übersichtlich in ein System einzuordnen und die Beziehungen zwischen ihnen zu regeln. Hierzu dient ein Objektbeschreibungssystem das in der Lage ist, die wesentlichen von den unwesentlichen Merkmalen zu unterscheiden. Neben mathematischen Verfahren dienen Ontologien, die in unserem Sinne durch Thesauri repräsentiert sind, dazu ein solches notwendiges Bezugssystem abzubilden.
- Das Wesen des Urteilens (Evaluation): Der Begriff „Evaluation“ bezieht sich auf das zweckgebundene Bewerten von Ideen, Lösungen, Vorgehensweisen und Methoden. Diese Zweckgebundenheit bestimmt u. a. die Wahl von Kriterien und Normen, die ermöglichen, die Evaluation von Wissen in sich konsistent, wirksam usw. durchzuführen. Hier wird wiederum die Notwendigkeit eines Bezugssystems deutlich. Ein Urteil kann aufgrund einer Evidenz (d.h. die Beurteilung aufgrund der logischen Richtigkeit, der Zusammensetzung und andere interner Kriterien) zustande kommen oder aufgrund äußerer Kriterien (d.h. die Bewertung in Bezug auf ausgewählte oder vorgegebene Kriterien, die meist durch den Zweck der Bewertung und auch die Ziele des bewertenden Subjekts bestimmt sind).

Ein Selbstverständnis besteht für den Autor darin, dass Wissen, das Eingang in betriebliche Problemlösungs- bzw. Entscheidungsprozesse findet, meist in Form eines Dokuments (Informationsobjektes) vorliegt und anderen zunehmend elektronisch durch IuK-Systeme in systematischer Form (als Mitteilung) übermittelt wird. Ein Dokument stellt ziel- und zweckbezogenes (handlungsrelevantes) Wissen in verschiedenen Ausprägungen wie etwa in Text, Tabelle, Grafik, Bild, Video, Audio usw. in einer maschinell verarbeitbaren Form (das bedeutet als Datum) dar.

Definition 3Dokument (Informationsobjekt):

Unter einem Dokument (Informationsobjekt) wird eine inhaltlich begrenzbare Einheit von Wissen verstanden, das auf einen materiellen Träger dauerhaft fixiert ist.[51]

Wir werden ein „Dokument“ im Weiteren ebenfalls mit dem Begriff „Informationsobjekt“ bezeichnen, da wir ein solches allgemein als eine inhaltlich begrenzte Einheit von handlungsrelevantem Wissen auffassen, ohne die eigentliche Systemstruktur näher zu beschreiben. Informationsobjekte sind Objekte, die etwa Text, Tabellen usw. enthalten. Wersig[52] definiert den Begriff „Objekt“ wie folgt:

Definition 4Objekt:

Objekte sind Gegenstände, die wahrgenommen und geistig reflektiert werden können. Dazu zählen nicht nur die materiellen Gegenstände, wie sie uns täglich begegnen, sondern auch immaterielle Gegenstände, insbesondere also Einheiten der geistigen Ebene, die selber wieder Gegenstand von Wahrnehmung und Reflexion sein können.

Die vertiefende Differenzierung zwischen Domain- und Informationsobjekten ermöglicht wiederum die Trennung zwischen Knoten und ihrem Inhalt. So können mehrere Informationsobjekte einem Domainobjekt zugeordnet werden. Verschiedene Domainobjekte können verschiedene Typen von Knoten repräsentieren. Informationsobjekte sind demgegenüber Objekte, die, wie oben bereits angedeutet, Text, Grafik usw. enthalten. Zum vertiefenden Studium seien etwa die Ausführungen von Harms[53] oder Tochtermann[54] empfohlen.

Hinter dem Wort „Information“ stehen mindestens zwei grundsätzlich voneinander verschiedene Begriffe, deren Gleichlaut mitunter irreführend ist. Aus einer Unterscheidung zwischen einem „wissenschaftlichen“ Ansatz und einem „medial geprägten“ Informationsbegriff der Umgangssprache könnte geschlossen werden, dass der Begriff der Medien unwissenschaftlich, vage und nicht klar zu definieren ist. Dass dies keineswegs der Fall ist, diskutiert Hassenstein,[55] der die Gemeinsamkeiten bzw. Unterschiede der beiden Ansätze klar unterstreicht. Für ihn bedeutet Information in der Umgangssprache stets Nachricht über etwas. Luhmann verbindet mit dem Begriff der „Nachricht“ im Bereich der Massenmedien „die Vorstellung des Überraschenden, Neuen, Interessanten, Mitteilungswürdigen“.[56]

Daneben gibt es den spezifischen Informationsbegriff der Wissenschaft, der sich nur in Teilbereichen mit dem umgangssprachlichen, medialen Begriff deckt. Die Bezeichnung des wissenschaftlichen Informationsbegriffs geschieht in Anlehnung an den physikalischen, thermodynamischen, der aus der Entropie stammt. Demnach besitzt ein chaotisches physikalisches System, etwa Gasmoleküle in einem geschlossenen Raum bei großer Hitze, eine besonders hohe Informationsmenge. Ein stark geordnetes System, etwa ein Kristall, birgt dagegen eine deutlich geringere Informationsmenge. In der Physik ist folglich der Informationsbegriff vom subjektiven Rückgriff auf die „Sinnhaftigkeit“ befreit und objektiviert. Vertiefende Ausführungen hierzu finden sich in den Publikationen von Watzlawick, Beavin und Jackson[57] sowie Manning und Schütze.[58]

Unabdingbare Voraussetzung ist sowohl beim „wissenschaftlichen“ Ansatz als auch beim „medial geprägten“ Informationsbegriff ein Tatbestand, der einer Nachricht bzw. einer Mitteilung einen Inhalt verleiht. Ebenso nötig sind sog. „Informationsträger“ (das können Zeichen, sprachliche Formulierungen oder bspw. Grafiken sein), mit deren Hilfe die Übermittlung stattfindet und nicht zuletzt bedarf es eines (zuvor unwissenden) Empfängers, denn ohne einen Kommunikationspartner ist (sehr weit gefasst) eine Informierung nicht denkbar (vgl. Kap. 1.1).

Auf die Ineffizienz des physikalischen, auf dem Gedanken der Entropie gründenden Informationsbegriffs für viele Bereiche (der Naturwissenschaft) weist Riedl[59] anhand eines besonders anschaulichen Beispiels hin. Er bezieht sich in seinen Ausführungen besonders auf den Bereich der Biologie. Nach dem Entropie-Gedanken birgt ein in höchstem Maße „ungeordnetes“ Objekt, etwa ein wahllos aufgeschütteter Ziegelhaufen, eine ungleich größere Informationsmenge als ein Objekt mit erkennbarer Ordnung, etwa ein gotischer Dom oder auch ein Organismus.

Ein verallgemeinerter wissenschaftlicher Informationsbegriff ist somit problematisch und kein universales Instrument zur Forschung und so ist die Aufsplittung der unterschiedlichen Informationsbegriffe in den einzelnen Wissenschaftsdisziplinen mehr als verständlich. Sie ist auch zunehmend pragmatisch, da eine einheitliche Betrachtung nicht möglich ist.

Der Wissenschaft liegt unter anderem daran, Mitteilungen (Informationen) quantitativ erfassbar zu machen, also eine einheitliche Maßeinheit zu schaffen, mit deren Hilfe der sog. „Informationsgehalt“ etwa einer beliebigen Anzahl von Zeichen festgelegt werden kann. Ein derartiger wissenschaftlicher oder exakter mathematisch-statistischer bzw. nachrichtentechnischer Informationsbegriff ist von Shannon, Wiener und Neumann, auch Fischer in den 40er Jahren geprägt worden und seitdem einer der wichtigsten Termini der Kybernetik. Im Sinne der Kybernetik besteht Information „in Wahrscheinlichkeitsaussagen, die durch Formmerkmale in Raum und Zeit repräsentiert sind.“[60] Im Vorwort seiner Arbeit im Jahre 1947 schreibt Wiener bezüglich des Informationsgehaltes, dass Fischer, Shannon und er ungefähr zur gleichen Zeit auf die Idee der statistischen Beschreibung gekommen sind, und verweist auch auf Neumann.[61]

Entropie in der Informationstheorie bedeutet allgemein, dass der Empfänger einer Mitteilung in der Regel weniger über den Zustand eines Systems weiß als der Sender. Dieser unterschiedliche Kenntnisstand wird Entropie genannt.

[ Anmerkung: Besonders in der Informationswissenschaft ist „die Informationstheorie … indessen nicht mit der Theorie der Information zu verwechseln“ … „So muss eine Theorie der Information, wie sie den Informationswissenschaften zugrunde liegt, auch die Kosten und Nutzen von Nachrichten berücksichtigen sowie auf den ‚inneren Zustand’ von Sender und Empfänger in viel komplizierterer Weise Bezug nehmen, als es in dem System der Informationstheorie möglich ist.[62] ]

Das informationstheoretische Modell beinhaltet zwei wesentliche Komponenten. Die erste ist der Problemlösungs- bzw. Entscheidungsgehalt des übermittelten Wissens. Um die Entropie und somit auch die Informationsmenge, messen zu können, wird die Anzahl von Fragen gezählt, die der Empfänger benötigt, um sein Unwissen zu beseitigen. Dabei darf der Sender auf Fragen des Empfängers nur mit „Ja“ oder „Nein“ antworten. Wichtig ist bei diesem Vorgang, dass die optimale Anzahl von Fragen, d.h. möglichst wenige, gestellt wird. Der messbare Aspekt der Informierung, dessentwegen wir von einer „Informationsmenge“ sprechen können, liegt also darin, dass Wissen als eine Auswahl aus einer Menge möglicher Zeichen begriffen ist.

Der Problemlösungs- bzw. Entscheidungsgehalt wird mathematisch durch den „Logarithmus Dualis“ (ld) des gesamten Zeichenvorrates ausgedrückt und in „Binary Digits“ (Bit) gemessen. Der Informationsgehalt eines Signals in Bit ist umso größer, je umfangreicher die Auswahl an Alternativen ist, aus denen es übermittelt wird, denn je größer die Anzahl dieser Signale ist (die Alternativen müssen eindeutig bezeichnet sein), desto mehr binäre Zeichen müssen pro Übermittlung zur Verfügung stehen, um jedes mögliche Signal mit einem anderen Zeichen zu versehen.

Die zweite wesentliche Komponente, die in die mathematisch-statistische Formulierung des Informationsbegriffs einfließt, ist die Wahrscheinlichkeit des Auftretens eines Zeichens oder Ereignisses. Um die Entropie zu verringern, übergibt der Sender dem Empfänger Mitteilungen in Form von Zeichen. Diese Zeichen haben einen unterschiedlichen Informationsgehalt. Der Buchstabe „Y“ hat etwa in der deutschen Sprache einen größeren Informationsgehalt als im Englischen, da er im Deutschen viel seltener verwendet wird.[63] Die gleiche Überlegung können wir auch für die Plätze der Buchstabenfolgen (wie bspw. „SCHA“, „SCHE“, „SCHI“ usw.), anstellen (Stichwort: Zwischensymboleinflüsse). Für den Informationsgehalt der hier vorkommenden Buchstaben kann nichts anderes als die Häufigkeit auf den jeweiligen Plätzen maßgebend sein. Wir können also den sog. „Zwischensymboleinfluss“ zahlenmäßig in den Griff bekommen, wenn wir auswerten, auf welche Weise er die Häufigkeit der jeweils nachfolgenden Buchstaben beeinflusst. Der Informationsgehalt eines einzelnen Zeichens bemisst sich so nach der Wahrscheinlichkeit, mit der sein Auftreten zu dem betrachteten Zeitpunkt an dem betrachteten Ort zu erwarten ist bzw. zu erwarten war. Dies dürfen wir annehmen, da Wahrscheinlichkeiten im gegenständlichen Bereich aus nichts anderem als den bisher beobachteten Häufigkeiten hergeleitet werden.

Der Informationsgehalt (I) eines Zeichens oder Ereignisses ist also gleich dem ld des Kehrwertes seiner Wahrscheinlichkeit (I = ld * 1 / p).[64]

Einschränkend muss hinzugefügt werden, dass etwa ein Text, der sich aus sinnlosen Silben zusammensetzt, stets einen größeren Informationsgehalt enthält als ein sinnvoller Text, da die Wahrscheinlichkeit des Auftretens bestimmter Buchstaben nicht durch grammatikalische oder andere sprachspezifische Gegebenheiten vermindert wird.

Fassen wir die Bedingungen zusammen, lässt sich die Entropie H eindeutig definieren. Sie stellt ein quantitatives Maß der Informationsmenge (H) dar, das nach v. Weizsäcker[65] (der auf Shannon[66] rekurriert) wie folgt definiert ist (1):

(1) Abbildung in dieser Leseprobe nicht enthalten

Die dargestellte Funktion wird auch als ideelle Entropie bezeichnet, da sie mit der wirklichen Entropie nicht notwendigerweise identisch sein muss (Stichwort: Ergodentheorie und Maxwellscher Dämon). Die wirkliche Entropie gibt stets zugleich ein Verfahren an, wie eine Information durch die oben angesprochene Fragestrategie tatsächlich optimal extrahiert wird. Ihr nummerischer Wert ist größer oder gleich dem der ideellen Entropie.

Eine ausführliche Darstellung des Entropie-Gedankens findet sich in der Publikation von Ebeling, Freund und Schweitzer.[67]

Wiener wird in der Literatur häufig mit seiner Äußerung, „Information ist Information, weder Materie noch Energie“[68] zitiert und meint, erst wenn Wissen in Materie oder Energie umgesetzt wird, können wir es als Information wahrnehmen. Eine Mitteilung bezeichnet dabei nicht nur spezielles Wissen, sondern ihr Inhalt erschließt sich aus dem damit zusammenhängenden Vorgang der Rezeption. Erst durch die Rezeption einer Mitteilung kann ihr Sinngehalt festgestellt und somit bestimmt werden, ob es sich um eine Information handelt. Diese prozedurale Sicht der Informationserschließung knüpft mit ihrem Informationsbegriff an die Theorie der Zeichen nach Morris[69] an. Danach umfasst der Begriff entsprechend den drei semiotischen Ebenen (Sprachebenen) den syntaktischen, den semantischen und den pragmatischen Informationsbegriff. Die Semiotik beschäftigt sich mit der Frage, ob um in Extremen zu sprechen einem bestimmten Zeichen bzw. einzelnen Informationsobjekten ein nahezu beliebiger Gehalt oder ein ganz bestimmter Sinn zugeschrieben werden kann.[70]

- Als Mitteilung auf der untersten Sprachebene, der Syntax, sind akustische, optische, thermische und z.B. elektronische Signale anzusehen.
- Dass Zeichen, Symbole und Signale eine bestimmte Bedeutung haben, berücksichtigt die Semantik. Mitteilungen im semantischen Sinne, d.h. Wissen, entsteht aus der Zuordnung von Signal und Bedeutung.
- Auf der höchsten semiotischen Ebene, der Pragmatik, wird Wissen unter Einbeziehung der Motive, Zielsetzungen und Zwecke (das bedeutet der Werte, Ziele und Strategien) vom Sender zum Empfänger analysiert.

Die syntaktische Ebene bleibt im Subjektiven, ohne aber den Sinngehalt der Zeichen zu hinterfragen, sie fokussiert deren Zweck. Sie gründet auf den Veröffentlichungen zur Informationstheorie von Shannon. Die semantische Ebene beschäftigt sich mit dem Sinngehalt der übertragenen Zeichen. Sie legt das Schwergewicht auf die subjektive Seite des Empfängers. Die pragmatische Ebene schließlich umfasst den Vorgang der Informationsübertragung vom Sender zum Empfänger. Der zentrale Aspekt der Pragmatik ist Linke, Nussbaumer und Portmann[71] zufolge die Frage, wie durch Sprachgebrauch etwas bewirkt werden kann. Sprachgebrauch in Situationen, Sprachgebrauch zu Zwecken der Kommunikation ist nicht einfach die Anwendung von sprachsystematischen Möglichkeiten. Vielmehr wird die Auswahl aus den gegebenen Möglichkeiten vom Sender einer Mitteilung bewusst und häufig zu seinem Vorteil gesteuert (vgl. Kap. 1.1).

In der von Shannon begründeten Informationstheorie wird entsprechend der syntaktischen Perspektive der Semiotik, die Fähigkeit von Rechnern, Daten auf Grundlage einer universalen Kodiertechnik in Bits verarbeiten zu können, mit Datenverarbeitung bezeichnet und die Rechner werden entsprechend datenverarbeitende Maschinen genannt. Shannon verwendet in seiner Nachrichtentheorie ausschließlich den Begriff „Kommunikation“.

[ Anmerkung: <engl.> „communication“ bedeutet auch „Übertragung“]

In seiner Arbeit beinhaltet eine Mitteilung unbestimmte, wenn auch bedeutungs- bzw. sinnvolle Signale. Dabei darf allerdings nicht vergessen werden, dass Shannon in seiner damaligen Veröffentlichung keine allgemeingültige Definition des Begriffs „Information“ anstrebte, sondern sich lediglich auf sein Forschungsgebiet (die Übermittlung von Wissen mit Hilfe der Telekommunikation) bezog. Shannon[72] schreibt:

- Häufig haben Mitteilungen eine Bedeutung; d.h., sie beziehen sich auf irgendein System mit bestimmten physischen oder begrifflichen Entitäten (unterscheidbare, in einem Weltausschnitt eindeutig identifizierbare einzelne Objekte) oder stehen entsprechend mit diesem in einer Beziehung. Diese semantischen Aspekte der Kommunikation sind für das Technikproblem irrelevant.

In seinen nachrichtentechnischen Veröffentlichungen geht es ihm somit nicht um das subjektive Verstehen (dieses wird vorausgesetzt), sondern um das bestmögliche Übermitteln von Signalen.

In der Informatik, in der Informationswissenschaft oder in der Betriebswirtschaft stellt sich jedoch immer wieder die Frage nach dem Sinngehalt eines Zeichens, nach dem mit dem Übermittelten gemeinten oder dem vermittelten Inhalt. Dies gilt für Mag[73] besonders für den Bereich der Betriebswirtschaft, wo unter einem Datum nicht jedes beliebige Wissen, sondern handlungsrelevantes Wissen, d.h. eine Mitteilung in Form aufbereiteter Rohdaten, verstanden wird. Rücken wir die Datenverarbeitung, mit ihr den Informationsfluss und damit den Kommunikationsprozess in Problemlösungs- bzw. Entscheidungszusammenhängen in den Vordergrund der Betrachtung, dann wird deutlich, dass sich die Struktur und die Funktion einer Mitteilung nicht decken, wenn es sich etwa um einen nachrichtentechnischen und einen betriebswirtschaftlichen Tatbestand handelt. Das betriebswirtschaftliche Interesse an Wissen beruht besonders auf der Tatsache, dass betriebliches Wissen über die Geschäftsprozesse ein unlösbarer Bestandteil der Problemlösungs- bzw. Entscheidungsprozesse und damit der betrieblichen Kommunikation ist. Im betrieblichen Umfeld geht es mitunter um den Begriff der „Information“ im Bereich der Organisationstheorie, also letztendlich um den Bezug auf eine bestehende Ordnung, die selbst nichts anderes als Information ist und deren Werte, Ziele und Strategien es zu er- und vermitteln gilt.

- Die Werte umfassen die kultur- bzw. unternehmensspezifischen Bedingungen.
- Die Ziele legen fest, was erreicht werden soll.
- Die Strategien legen fest, wie diese Ziele zu erreichen sind.

Aus diesem Grund erscheint es etwa Gutenberg[74] fraglich, ob das wahrscheinlichkeitstheoretische Gedankengut der Informationstheorie für die Analyse betrieblicher IuK-Prozesse von Bedeutung sein kann. Zielführend vor dem Hintergrund betrieblicher Aspekte sind Gutenberg zufolge (s. o.) vielmehr die bereits erwähnten Ansätze der Kommunikationstheorie mit der Betonung des subjektiven Elements der Kommunikation und damit der Rolle des in den Vorgang der Informierung involvierten Individuums, aber auch die subjektiv geprägten Ansätze der Informationstheorie, denn der Gehalt eines Zeichens ist (wenn überhaupt) ohne den dazugehörigen Kontext nicht zu verstehen. Information ist an sich kein frei verfügbares, objektiv definiertes „Stück Information“, sondern sie muss unter Berücksichtigung vieler pragmatischer Rahmenbedingungen, zuweilen auch Kontingenzfaktoren genannt, etwa Zeit, Geld, organisationelle Werte, Ziele und Strategien, jeweils neu erstellt werden. (Diesen Prozess bezeichnet Kuhlen[75] mit dem Begriff „Transformation“ [von Wissen in Information], wir bezeichnen ihn mit dem Begriff „Technologietransfer“.) Dem organisationellen Wissen oder gar einem Technologietransferprozess grundsätzlich einen von menschlichem Verstehen, von jeglichem menschlichem Informationsvorgang losgelösten, objektiven Sinngehalt zuzuschreiben ist falsch – vgl. ebenfalls die Ausführungen zum Begriff der „Relevanz“ (Kap. 2.0.2).

So meint Wersig,[76] dass eine Mitteilung nicht nur bestimmte, sondern vielfältigste Bedeutungen habe. Gitt[77] fügt den drei oben genannten Ebenen von Morris noch eine unterste an, welche er die Ebene der Statistik nennt und eine oberste, die Ebene der Apobetik. Diese Ebene ist jedoch nach v. Weizsäcker[78] bereits im Wesen der Pragmatik verkörpert.

[ Anmerkung: Apobetik (die Sinnhaftigkeit einer Mitteilung) ist die aus linguistischer Sicht höchste Ebene sprachlicher Kommunikation, die den Zielaspekt beschreibt. Dabei geht es um die Frage, was der Absender einer Mitteilung beim Empfänger mit dieser erreichen möchte. Der Begriff der „Apobetik“ steht somit für die Zielvorstellung bzw. Konzeption des Senders, die dem Ergebnis auf der Empfängerseite zugrunde liegt.[79] ]

Für v. Weizsäcker gibt es Informierung (nach Morris) nur in Bezug auf zwei verschiedene Ebenen, von denen die untere diejenige ist, der eine vorgegebene Alternative als Frage gestellt werden kann, wogegen die obere die der möglichen Antworten auf die gestellte Frage ist. Durch diese Erweiterung des Begriffs wird „Wissen“ zu einer „Information“ im engeren Sinne, d.h. zu ziel- und zweckbezogenem (handlungsrelevantem) Wissen. Der Informationsgehalt stellt dabei das Maß an Wissensänderung bzw. beseitigter Ungewissheit dar.

Definition 5Information:

Die Information als Wissensänderung im Sinne einer Veränderung der Wissensbasis ist der zentrale Aspekt des Informationsbegriffs im betrieblichen Alltag (in Anlehnung an Krüger, der auf Zimmermann rekurriert).[80]

Ein Informationsprozess (Technologietransferprozess) ist somit ein Vorgang, der das Wissen eines Agenten verändert. Panyr schreibt: „Somit wird die Information auch als Prozess bzw. als Ergebnis des Prozesses der Vermittlung von Wissen verstanden“.[81] Die Prozesskette eines Wissenstransferprozesses stellt sich Zimmermann[82] zufolge wie folgt dar:

- Erzeugung einer Wissensrepräsentation auf der Grundlage des Wissens des Senders einer Mitteilung mit Bezug zum ausgewählten Weltausschnitt.
- Medialer Transfer der Mitteilung über einen Kanal und Empfang der Mitteilung nach der Übertragung durch den Empfänger.
- Eventuelle Veränderung des Wissensstandes des Empfängers der Mitteilung nach dem Abschluss individueller kognitiver Prozesse.

Wenn Kunz und Rittel als Informationsprozess jeden Vorgang definieren, der „zur Veränderung von jemandes Wissen[83] führt, behaupten sie damit nicht, dass diese Veränderung immer eine Beseitigung von Unsicherheit oder eine Bestätigung des Erfahrungswissens des Empfängers bedeutet. Selbst im günstigsten Fall der „vollkommenen Information“ ist Hauke[84] zufolge keine Garantie für rationales Verhalten gegeben. Denn trotz oder gerade wegen „vollkommener Information“ kann es zu einer Überlastung mit handlungsunrelevantem Wissen kommen, die zu einem irrationalen Verhalten des Empfängers einer Mitteilung bspw. in einer Problemlösungs- bzw. Entscheidungssituation führt (vgl. Kap. 1.4).

1.1 Kommunikation

Die moderne IT bewirkt zunächst einen quantitativen Zuwachs an Möglichkeiten, die Handlungsträger mit Wissen zu versorgen. Als zweckorientierte Leistung muss ein IuK- bzw. Technologietransferprozess deshalb im Kontext des Managements von technischen Systemen gesehen werden, d.h. im Kontext der (technischen) Handhabbarmachung und der (informationell abgesicherten) Übermittlung von organisationellem Wissen.

Definition 6 – Kommunikation:

Kommunikation ist der (technische) Vorgang des Übermittelns der Vorstellung von der realen Welt in Form von Zeichen, Bildern, Sprache oder Tönen zwischen Sender und Empfänger, zunehmend ausschließlich mittels technischer Apparaturen.

Unter dem gebräuchlichen Begriff der „Kommunikation“ wird nach §3 Nr. 16 „Telekommunikationsgesetz“ (TKG)[85] der (technologiegestützte) Austausch von Wissen zwischen (menschlichen) Akteuren mit und zunehmend ausschließlich durch IT verstanden.

- Kommunikation ist grundsätzlich dann notwendig, wenn der Ort der Entstehung der Daten bzw. der Speicherung oder der Aufbereitung des Wissens und der Ort des Bedarfs an Wissen auseinanderfallen.
- Kommunikation kann sich in Unternehmen und zwischen Unternehmen vertikal (funktionsorientiert) zwischen den über- und untergeordneten Einheiten sowie horizontal (ablauforientiert) zwischen den Akteuren innerhalb der Wertekette(n) vollziehen.

Gehen wir davon aus, dass Informierung immer die Übermittlung von etwas zunächst nicht näher Bestimmbaren von einer aussendenden zu einer empfangenen Instanz ist, dann kann dieser Kausalzusammenhang in ein Kommunikationsmodell übertragen werden, wobei zu beachten ist, dass es eines Kanals bedarf, um Mitteilungen vom Sender zum Empfänger zu vermitteln.[86]

- Unter Empfänger wird der Agent (ein Client) verstanden, dem vom Sender (dem Server) Wissen, etwa in Form einer Frage, einer Antwort oder einer Aussage, über einen Kanal (das Intra- bzw. Internet) übermittelt wird.
- Der Kanal wird als eine Strecke zur Überwindung einer räumlichen und bzw. oder zeitlichen Distanz zwischen mindestens zwei Partnern verstanden, wobei das Übermittelte idealerweise handlungsrelevantes Wissen ist. Dabei kann es sich auch um ein Gespräch handeln.

Abbildung in dieser Leseprobe nicht enthalten

[Abb. 2: Stark vereinfachtes Kommunikationsmodell (angepasste Darstellung)[87] ]

- Abb. 2: Die Begriffe „Kommunikation“ und „Informierung“ überlappen sich insofern, als Kommunikation ein Problem der Übertragung der Vorstellung von der realen Welt zwischen Sender und Empfänger und Informierung ein Problem der Repräsentation der realen Welt durch den Sender und des Verstehens des übermittelten Weltbilds durch den Empfänger darstellt.

Das sehr einfache, in der Abbildung 2 dargestellte Grundmodell kann in verschiedenen Arbeitszusammenhängen verwendet werden, etwa[88] [89]

- in der Nachrichtentechnik und der Informatik vor dem Hintergrund, Mitteilungen im Sinne von messbaren Signalen in einem technischen System oder über physikalische Leitungen optimal vom Sender zum Empfänger zu transportieren. Der in diesem Kontext verwendete Informationsbegriff hat eine syntaktische Prägung. Die syntaktische Perspektive gründet auf den Veröffentlichungen zur Informationstheorie von Shannon (vgl. Kap. 1.0).

- in der Informationswissenschaft mit der Aufgabe, Wissen, das in einer Vielzahl von unterschiedlichen Informationsobjekten gebunden ist, so aufzubereiten und zu vermitteln, dass die Nutzer bedarfsgerecht mit dem von ihnen benötigten Wissen versorgt werden können. Der in diesem Kontext verwendete Informationsbegriff ist semantisch bestimmt. Die semantische Perspektive beschäftigt sich mit dem Sinngehalt der übertragenen Zeichen. Sie koppelt den Kommunikationsprozess von den subjektiven Absichten des Senders ab und legt ihren Schwerpunkt insbesondere auf das kognitive Modell des Empfängers einer Mitteilung in einer konkreten Problemlösungs- bzw. Entscheidungssituation (vgl. Kap. 1.2.2). Mitteilungen im semantischen Sinne, d.h. Wissen, entsteht aus der Zuordnung von Signal und Bedeutung. Die Semantik kann als das Potential möglicher individueller Ausdeutungen z.B. einer Aussage verstanden sein. Sie ist letztendlich eine Theorie der Vagheit und Mehrdeutigkeit, denn die natürlichsprachliche Bedeutung vieler Mitteilungen ist häufig sehr unscharf.
- in der Publizistik mit dem Ziel, Unterhaltung, Aufklärung und Meinungsbildung für die breite Bevölkerung zur Verfügung zu stellen. Zur Beschreibung derartiger Prozesse wird häufig die sog. „Lasweel-Formel“ herangezogen, welche auf die Frage zielt, wer was zu wem über welchen Kanal mit welcher Absicht sagt? Der in diesem Kontext verwendete Informationsbegriff ist pragmatisch bestimmt. In der pragmatischen Perspektive der Semiotik wird Wissen unter Einbeziehung der Motive, Zielsetzungen und Zwecke (das bedeutet der Werte, Ziele und Strategien) vom Sender zum Empfänger analysiert. Die Regeln und Regularitäten des kommunikativen Umgangs sind das orginäre Thema der Pragmatik. Der zentrale Aspekt der Pragmatik ist die Frage, wie durch Sprachgebrauch etwas bewirkt werden kann. Sprachgebrauch in Situationen, Sprachgebrauch zu Zwecken der Kommunikation ist nicht einfach die Anwendung von sprachsystematischen Möglichkeiten. Vielmehr wird die Auswahl aus den gegebenen Möglichkeiten vom Sender einer Mitteilung bewusst und häufig zu seinem Vorteil gesteuert.

Mit der Absicht, die strategischen, operativen und taktischen Aspekte der Modellierung eines informationslogistischen Agentensystems, das den Anforderungen heutiger elektronischer Geschäftsprozesse gerecht wird und ein zentrales Instrument zur Koordination der Geschäfts- und der mit ihnen einhergehenden Unterstützungsprozesse darstellt, konzeptionell und formal zu beschreiben, wird vor diesem Hintergrund im Weiteren dem Gedanken eines empfängerbezogenen Verständnisses (semantische Perspektive) mit einer expliziten sendergeprägten Ausrichtung (pragmatische Perspektive) gefolgt. Dabei steht das sog. „kognitive Modell“ des Empfängers einer Mitteilung im Vordergrund. Diese Ausrichtung ist durch die Tatsache impliziert, dass eine Informierung Panyr[90] zufolge einen subjektiven Charakter hat, denn sie beinhaltet sowohl das Problem der Repräsentation der realen Welt durch den Sender als auch des Verstehens des übermittelten Weltbilds durch den Empfänger.

Wir müssen in Anlehnung an Umstätter[91] zwischen zwei Arten von Verbegrifflichungen möglicher Realitätserfahrungen unterscheiden. Solche die in erster Linie dazu dienen, die Bedeutung des Gesendeten zu verstehen und solche, die uns ein vertieftes Verständnis im Sinne von Wissen über das Gesendete, und in unserem Sinne auch über den Sender selbst, vermitteln. Ihm zufolge lässt sich ebenso die Ver- und Entschlüsselung von Zeichen auf den Ebenen der Informationstheorie als ontologische Modellierung ansehen. Er spricht in diesem Zusammenhang jedoch von Kodierung und Dekodierung und nicht von ontologischen Modellen, obwohl die Zeichen in ganz ähnlicher Weise angeordnet sind. (Als Beispiele führt er die Anordnung von Morseschlüsseln und die binäre Hierarchie der ASCII-Zeichen zur Datenübertragung zwischen Client und Server an.) An der Unterscheidung von Kodierung und Dekodierung lässt sich auch die Parallele zur Semantik und Pragmatik erkennen. Sie sind durch die Kommunikation untrennbar miteinander verbunden. Zusammenfassend resümiert Umstätter (s. o.), dass die Systemimmanenz der Semantik die Bedingung zur pragmatischen Rekonstruktion der ontologischen Hermeneutik einer Aussage ist, die ein Sender an seinen Empfänger schickt.

[ Anmerkung: Der Begriff der „Hermeneutik“ beinhaltet die Interpretation von Zusammenhängen im Rahmen der Informierung oder allgemein der Kommunikation. Es geht darum, dass das Ganze aus dem Einzelnen und das Einzelne aus dem Ganzen heraus verstanden werden muss. Dieser Zusammenhang wird auch als der sog. „hermeneutische Zirkel“ bezeichnet.]

Zusätzlich zu den semantischen Zusammenhängen steht somit der pragmatische Aspekt, d.h. das Interpretationsschema (einer Benutzergruppe), ausgedrückt bspw. durch die Wahl der entsprechenden Benennung für einen Begriff, im Vordergrund einer jeden Kommunikation (wir beziehen uns hier insbesondere auf Panyr [s. o.]). Die Benennungen, d.h. sinnlich wahrnehmbare Ereignisse, stehen dabei Wersig[92] zufolge als Repräsentanten für Begriffe, d.h. geistige Einheiten, die durch Abstraktionsleistungen von Menschen individuell gebildet werden, um einzelne subjektive Wahrnehmungen zu Klassen zusammenfassen zu können, die im Kommunikationszusammenhang benutzt werden. In diesem Sinne ist eine jede Informierung bzw. Kommunikation einerseits hinsichtlich der individuellen Eigenschaften des Senders etwa einer Mitteilung zu beurteilen. Die individuellen Eigenschaften des Senders führen ihrerseits zu Verzerrungen der Repräsentation der realen Welt und finden in den übermittelten, subjektiv geprägten Informationsobjekten ihren Ausdruck. Andererseits ist eine Informierung hinsichtlich des Verstehens des übermittelten Weltbilds etwa in einer konkreten Problemlösungs- bzw. Entscheidungssituation wiederum durch das kognitive Modell des Empfängers bspw. einer Mitteilung geprägt. Diese Diskrepanz gilt es mittels semiotischer Thesauri zu minimieren (vgl. Kap. 2.3.2).

1.2 Geschäftsprozess

Ziel eines informationslogistischen Agentensystems ist die informationelle Absicherung der übergreifenden IuK-Systeme sowie des von ihnen verwalteten Wissens. Die in dieser Publikation aufgezeigte Systemarchitektur eines informationslogistischen Agentensystems zielt insbesondere auf die Notwendigkeit der weiteren wissensbasierten und intelligenten Unterstützung der mit den Systemen verbundenen Prozesse und Funktionen durch den Einsatz vertiefender expliziter Kontroll- und Steuerungsinstrumentarien. Diese basieren mitunter auf den Maßnahmen des klassischen Wissensmanagements. Die erkannten IuK-Prozesse implizieren wiederum die Mechanismen und Regelkreise zur Koordination und Evaluierung der Logistik und des Leistungsentwurfs sowie der Unterstützungsprozesse selbst, die im Rahmen eines evolutionären Vorgehens zur Optimierung aller (IuK-)Systeme und Geschäftsprozesse beitragen.

Definition 7 – Informations- und Koordinationsprozess:

Unter IuK-Prozessen werden einerseits Kontroll- und Steuerungsprozesse sowie andererseits vor- bzw. nachgeschaltete Problemlösungs- bzw. Entscheidungsprozesse verstanden, die meist der direkten Unterstützung der Geschäftsprozesse dienen und die mitunter selbst als Geschäftsprozess bezeichnet werden können.[93] Mit diesen Prozessen geht ein Informationsfluss einher, „der zur Verringerung der Ungewissheit auf Seiten des Rezipienten führt“.[94]

Abbildung in dieser Leseprobe nicht enthalten

[Abb. 3: Die strategischen und operativen Funktionen der Leistungserstellung – Geschäftsprozesse (abgewandelte Darstellung)[95] ]

- Abb. 3: Geschäftsprozesse stellen eine Verkettung von Aktivitäten oder Funktionen dar, die, durch IuK-Systeme unterstützt, der Kontrolle, der Steuerung und der Durchführung der eigentlichen Leistungserstellung dienen.

Der Begriff „Geschäftsprozess“ ist die Übersetzung des gebräuchlichen amerikanischen Begriffs „Business Process“ und wird in der Literatur gleichbedeutend mit dem Begriff „Unternehmensprozess“ oder auch „Unternehmungsprozess“ verwendet. Pernul, Herrmann und Röhm[96] verstehen unter einem Geschäftsprozess eine Menge von zusammengehörigen Aktivitäten, die der Realisierung von Unternehmenszielen dienen, inhaltlich abgeschlossen sind und darauf abzielen, einen Kundenauftrag (auch unternehmensinterner Kunden) effizient zu erfüllen; eine ähnliche Definition findet sich bei Scheer. Von einem Geschäftsprozess wird häufig ein wesentlicher Beitrag zur Wertschöpfung der Unternehmung verlangt oder ein Kundenbezug bei der Leistungserstellung erwartet, um ihn im Sinne von Scheer[97] oder Hammer und Champy[98] mit einer gewissen Bedeutung und damit auch einer größeren Anzahl von Verrichtungen versehen zu können. Diese in der Literatur weit verbreitete Ansicht wird im Weiteren ausdrücklich vertreten, da das im Rahmen der Unternehmung anfallende Wissen einem Bezugsrahmen zugeordnet werden muss, um es bewerten zu können.

Definition 8 – Geschäftsprozess:

„Allgemein ist ein Geschäftsprozess eine zusammengehörende Abfolge von Unternehmungsverrichtungen zum Zweck einer Leistungserstellung. Ausgang und Ergebnis des Geschäftsprozesses ist eine Leistung, die von einem internen oder externen ‚Kunden’ angefordert und abgenommen wird.“[99]

Scheer[100] zufolge sind die wichtigsten Geschäftsprozesse zum einen die Logistikprozesse, neben ihrer operativen Funktion ist auch die planerische und dispositive Ebene zu betrachten, und zum anderen die übergreifenden IuK-Prozesse (vgl. Abb. 3). Zur Unterstützung sowohl der Leistungserstellung selbst als auch anderer flankierender Maßnahmen bedarf es, hinsichtlich der Bearbeitung informationslogistischer Fragestellungen, umfangreicher operativer und taktischer Unterstützungsfunktionen. Der Einsatz entsprechender IuK-Systeme zeigt weit reichende Einflüsse auf alle Unternehmensbereiche und darf sich nicht auf den allgemeinen Systembetrieb beschränken. Der Leistungsentwurf etwa stellt als wesentlicher Teil der übergreifenden IuK-Systeme (Stichwort: „Computer Aided Design“ [CAD] und „Computer Aided Engineering“ [CAE]) einen eigenen Geschäftsprozess dar und impliziert bereits innerhalb der strategischen Betrachtungen enge Verbindungen zu den operativen und wertorientierten Fragen der informationstechnischen Steuerung der Leistungserstellung. Dabei bedürfen die durch die zunehmende technologiebasierte Optimierung der Kontroll- und Steuerungsmechanismen implizierten Unterstützungsprozesse nicht zuletzt aufgrund der fortschreitenden Komplexität des Einsatzes intelligenter Funktionen zur Kontrolle und Steuerung der Geschäftsprozesse der weiteren, übergreifenden wissensbasierten und intelligenten Koordination durch informationslogistische Agentensysteme. Auf dieser Meta-Ebene sind sowohl die strategischen Aspekte des Informationsmanagements- und -controllings als auch die für ein Unternehmen unabdingbaren Fragen der computergestützen Planung und vertiefenden, informationslogistischen Unterstützung technischer Systemeigenschaften zu betrachten.

1.2.1 Technologietransferprozess

Vorraussetzung einer unternehmensübergreifenden Modellierung der Geschäftsprozesse ist das Offenlegen und der gegenseitige Austausch von Wissen zwischen den innerbetrieblichen Akteuren und den Kooperationspartnern. Das Befriedigen von Informationsbedürfnissen aller an einer Unternehmung beteiligten Akteure kann als grundsätzliche Bedingung für das generelle Funktionieren von Kooperationen herausgestellt werden.

Das Wissensmanagement hat Konzepte und Methoden als Informationsfilter bereitzustellen, um das benötigte Wissen empfängergerecht, entscheidungsbezogen, aggregiert und anpassungsfähig bereitzustellen. Eine ähnliche Aussage findet sich bei Scheer.[101] Kernstück solcher Mechanismen und Regelkreise ist ein entsprechend aufgebautes informationslogistisches Agentensystem. Dieses kann etwa nach den Perspektiven des Managements oder des Controllings, dem Prinzip der zu erfassenden Informationsobjekte wie Wertgrößen, technische Mengen- und Zeitgrößen, oder nach dem zeitlichen Bezug kurzfristig, mittelfristig und langfristig handlungsrelevantes Wissen, im richtigen Format und in gesicherter Qualität am richtigen Ort bereitzustellen. Im Vordergrund steht mithin die informationelle Absicherung der Geschäfts- und Unterstützungsprozesse, die sog. „Informationsfluss-Steuerung“.

Definition 9 – Informationsfluss:

Der Informationsfluss koordiniert den Fluss des Produktionsfaktors Wissen als ziel- und zweckbezogene Informationsvermittlung zur Aufgabenerfüllung innerhalb der Wertekette eines Unternehmens. Diese beinhaltet die Kontrolle und Steuerung des Einsatzes von Wissen sowie den unternehmensweiten Zugriff auf die Quellen organisationellen Wissens.[102]

Es erfordert eine sorgfältige, detaillierte Planung der „Maßnahmen zur Einführung, Wartung, Weiterentwicklung und Absicherung der auf die Geschäftsprozesse zielenden Informationsmanagement- und -controllingfunktionen zur Unterstützung der IuK- sowie der Problemlösungs- bzw. Entscheidungsprozesse“, die wir im Weiteren mit dem Begriff „Technologietransferprozesse“ bezeichnen und unter denen wir insbesondere Wissensmanagementfunktionen zur intelligenten Unterstützung der Informationsversorgung verstehen. Das Vorgehen beinhaltet die Dokumentation und das Monitoring der IuK-Systeme und -Prozesse im Sinne der nutzwertbezogenen Revision derselben.

Definition 10 – Technologietransferprozess:

Ein Technologietransferprozess ist ein auf die Unterstützung der IuK-Systeme und -Prozesse und somit auf Problemlösungs- bzw. Entscheidungsprozesse ausgerichteter Wissensproduktions- und Informationsvermittlungsprozess im Sinne der wissensbasierten und intelligenten Unterstützung der Geschäftsprozesse durch die Leistungsprozessen vor- bzw. nachgelagerte automatisierte und zunehmend KI-basierte Informationsarbeit.

Der in diesem Zusammenhang in der Literatur gebräuchliche Begriff „Informationsvermittlung“ stammt aus dem dokumentarischen Bereich. In der Wirtschaft wird wegen der ökonomischen Verwertung von Wissen meist von Technologietransfer gesprochen. Nach Kuhlen[103] bezieht sich Technologietransfer, unabhängig von den zu transferierenden Wissensinhalten, auf jede institutionalisierte Form der Kooperation. Er umfasst Schmidt[104] zufolge alle Tätigkeiten, die von geschulten Informationsspezialisten und zunehmend von intelligenten Informations- bzw. Agentensystemen gezielt und im gegenseitigen individuellen Kontakt mit den Akteuren und in deren Auftrag für die Befriedigung aktueller Informationsbedürfnisse, etwa im Rahmen konkreter Problemlösungs- bzw. Entscheidungsprozesse, unter Ausnutzung aller verfügbaren Ressourcen angeboten und ausgeführt werden. Entsprechend wird Kooperation im Kontext des Technologietransfers in der Regel nicht als individuelles, sondern als intra- bzw. interorganisationelles Kommunikationsproblem gesehen. Gemeint ist damit ein Transfer zwischen Unternehmen und Organisationseinheiten.[105]

Die Technologietransferprozesse sind wie die IuK-Prozesse der Leistungserstellung meist den eigentlichen IuK-Prozessen vor- und nachgeschaltet und wirken mit diesen innerhalb der Wertekette insbesondere zur Unterstützung von Problemlösungs- bzw. Entscheidungsprozessen (Stichwort: Informationslogistik).[106] Während die operativen und wertorientierten Kontroll- und Steuerungsprozesse meist zur Unterstützung der eigentlichen Leistungserstellung dienen, stellt die Unterstützung der IuK-Prozesse durch Technologietransferprozesse eine indirekte Unterstützung der Geschäftsprozesse durch Wissensproduktion und Informationsvermittlung, mit zunehmend KI-basierten Kontroll- und Steuerungsmechanismen, auf der Meta-Ebene dar. Benötigt und produziert werden nach Wild[107] oder Hauke[108] im Einzelnen

- normatives Wissen: Dieses bezieht sich auf Ziele und Werturteile. Es handelt sich um SOLL-Aussagen und somit in erster Linie um präskriptive Aussagen.
- faktisches Wissen: IST-Aussagen beschreiben die Wirklichkeit und sind vergangenheitsorientiert.
- logisches Wissen: MUSS-Aussagen geben die logischen Beziehungen wieder. Sie stehen eventuell in Verbindung mit explanatorischem Wissen, das sind WARUM-Aussagen, also ursachenerklärende Mitteilungen, mit explikativem Wissen wie Definitionen oder Sprachregelungen und instrumentalem Wissen, das etwas über methodologische und praxeologische Beziehungen aussagt.
- prognostisches Wissen: Zukunftsbezogene WIRD-Aussagen fungieren u. U. als konjunktive Mitteilungen, die etwas über mögliche Zustände aussagen und unter denen KANN-Aussagen verstanden werden.

Bei der analytischen Trennung zwischen der Produktion handlungsrelevanter Mitteilungen und der eigentlichen Entscheidung in einem Problemlösungsprozess ist zu beachten, dass ein Technologietransferprozess nicht zwangsläufig mit einem Entschluss (Entscheidung im engeren Sinne) einhergeht. Es werden zwar Entscheidungsprozesse initiiert, aber keine Entschlüsse gefasst. Zwischen den Entscheidungsprozessen (primäre Aktivitäten) und den vor- sowie nachgelagerten Technologietransferprozessen (sekundäre Aktivitäten) kommt es so zu Verwerfungen. Ein Teil der Informationsobjekte wird erarbeitet, ohne jemals aktiviert zu werden. Es handelt sich um irrelevantes Wissen. Im Bereich der Aufbereitung von Wissen gibt es auch produktionsbedingte Problemstellungen (Informationsentscheidungen), wenn etwa nach Ablauf eines Technologietransferprozesses ein neuer Prozess notwendig wird oder als notwendig erachtet wird, weil das produzierte Wissen etwa einen neuen Simulationsdurchlauf nahe legen oder eine neue Leistungsvariante implizieren. Die Aufgabe, die sich also stellt, ist, die (Handlungs-)Relevanz von Informationsobjekten bzw. Technologietransferprozessen für eine konkrete Handlungsalternative zu ermitteln, um etwas über die Bedeutung von Wissen für den Problemlösungs- bzw. Entscheidungsprozess zu erfahren.

1.2.2 Entscheidungsprozess

Der Begriff „Entscheidung“ wird im allgemeinen Sprachgebrauch vor allem dann angewendet, wenn ein Wahlproblem von besonderer Bedeutung vorliegt, von dessen Ausgang viel abhängt. Ergänzend dazu wird in der Literatur im Rahmen der Entscheidungstheorie der Entscheidungsbegriff so weit gefasst, dass er alle Optionen (Wahlakte bzw. Möglichkeiten) beinhaltet (Stichwort: Opportunitätskosten). Unter einer Entscheidung wird hier ganz allgemein die mehr oder weniger bewusste Auswahl einer von mehreren möglichen Handlungsalternativen verstanden. Alternativen sind nach Luhmann[109] besondere Arten von Unterscheidungen. „Sie sehen wie jede Entscheidung zwei Seiten vor, setzen aber voraus, dass beide Seiten der Unterscheidung erreichbar sind“. Die Entscheidung ist nicht eine der Möglichkeiten, die gewählt werden kann, aber ohne Alternative böte sich auch keine Entscheidung. Nur die Alternative macht eine Entscheidung zur Entscheidung. Hier liegt die Erklärung dafür, dass die Entscheidungstheorie mit dem Begriff der „Auswahl“ operiert, der, ähnlich wie der Begriff der „Selektion“, nichts erklärt, sondern nur die Stelle markiert, an der etwas zu erklären wäre. Dass eine Auswahl stattgefunden hat, ist nur an ihrem Resultat, also ex-post, zu erkennen.

Als „Entscheidung“ wurde lange allein der Moment bzw. das Ergebnis der Entscheidung zwischen zwei gegebenen Optionen verstanden. Das verbreitetste und einleuchtendste Modell zur Erklärung von Entscheidungen lautet Jungermann, Pfister und Fischer[110] zufolge, dass Handlungsträger die gegebenen Optionen unter dem Gesichtspunkt des Wertes und der Wahrscheinlichkeit ihrer Konsequenzen beurteilen und sich dann für die nach ihrer Meinung beste Option entscheiden.

[ Anmerkung: Folgen wir dem Prinzip der zirkulären Kausalität, so lassen sich die Probleme in Unternehmen nicht isoliert, sondern nur im Gesamtkontext des jeweiligen Systems lösen. Nicht die Lösung eines einzelnen Problems oder die Suche einer einzelnen Ursache steht im Zentrum des Interesses oder der Analyse einer Problemstellung, etwa einer Projektgruppe in einer Entscheidungssituation, sondern die Frage, welches Zusammenspiel welcher Faktoren ein Problem hervorbringt.]

Wird mit dem Begriff „Entscheidung“ nicht allein der Entschluss, sondern auch dessen Vorbereitung bezeichnet, so lässt sich eine Entscheidung als ein sich im Zeitablauf vollziehender Prozess auffassen, der aus Vorentscheidungen und der Endentscheidung besteht (Problemlösungs- bzw. Entscheidungsprozess). Der Entscheidungsbegriff entspricht in dieser weiten Auffassung einem Problemlösungsprozess, wobei die möglichen Lösungen des (Entscheidungs-)Problems durch die erwogenen Alternativen repräsentiert werden und die tatsächliche Lösung durch die gewählte.[111] Der Prozess wird durch den Einsatz aufbereiteter Rohdaten bzw. von Wissen gesteuert und endet im allgemeinen, wenn ein Akteur sich durch die Wahl einer Option festlegt. Manchmal endet ein derartiger Prozess aber auch erst mit der getroffenen Wahl bzw. retrospektiven Bewertung der Entscheidung. Ähnliche Aussagen finden sich bei Jungermann, Pfister und Fischer (s. o.).

Definition 11 – Problemlösungs- bzw. Entscheidungsprozess:

Die Prozesse der Aufbereitung von Wissen mit dem direkten Ziel der Problemlösung werden als Entscheidungsprozesse bezeichnet. Dies kann Kuhlen[112] zufolge bis zur automatisierten Schaffung von informationellen Mehrwerten durch artifizielle Agenten gehen, während Hauke,[113] vor rd. 20 Jahren davon ausgeht, dass Problemlösungs- bzw. Entscheidungsprozesse immer von einem Menschen ausgeführt werden.

Im Sinne Luhmanns[114] kommt eine Entscheidung innerhalb von Systemen nur als Kommunikation im Sinne der Produktion von Mitteilungen, Kommunikation und Verstehen des Inhalts erhaltener Mitteilungen mit Annahme oder Ablehnung zu Stande. Für uns ist demnach die Entscheidung ein kommunikatives Ereignis und nicht etwas, was ausschließlich im Inneren eines menschlichen oder artifiziellen Agenten stattfindet.

Nachdem Wissen, das einen Agent (im jeweiligen Kontext) als Reiz erreicht, sich in der Wahrnehmung bzw. im perzeptiven Feld des Individuums präsentiert hat, findet ein Abgleich mit dem Erfahrungswissen des Agenten statt. Verbunden mit der Interpretation der sozialen Wahrnehmung ist dabei die Möglichkeit der selektiven Informationsaufnahme (und -suche) sowie die Möglichkeit zur Weigerung, Mitteilungen als handlungsrelevant zu akzeptieren, etwa aufgrund der (Un-)Glaubwürdigkeit einer Wissensquelle.

Für den Entscheidungsträger wird übermitteltes Wissen generell erst nach einer eingehenden Prüfung Bestandteil seines Planungs- bzw. Entscheidungswissens (des sog. „kognitiven Modells“). Die empfangene Mitteilung wird im Moment der Entscheidung nur berücksichtigt, wenn sie mit dem bisherigen Wissen des Agenten logisch verträglich und der Inhalt plausibel ist (vgl. Abb. 4). Eine typische Entscheidungssituation lässt sich dadurch beschreiben, dass die Entscheidung von zwei Dingen abhängt:

1. dem Inhalt bestimmter zugänglicher Mitteilungen und
2. dem Ausgang bestimmter zufälliger Ereignisse im Sinne von Gedanken und Erfahrungen des Handlungsträgers.

Der mit der Bearbeitung eines Entscheidungsproblems verbundene kognitive Aufwand hängt weitgehend davon ab, wie das Wissen repräsentiert ist bzw., ob bereits überhaupt mentale Repräsentationen vorliegen, oder ob das notwendige handlungsrelevante Umfeld erst angeeignet und strukturiert werden muss. Zwischen weitgehend automatisierten und mühelos ablaufenden Entscheidungen einerseits und ausführlichem Information Retrieval sowie der Aufbereitung von Wissen andererseits gibt es ein Kontinuum der kognitiven Anstrengung in der Art und dem Umfang der Nutzung kognitiver Ressourcen. Es können sowohl unterschiedlich viele Mitteilungen herangezogen als auch unterschiedlich aufwendige Verarbeitungsprozesse eingesetzt werden. Eine vertiefende Darstellung findet sich bei Svenson[115] oder Frey und Gaska.[116]

Jungermann, Pfister und Fischer[117] sehen die erste Ebene der Entscheidung dadurch charakterisiert, dass die möglichen Optionen stets gleich sind und zwischen ihnen routinemäßig oder automatisch gewählt wird. In diesem Zusammenhang sprechen wir von Routineentscheidungen, als Resultat früherer, auf höherer Ebene angesiedelter Entscheidungen, die aufgrund häufiger Wiederholungen hochgradig eingeübt sind. Stereotype Entscheidungen unterscheiden sich von Routineentscheidungen wiederum durch zwei Aspekte:

1. Sie werden nicht durch die Gesamtsituation, sondern durch die Art der möglichen Entscheidungsoptionen ausgelöst.
2. Es gibt einen minimalen Bewertungsprozess.

Dadurch ist ein höherer kognitiver Aufwand im Rahmen stereotyper Entscheidungen erforderlich, weshalb derartige Entscheidungen meist als bewusste Entscheidung erlebt werden.

Für die auf der höchsten Ebene angesiedelten konstruktiven Entscheidungen sind zwei weitere Aspekte charakteristisch:

1. Die Optionen sind entweder nicht vorgegeben oder nicht hinreichend genau definiert.
2. Die für eine Entscheidung relevanten persönlichen Werte sind entweder unklar oder müssen erst generiert werden.

Deshalb verlangen Entscheidungen auf dieser Ebene den höchsten kognitiven Aufwand. Es kommen zusätzlich kognitive Prozesse ins Spiel, insbesondere Prozesse der Suche nach zusätzlichen, tiefer gehenden Mitteilungen.

Neben den kognitiven Beschränkungen und den in der Regel beschränkten Fähigkeiten zur Wahrscheinlichkeitsschätzung von Entscheidungsträgern sind es vor allem die Werte und Ziele des Individuums, die zu Verzerrungen bei der Nutzung von Wissensressourcen in Problemlösungs- bzw. Entscheidungsprozessen führen (vgl. Abb. 4). Sowohl in der Natur- wie in der Geisteswissenschaft umreißt dabei der Begriff des „Milieus“ Lebensbedingungen (Umfeld bzw. Kontext), die einen Einfluss auf die Werte und Ziele eines Nutzers haben.[118]

Das bedeutet letztendlich, dass es zwar eine sachlogische Relevanz von Mitteilungen gibt (zum Relevanzbegriff vgl. Kap. 2.0.2), diese aber aufgrund der Qualifikation und der Eigenschaften des Entscheidungsträgers unter Umständen vollkommen verfälscht wird. Das Kriterium der Relevanz von Inhalten für Entscheidungsträger und somit für den Problemlösungs- bzw. Entscheidungsprozess, kann deshalb nicht exakt definiert werden. Folglich scheint eine direkte Nutz- bzw. Informationswertbestimmung von handlungsrelevantem Wissen in Technologietransferprozessen (zumindest ex-ante) unrealistisch. Eine ähnliche Aussage findet sich bei Hauke.[119]

Abbildung in dieser Leseprobe nicht enthalten

[Abb. 4: Der Entscheidungsprozess aus sozialpsychologischer Sicht (angepasste Darstellung)[120] ]

- Abb. 4: Wissen erreicht (im jeweiligen Kontext) als Reiz den Entscheidungsträger und präsentiert sich in der Wahrnehmung bzw. im perzeptiven Feld des Individuums.

Die Technologietransferprozesse bzw. Informationsproduktionsprozesse selbst sind Prozesse der Aufbereitung von Wissen niedriger Ordnung. Es werden Anregungs-, Kontroll- und Prognosemitteilungen produziert, die als Prämissen in Prozesse der Aufbereitung von Wissen höherer Ordnung, das sind Entscheidungsprozesse, eingehen. Prozesse der Aufbereitung von Wissen höherer Ordnung haben Lenkungs- bzw. Steuerungsfunktion bezüglich des Informationsflusses.

- In den Problemlösungs- bzw. Entscheidungsprozess gehen Potenzial- und Verbrauchsfaktoren als Inputgrößen ein. Sie können im Extremfall vollkommen identisch mit den Outputgrößen des vorangegangenen Informationsproduktionsprozesses sein, insbesondere wenn z.B. ein (IuK-)System sowohl in den Informationsproduktions- als auch in den Problemlösungs- bzw. Entscheidungsprozess einbezogen ist. Dies ist im Bereich der Agententechnologie häufig der Fall, da in einem ersten Schritt Wissen gesammelt wird, das in einem zweiten Schritt zu einer automatisierten Entscheidung führt.

Bei den Prozessen der Aufbereitung von Wissen höherer Ordnung werden aus einer Menge von Eingabedaten (etwa dem Wissen der Buchhaltung) zusammen mit imperativem Wissen Entscheidungen oder Entschlüsse abgeleitet, die eine optimale Alternative empfehlen. Zum Wissen der Buchhaltung zählen indikativische Aussagen, also faktische, prognostische und logische Mitteilungen. Imperatives Wissen besteht aus normativen, etwa präskriptiven Mitteilungen, wie bspw. die Absicht der Gewinnmaximierung.

- Output des Entscheidungsprozesses sind Entschlüsse bzw. den Informationsfluss steuerndes Wissen, das von den (IuK-)Systemen abgegeben wird. Der Output bedarf der Kontrolle und beeinflusst letztendlich wiederum den Kontrollfluss.

Es ist selbstverständlich auch möglich, dass keine Entscheidung zustande kommt oder die getroffene Entscheidung nicht realisiert wird. Außerdem kann das vorläufige Ende eines Entscheidungsprozesses in einer Rückkopplung zum Informationsproduktions- bzw. Technologietransferprozess bestehen, wenn wegen fehlender Größen der Entscheidungsprozess nicht beendet werden kann und deshalb neues bzw. weiteres Wissen zur vertiefenden Analyse produziert werden muss.[121] Hervorzuheben sind die Planungs- bzw. Kontroll- und Steuerungsprozesse, die sowohl bei Informations- wie auch bei Problemlösungs- bzw. Entscheidungsprozessen eine unterstützende Funktion hinsichtlich der operativen und der wertorientierten Prozessausgestaltung aufweisen und auf einer unteren Ebene bereits auf die Koordinationsfunktionen der übergeordneten Prozesse ausgerichtet sind.

Definition 12 – Kontrollfluss (Steuerfluss):

Er dirigiert den logischen Ablauf von Funktionen durch Kontroll- und Steuerungsmitteilungen die zuvor definierte oder noch auszuhandelnde Aktionen auslösen. Die Funktionen des Leistungsprozesses realisieren die Flüsse, indem sie z.B. bei den eingehenden Leistungen (Informationsobjekten) einen Beitrag hinzufügen und damit die zu erstellende Leistung des Prozesses weiterbefördern.[122]

Es sei betont, dass nach Scheer[123] als Vereinfachung der Kontroll- und der Leistungsfluss gemischt und vereinheitlicht werden können. Dies kann zweckmäßig sein, wenn die Leistungsergebnisse Informationsobjekte wie Auftragsdokumente oder auch Rechnungsformulare sind, so dass das Ereignis ihrer Erstellung mit den Daten gleichgestellt werden kann.

1.3 Virtualisierung

Für die Urformen industrieller Produktionsprozesse ist es notwendig, dass sich die Beteiligten real an dem Ort, an dem die Produktion stattfindet, aufhalten. Im Sinne des Begriffs „System“ ist eine Fabrik (heute) jedoch kein konkreter Ort mehr, die Fabrik gilt in diesem Sinne als eine Stufe in einem Prozess, durch den Ausgangsstoffe (auch Daten) mit einem wirtschaftlich höheren Wert versehen werden (Stichwort: informationelle Wertschöpfung).[124] [125] Aus der Verfügbarkeit innovativer IT ergibt sich eine Vielzahl neuer Handlungsspielräume, die etwa dem Prinzip der Telearbeit folgend die virtuelle Anwesenheit, bei räumlich realer Abwesenheit, am Handlungsort ermöglichen.[126]

Der Mehrwert der Transformationsprozesse (nicht zu verwechseln mit dem informationellen Mehrwert) entlang der Wertschöpfungskette entsteht nicht mehr ortsbezogen und zeitgebunden, sondern „losgelöst von Zeit und Raum“ (bspw. als moderne Dienstleistung von zu Hause aus für ein Callcenter).[127] Die neuen Ansätze zur Entwicklung von Wertschöpfungsstrategien gehen, im Gegensatz zu den traditionellen, ablauforientierten, von informationsorientierten Prozessmodellen aus, die durch ihren flexiblen, innovativen Charakter Synergieeffekte freisetzen, welche die Geschäftsprozesse, weit über die Möglichkeiten des Managements zur Steuerung des traditionellen Geschäftshandelns hinausgehend, zielfördernd unterstützen.[128]

Mit der Virtualisierung im Bereich der F&E ist in der Literatur auch der Einsatz von virtuellen Techniken angesprochen, denn Simultaneous Engineering und Rapid Prototyping spielen bei der integrierten und zeitparallelen Abwicklung von Produkten und Prozessen eine immer größere Rolle. So finden etwa auch der Musterbau und Crashtests in einer rechnerintegrierten (virtuellen) Umgebung statt.[129]

Der Begriff „virtuell“ als Fachausdruck reicht bis zu den Ursprüngen der modernen Wissenschaft im 18. Jahrhundert zurück.[130] Ursprünglich leitet er sich von der Adjektivform des Wortes „virtus“ (<lat.> Tüchtigkeit, Kraft) ab und bedeutet mitunter „aus unbekannter Ursache wirkend“. In der Umgangssprache wird „virtuell“ auch im Sinne von Potenzialität (als die einer Sache oder einem Sachverhalt innewohnende Kraft) verwendet, die gegebenenfalls real („real“ im Sinne von Wirkung zeigen, einen Einfluss ausüben) wird (ähnlich Scholz[131] ). „Das deutsche Wörterbuch“ definiert den Begriff „virtuell“ mit den Worten[132]

- der Möglichkeit nach vorhanden, nur gedacht, scheinbar,
- oder <frz.> fähig zu wirken, möglich.

Dieser Bedeutung folgend geht es bei Virtualität um mehr als um bloße Technik. Es geht (in der Sprachforschung wie in der Philosophie) um eine den Dingen innewohnende „Energie“, die in Unternehmen, als Synergieeffekt kanalisiert, etwa im Bereich der F&E neue Möglichkeiten eröffnen und Unternehmenspotenziale zur innovativen Produktentwicklung freisetzen kann.

In der Literatur sind viele Strategien im Umgang mit dem Unerwarteten, etwa das „Profitieren vom Unerwarteten“, bekannt. Hier wird Ungewissheit als ein Positivum angesehen, nicht in der normalen Position, die Ungewissheit als ein Übel bezeichnet. Dieses Potenzial wurde vielleicht deshalb zuerst im Bereich des „Militärs“ kanalisiert, weil dieses eine lange Tradition aufweist, Überraschungen zu schaffen und dann zu nutzen.[133]

- „Doch im Begriff ‚virtuell’ liegt eine tiefe Bedeutung, er berührt den Kern der Realität.“[134]

Realität wird (wie oben angedeutet) immer schon symbolisch repräsentiert, sie ist also in gewisser Weise virtuell bzw. sie wird virtuell (als potenzielle Kraft) wahrgenommen und bildet als elektronische Organisationsform eine reale Virtualität (in Abgrenzung zur realen Wirklichkeit). Die reale Virtualität steht dabei für ein System, in welchem die materielle und symbolische Existenz der Menschen selbst einbegriffen ist (in eine Welt des Scheins, als Realität zweiter Ordnung).[135] Das virtuelle Unternehmen erscheint nun nicht nur als Repräsentation in Form einer bildlichen Darstellung, durch die etwa Erfahrungen kommuniziert werden (Stichwort: Usenet), sondern es wird zu tatsächlicher Erfahrung, etwa als Sanktion in Form von Unternehmensverlusten als Folge von Cyberkriminalität (in Form eines Datendiebstahls) und des möglichen daraus resultierenden Vertrauensverlustes in die Produkte und Dienstleistungen des Unternehmens.[136] Vorfälle, die mitunter durch das Versagen einer einzelnen Komponente, einer einzelnen Zelle des Unternehmens verursacht sind (bspw. durch den Ausfall einer Firewall) können negative Auswirkungen auf das (soziale) Image des Gesamtunternehmens zeigen und müssen bereits im Vorfeld entsprechend behandelt sein.[137]

Interpretieren wir den Begriff „virtuell“ etwa im Rahmen der Simulation eines physikalischen Systems, die in jeder Einzelheit perfekt ist (in einer quasi In-Memory-Persistenz), so verliert der (virtuelle) Zustand des Systems – im Sinne von beständig für den realen und flüchtig für den virtuellen Zustand etwa eines Datenspeichers (Stichwort: Disk Drive oder virtuelle Festplatte) – für den Nutzer jegliche Bedeutung, da die Simulation eine Wirkung zeigen kann, etwa in Form eines Datenverlustes als Sanktion infolge des Versagens der virtuellen Festplatte.[138]

Die Quantenphysik spricht im Kontext von sog. „Vakuumfluktuationen“ (das sind allgemein Effekte im luftleeren Raum) von virtuellen Teilchen, die an einem Punkt der Raumzeit gemeinsam erscheinen, sich auseinander bewegen, wieder zusammenkommen und sich gegenseitig vernichten.[139]

- Virtuell heißt hier, dass diese Teilchen nicht direkt beobachtet werden können, die Auswirkungen sich aber (indirekt) messen lassen.

Solche virtuellen Teilchen lassen sich im Unterschied zu realen Teilchen auch nicht durch einen sog. „Teilchendetektor“ nachweisen.[140]

Definition 13Virtuell:

Virtuell ist etwas, was unter speziellen Bedingungen Wirkung zeigt oder auftritt, ohne real, d.h. beständig da sein zu müssen.[141]

Als Beispiel (medial) realer Virtualität kann die Live-Berichterstattung über den Irak-Krieg (im sonntäglichen Frühstücksfernsehen) des Jahres 2003 herangezogen werden. Beide Virtualitätsbedingungen sind für den Zuschauer erfüllt. Sowohl der Krieg selbst, wie auch die Medienberichterstattung sind zeitlich begrenzt und führen zu einer Betroffenheit. Das Erlebnis heftiger Gefechte betrifft den Zuschauer direkt, etwa in einzelnen Fällen durch den Verlust eines geliebten Menschen und durch steigende (bzw. fallende) Benzinpreise vor seine Haustür.

Beide Ansätze – Potenziale werden freigesetzt und bewirken etwas, ohne real (dauerhaft) da zu sein – können als Eigenschaften von Organisationsformen verwendet werden und somit, in Organisationsmodelle integriert, die fest etablierten Geschäftsbeziehungen zu externen Partnern durch immer dynamischere Verknüpfungen, die erst zu einer aktuellen Problemzeit aktiviert werden, ersetzen. Das Konzept des virtuellen Unternehmens wird durch die zunehmende Verbreitung von „auf Wissen basierende und durch IT unterstützte“ (das bedeutet „wissensbasierte sowie vernetzte und intelligente“) Verfahren zur Unternehmenssteuerung möglich.[142]

Doch die Vernetzung der Unternehmen reicht als alleinige Kraft zur Freisetzung der Potenziale nicht aus. Die Flexibilität wird zwar sofort spürbar, doch damit ist das Problem der Anpassungsfähigkeit des Unternehmens noch nicht gelöst. Reichenwald, Möslein, Sachenbacher et al.[143] betonen, dass die Effekte durch den Einsatz von IuK-Systemen auch heute noch nicht zwingend positiv sind. Sie verweisen auf das sog. „Flexibilitätsparadoxum“, das zeigt, dass den Unternehmen mit der Flexibilisierung durch den Einsatz von IuK-Systemen auch gleichzeitig Inflexibilität durch Abhängigkeiten von der Technik droht.

Um die neuen Chancen der Netzwerke nutzen zu können, muss das Unternehmen selbst zum Netzwerk werden und jedes seiner Teilobjekte dynamisieren.[144] Kuhlen bezeichnet diesen Prozess als „Virtualisierung“ und definiert den Begriff (auf den Kern der Realität zielend) wie folgt:[145]

Definition 14Virtualisierung:

Virtualisierung ist die Organisation von Prozessen und Institutionen auf virtueller (elektronischer) Basis, die entsprechend keine festen Ordnungsstrukturen und Vereinbarungen erforderlich macht. Virtualisierung bedeutet die Vernetzung heterogener (Teil-)Objekte für in der Regel zeitlich befristete Aufgaben.

Reichenwald, Möslein, Sachenbacher et al. bezeichnen mit dem Begriff „Konzernierung“ die „Virtualisierung“ von ganzen Unternehmen. Für sie sind derartige Systemstrukturen die konsequente Fortsetzung einer Abflachung von Hierarchien und der Stärkung der Individual- und der Teleautonomie.[146]

Bekannt wurde der Begriff „Virtualisierung“ vor allem durch die Darstellung von Davidow und Malone.[147] Das virtualisierte Unternehmen ist demnach eine scheinbare Unternehmung, in Anlehnung an die virtuelle Realität (im Sinne einer realen Virtualität), das in seinem Auftreten und seiner Wirkung zwar dem entspricht, was unter dem Begriff einer „traditionellen Unternehmung“ (in der realen Wirklichkeit) gefasst ist, das jedoch ein flüchtiges Gebilde darstellt, das keine dauerhaften Grenzen und keine greifbaren Strukturen aufweist. Die Führung solcher Unternehmen ist dabei Davidow und Malone[148] zufolge durch das Zusammenspiel aller Management- bzw. Controllingkonzepte und -paradigmen (wie bspw. Just-in-Time, Supply Chain Management, Customer Relationship Management und Total Quality Management) gekennzeichnet, die heute weit verbreitet, populär und erprobt sind.

Da ist zum anderen aber auch das Konzept virtueller Unternehmen, mit dem Mowshowitz[149] ein streng logisch-rationales Organisationsprinzip präsentiert hat. Virtualisierung bezeichnet in diesem Konzept nicht die Schaffung von „Scheinrealitäten“, sondern bezieht sich auf ein eigenständiges Organisationsprinzip der Informatik. Anhand dieser beiden Entwürfe lassen sich besonders gut die zwei heute vorherrschenden, grundsätzlich unterschiedlichen Verständnisse von Virtualisierung deutlich machen:

1. Virtualisierung im Sinne der Entwicklung virtueller Realitäten als „Entmaterialisierung“ von Arbeitsplätzen, Organisationseinheiten und ganzen Unternehmen (das bedeutet als Substitutionskonzept, z.B. virtuelle Bibliotheken, virtuelle Projektgruppen).
2. Virtualisierung als Organisationsstrategie für dynamisch- und aufgabenbezogen- rekonfigurierte Unternehmen (das bedeutet Dynamisierung, flexible Vernetzung, Meta-Management).

In unterschiedlichen Ausprägungsformen bilden diese beiden Sichtweisen des Begriffs „Virtualisierung“ in der Literatur die Basis für ein weites Feld mehr oder weniger fokussierter Konzeptionen zergliederter und untereinander verwobener Unternehmen (Stichwort: Holding).

Auch wir subsummieren unter dem Begriff „Virtualisierung“ sowohl die klassischen Steuerungsmechanismen der strategischen Organisation als auch die sozialen Mechanismen des Managements von Grenzen und der Re-Konfiguration von Kooperationsbeziehungen, die, durch den verstärkten Einsatz IT-gestützter Verfahren zur Erschließung neuer Potenziale, zu informierten Individuen in einem „durch den Einsatz von IT geprägten“ (wissensbasierten) Unternehmen führen.[150] Die Ziele virtualisierter Unternehmen liegen nach Reichenwald, Möslein, Sachenbacher et al.[151] in der Ausnutzung von Zentralisierungsvorteilen durch dezentrale Strukturen und in der Generalisierung trotz Spezialisierung. Pfeiffer und Goffin[152] definieren den Begriff auf Unternehmensprozesse bezogen wie folgt:

- Virtualisierung ist die Simulation und Steuerung eines in großen Teilen nicht real an der Zentrale (Unternehmenssitz) vorhandenen Unternehmens.

Virtuelle Unternehmen sind sozial konstruierte und zumeist technisch realisierte Systeme. Sie weisen Scholz[153] zufolge als generelles Konstruktionsprinzip vier Merkmale auf, ohne die letztendlich die Handlungsfähigkeit des Unternehmens gefährdet ist. Heidegger[154] zufolge kann nach dem Ursprung und der Möglichkeit der Idee des Seins nicht ausschließlich mit den Mitteln formal-logischer Abstraktion, d.h. ohne sicheren Frage- und Antworthorizont, geforscht werden. Auch ein virtualisiertes bzw. virtuelles Objekt muss sich an den Eckpfeilern einer Konstitution ausrichten, denn nur dadurch kann es die Differenz zwischen System und Umwelt sowohl wahrnehmen als auch abbilden, die für sein Sein konstituierend ist. Die Zeit offenbart sich hierbei sozusagen als Horizont des Seins und beschreibt einen Virtualisierungsprozess von seiner Gründung bis zu seiner Terminierung. Die vier Merkmale der Virtualisierung sind nach Scholz:[155]

1. die Identifikation der konstituiernden Charakteristika, die sowohl das ursprüngliche als auch das virtualisierte Objekt ausweisen,
2. der Verzicht auf wesentliche physikalische Attribute, die üblicherweise mit dem ursprünglichen Objekt assoziiert sind, beim virtualisierten Objekt aber nicht mehr vorhanden sind,
3. der Einsatz von Zusatzspezifika zur Unterstützung der notwendigen Selbstorganisationsprozesse, welche für die virtuelle Realisierung notwendig sind, und
4. die Spezifikation der erhofften Nutzeneffekte als Wertschöpfungsvorteile, die sich durch den Wegfall der physikalischen Attribute ergeben.

Der Prozess der Virtualisierung ist aus diesem Grund in einem konsequenten Herbeiführen der genannten vier Merkmale zu sehen.

Definition 15Virtuelles Unternehmen:

Ein virtuelles Unternehmen ist ein virtualisiertes Objekt, das sich unter zuvor identifizierten (z.B. in durch bestimmte Geschäftsprozesse ausgelösten und in einem Informationsmodell aufgegriffenen) Bedingungen bildet.

Scholz, Stein und Eisenbeis[156] verstehen unter einem virtuellen Unternehmen ein „künstliches Unternehmen“, das basierend auf den individuellen Kernkompetenzen der Stakeholder eine Integration entlang der gesamten Wertschöpfungskette realisiert, ohne dass ein zusätzlicher organisatorischer Aufwand notwendig wird. Die Virtualisierung eines Unternehmens bedeutet sowohl die umfassende und interaktive Visualisierung im Internet (Stichwort: E-Commerce) als auch die Virtualisierung interner Geschäftsprozesse und Organisationseinheiten (Stichwort: E-Business).

Besonderheiten der virtuellen Unternehmung sind nach Ettighoffer[157] (aus dem Französischen übersetzt durch Reichenwald, Möslein, Sachenbacher et al.[158] ):

- die Ortslosigkeit (oder Standortunabhängigkeit): Sie wird durch die technische Realisierbarkeit der Telepräsenz zunehmend ermöglicht und manifestiert sich konkret in den verbesserten Möglichkeiten der Nutzung externen Expertenwissens, der Nutzung entfernter Managementressourcen sowie der Realisierbarkeit maximaler Marktnähe.
- die Zeitunabhängigkeit: Sie wird durch die neuen Möglichkeiten der flexiblen Automatisierung, wie z.B. der automatischen Auftragsbearbeitung zunehmend verbessert und resultiert konkret in einer intensiven Nutzbarkeit der Anlagen (und einer somit verbesserten Kapitalproduktivität), einer Verbesserung von Servicequalität und -verfügbarkeit sowie eine zunehmend engeren Vernetzung zwischen Kunden und Lieferanten.
- die Vernetzung von Wissensressourcen: Sie wird durch neue IT ermöglicht und äußert sich konkret in der zunehmenden Herausbildung von (Experten-)Netzwerken.

Die erfolgreiche Realisierung virtueller Unternehmensstrukturen stellt aber auch spezielle Herausforderungen an das Management dar. Sie bedingt vor allem die Notwendigkeit post-hierarchischer Strukturen, die Notwendigkeit neuer Formen des Managements entfernter Partner, die Notwendigkeit der Etablierung einer transparenten Informationskultur sowie die Notwendigkeit, den jeweiligen technologischen „State of the Art“ zu beherrschen. Die virtuelle Unternehmung ergibt sich dabei als konsequente Realisierung der informations- und kommunikationstechnischen Potenziale zur Steigerung der Effektivität und der Effizienz eines Unternehmens.

1.3.1 System

Ein zuverlässiges IuK-System dient zum ordnungsgemäßen Sammeln, Verarbeiten und Weiterleiten von Wissen, das (meist in Dokumenten „gebunden“) im Rahmen von Geschäftsprozessen anfällt. Der (Teil-)Begriff „System“ steht jedoch nicht nur für technische (Hard- und Software-)Systeme, er steht in Anlehnung an Panyr (der auf Lockemann und Mayr rekurriert[159] ) vielmehr auch für „ein beliebiges natürliches System (wie z.B. das menschliche Denken) oder ein künstliches, wie z.B. die Bürokratie“.[160]

Der Ursprung des Begriffs „System“ liegt im griechischen Ausdruck <gr.>systema“ und bedeutet „das Zusammengestellte“ oder „das Zusammengeordnete“. In der Antike wurde allgemein von Ganzheiten gesprochen, die aus Teilen bestehen. Dem Begriff wohnt dabei die Doppelbedeutung inne, dass unter ihm einerseits ein System von Objekten der Wirklichkeit und andererseits auch ein System von Gedanken oder Begriffen der Information verstanden sein kann. Wirtschaftswissenschaftler (bspw. Leontief[161] ), Psychologen (bspw. Piaget[162] ) und Soziologen (bspw. Luhmann[163] ) beschäftigen sich intensiv mit dem Begriff des Systems und legen dabei besonderes Augenmerk auf den lebendigen Organismus als offenes System. Die dynamischen Interaktionssysteme, wie etwa Ökosysteme, wurden von Autoren wie Lotka,[164] Volterra[165] und Turing[166] erforscht.[167] Wir definieren den Begriff „System“ in Anlehnung an Schmidt[168] oder Soergel[169] wie folgt:

Definition 16 – System:

Ein System lässt sich beschreiben durch eine Menge von Elementen sowie eine Menge von Relationen, welche die Beziehungen der Elemente angibt. Charakteristische Merkmale eines Systems sind die Systemgrenze, Input, Output und das Systemziel. Input und Output ist (im Idealfall) handlungsrelevantes Wissen, Systemelemente sind Funktionen und Mitteilungen, Systembeziehungen werden durch Kommunikation realisiert, die Systemgrenze umfasst den Anwendungsbereich unter Einbeziehung von Aufbau- und Ablauforganisation und das Systemziel ist die Problemlösung in Einklang mit der Vorgehensstrategie.

Luhmann erklärt den Begriff „System“ anhand seiner „Theorie sozialer Systeme“,[170] wobei er zur Erläuterung zwischen psychischen und sozialen Systemen, die er gegenüber Maschinen und Organismen als Systeme abgrenzt, unterscheidet. Er differenziert im Kontext des Systembegriffs zwischen einer begrifflichen Abstraktion, welche auf die Theorie abzielt und Vergleiche ermöglicht, und der Selbstabstraktion des Gegenstandes, welche auf die Struktur abzielt. Bei strenger begrifflicher Trennung können sich so Systeme bilden, welche die begriffliche Abstraktion zur Selbstabstraktion verwenden, d.h., sie gewinnen ihre Strukturen dadurch, dass sie ihre Merkmale mit den Merkmalen anderer Systeme vergleichen und diese Unterscheidung fortan als Systemgrenze anwenden.

Der Begriff „Systemelement“ ist im Sinne Luhmanns als Ereignis mit einer zeitlich begrenzten Dauer zu verstehen und beim Anschließen eines Ereignisses an ein anderes steht schon fest, dass es im nächsten Moment wieder zugunsten eines neuen verschwinden wird. Damit ist ein kontinuierlicher Drang zur Selbsterneuerung, Selbststeuerung und Selbstoptimierung gegeben, d.h. es muss von einem Geschäftsprozess zum nächsten eine Selektion aus dem Möglichen erfolgen. Dies erfordert Steuerungsmechanismen, da das System sonst aufhört zu existieren. Natürlich spricht Luhmann nicht von (virtuellen) Unternehmen.

[ Anmerkung: Virtualisierung ist die Simulation und Steuerung eines in großen Teilen nicht real an der Zentrale (Unternehmenssitz) vorhandenen Unternehmens (vgl. Kap. 1.3).[171] ]

Im Falle psychischer Systeme handelt es sich bei den Elementen im Sinne Luhmanns um Gedanken, bei den sozialen Systemen um Kommunikationszusammenhänge. Die von uns gewählte Definition des Begriffs „System“ ist daher mit dem Bezugsrahmen Luhmanns „Theorie sozialer Systeme“ nur indirekt vereinbar, doch seine Theorie lässt sich in unseren Kontext interpretieren.

Das Modell Luhmanns in unser „kommunikationstheoretisches“ Umfeld übertragen bedeutet, dass Elemente nur Elemente für die Systeme sind, die sie als Einheit verwenden, und die Elemente erst durch diese Systeme zu Elementen werden. Dieser Vorgang ist nach Luhmann[172] mit dem Konzept der Autopoiesis formuliert. Eine vertiefende Ausführung hierzu findet sich etwa bei Parsons.[173] Der Begriff der „Autopoiesis“ wurde erstmals von Maturana und Varela[174] formuliert. Zunächst bezogen auf lebende Systeme, wird durch Autopoiesis die Fähigkeit des Systems charakterisiert, die Elemente, aus denen es besteht, selbst zu produzieren bzw. zu reproduzieren. Eine der wichtigsten Konsequenzen ist, dass Systeme höherer, emergenter Ordnung von geringerer Komplexität sein können als Systeme niederer Ordnung, da sie Einheit und Zahl der Elemente, aus denen sie bestehen, selbst bestimmen, also in ihrer Eigenkomplexität unabhängig von ihrem Bezugsrahmen sind. D.h. auch, dass die notwendige bzw. ausreichende Komplexität eines Systems nicht vordeterminiert ist, sondern für jede Ebene der Systembildung mit Bezug auf die dafür relevante Umwelt neu bestimmt werden kann (und muss).

Luhmann formuliert als Ausgangspunkt seiner Theorie sozialer Systeme (im Kontext selbstreferentieller Systeme), dass jede Einheit, die in einem System verwendet wird (sei es die Einheit eines Elements, die Einheit eines Prozesses oder die Einheit eines fremden Systems), durch dieses System selbst konstituiert sein muss und nicht aus dessen Umwelt bezogen werden kann.

Die Theorie selbstreferentieller Systeme nach Luhmann[175] beinhaltet, dass eine Ausdifferenzierung von Systemen nur durch Selbstreferenz zustande kommt, d.h. dadurch, dass die Systeme in der Konstitution ihrer Elemente und ihrer elementaren Operationen auf sich selbst Bezug nehmen. Sie müssen, um dies zu ermöglichen, eine Beschreibung ihres Selbst erzeugen und benutzen. Sie müssen dazu systemintern mindestens die Differenz zwischen System und Umwelt als Orientierung und als Prinzip der Erzeugung von handlungsrelevantem Wissen über die Umwelt verwenden können.

Systeme haben somit Grenzen, welche die Doppelfunktion der Trennung und der Verbindung zwischen System und Umwelt wahrnehmen. Diese Eigenheit von Systemen steigert die Möglichkeiten der Komplexitätsverarbeitung, die grundsätzlich über Kommunikationsprozesse abläuft. Die Doppelfunktion lässt sich anhand der Unterscheidung von Element und Relation verdeutlichen.

Jeder komplexe Sachverhalt beruht auf einer Selektion der Relationen zwischen seinen Elementen, die er benutzt, um sich zu erhalten. Durch Selektionszwang und durch Konditionierung von Selektionen lässt sich letztendlich auch erklären, dass aus einer Unterschicht von sehr ähnlichen Einheiten (wie bspw. weniger spezialisierter, sehr ähnlich organisierter Einheiten) sehr verschiedenartige Systeme gebildet werden können. Die Elemente müssen, wenn die Grenzen scharf gezogen sind, (im einfachsten Fall) entweder dem System oder der Umwelt zugerechnet werden. Relationen können dagegen auch zwischen Systemen und Umwelt bestehen.

Ein modernes Unternehmen differenziert sich demnach in ungleiche, aber gleichberechtigte (soziale) Teilsysteme, die (mitunter) nur existieren (können), wenn sie für die Geschäftstätigkeit eine exklusive Funktion erfüllen.[176] Die Ausdifferenzierung jeweils eines Teilsystems für jeweils eine Funktion bedeutet, dass diese Funktion für dieses (und meist nur dieses) System Priorität genießt und allen anderen Funktionen vorgeordnet wird.[177]

Durch die Erfüllung der Primärfunktionen lösen die Teilsysteme spezifische, auf die eigentliche Leistungserstellung bezogene relevante Probleme, deren Durchführung sie (meist) exklusiv übernommen haben, und entlasten dadurch die anderen Systeme. Über die Lösung von Problemen und die Durchführung entsprechender (Abstell-)Maßnahmen entscheiden die (sozialen) Teilsysteme selbst, sie operieren weitgehend autonom oder systemtheoretisch ausgedrückt selbstreferentiell und autopoietisch.

Es stellt sich nun die Frage, wie wir in die Selbstbeschreibung eines (sozialen) Systems, die auf Handlungszusammenhänge reduziert ist, die Differenz von Systemen und Umwelt einbauen und dadurch Informationspotenzial gewinnen können? Die Antwort lautet: „durch Konditionierung von Kommunikation, das heißt durch Bildung sozialer Systeme“.[178] Systeme sind demnach nicht einfach Relationen zwischen Elementen, mehr noch muss das Verhältnis der Elemente untereinander und der Systeme zueinander geregelt sein. Die Autopoiesis, also die operative Geschlossenheit von Systemen, schließt somit Umweltkontakte nicht aus. Die Systeme sind durch strukturelle Koppelungen (Schnittstellen) miteinander verbunden.[179]

Bei Zunahme der Zahl der Elemente, die in einem System oder für ein System als dessen Umwelt zusammengehalten werden müssen, stoßen wir nun mitunter sehr rasch an eine Schwelle, von der ab es nicht mehr möglich ist, jedes Element zu jedem anderen in Beziehung zu setzen. Eine derartige Situation kann im Sinne Luhmanns als komplex angesehen werden.

Definition 17 – Komplexität:

„Als komplex wollen wir eine zusammenhängende Menge von Elementen bezeichnen, wenn auf Grund immanenter Beschränkungen der Verknüpfungskapazität der Elemente nicht mehr jedes Element jederzeit mit jedem anderen verknüpft sein kann.“[180]

Komplexität in dem angegebenen Sinne heißt Selektionszwang, Selektionszwang heißt Kontingenz, Kontingenz heißt Risiko. Komplexität ist im Sinne Luhmanns[181] ein Maß für Unbestimmtheit oder für den Mangel an Wissen. Komplexität ist so gesehen handlungsrelevantes Wissen, das dem System fehlt, um seine Umwelt bzw. sich selbst vollständig erfassen und beschreiben zu können.

Komplexität ist eine Begleiterscheinung unternehmerischer Betätigung. Wegen der „unendlichen“ Möglichkeiten der Kommunikation ist es für jedes Unternehmen eine Herausforderung, die eigenen Grenzen zu definieren. Immer wieder muss ein Unternehmen anhand seiner Ausrichtung entscheiden, welche Themen im System kommuniziert werden und welche zur Umwelt des Systems gehören. Diese Entscheidung erlaubt den Aufbau einer funktionsspezifischen System-Umwelt-Differenz. Scheer und Werth[182] zufolge lassen sich im Besonderen die folgenden vier Problembereiche identifizieren, die komplexitätstreibend auf das Geschäftsprozessmanagement in einem Unternehmen wirken:

1. Variantenproblem: Meist findet man in Unternehmen mehrere artverwandte Geschäftsprozesse, die dem gleichen Zweck dienen und sich nur graduell unterscheiden. Ursache sind oftmals Anpassungsbedarfe an Länderspezifika, Vertriebskanäle oder Werksregelungen. Dies führt zu Variantenfamilien von Geschäftsprozessen, die in unterschiedlichem Ausmaß miteinander in Beziehung stehen. Insbesondere ist im Einzelfall für alle Varianten zu bestimmen, ob eine Veränderung an einer Variante Auswirkungen auf die anderen hat oder nicht.
2. Konsistenzproblem: Modellierung bedeutet stets eine negative wechselseitige Abhängigkeit (ein sog. „Trade-Off“) zwischen Aufwand und Detailgenauigkeit. Gerade betriebliche Abläufe unterliegen vielfältigen Ausnahmesituationen. Es stellt sich die Frage, inwieweit diese in Systembeschreibungen aufzunehmen sind? Unter der Annahme der 80:20-Regel machen gerade diese Ausnahmebehandlungen einen Großteil des Spezifikationsaufwandes und damit der Systemkomplexität aus. (Im Rahmen der Systemanalyse ist häufig zu beobachten, dass in einer beliebigen Menge von Elementen, die etwas bewirken sollen, immer eine zahlenmäßig kleine Menge von Elementen den größten Effekt bewirkt. Dies wird als Pareto-80:20-Regel bezeichnet.) Auf der anderen Seite bedeutet eine Vernachlässigung dieser Situation ein Auseinanderlaufen von Systemspezifikation und -einsatz. Hier stellt sich das Problem der Inkonsistenz zwischen dem Modell als Steuerungsinstrument und der Realisierung als Steuerungsobjekt.
3. Transparenzproblem: Immer häufiger machen es Haftungsregeln notwendig, dass Entscheidungsträger genau wissen, wie ihr Verantwortungsbereich abläuft. Nur so ist es z.B. möglich, eine Risikoanalyse durchführen zu können oder Maßnahmen konsistent umsetzen zu lassen. Jedoch geht gerade in größeren Unternehmen die Transparenz verloren. Bezogen auf die Geschäftsprozesse fällt es trotz entsprechender Systementwürfe häufig schwer zu bestimmen, wie die Systeme tatsächlich realisiert sind. Neben den bereits erwähnten Varianten- und Konsistenzproblem führen vielfältige Änderungsanforderungen und -maßnahmen dazu, dass nicht mehr nachvollziehbar ist, welche Elemente eines Systems oder Teilsystems wann wie und aus welchem Grund geändert worden sind. Insbesondere sind auch die Constraints, denen die Systemgestaltung unterliegt, meist nicht bestimmbar. Aus diesen Gründen werden die Definitionen, die Evaluierung und das Re-Engineering von Systemen zunehmend intransparent.
4. Zielproblem: Die Operationalisierung von strategischen Zielsetzungen ist als Problemfeld weithin bekannt. In Bezug auf die Geschäftsprozesse gilt hier die Frage zu klären, wie Ziele in Systeme bzw. Systemänderungen umgesetzt werden können. Ansätze hierzu liefern Konzepte wie die sog. „Balanced Scorecard“. Die von der Beratungsfirma „KPMG“ entwickelte „Balanced Scorecard“ (BSC) bietet Managern, Architekten und Entwicklern ein umfassendes Instrumentarium, um die Werte, Ziele und Strategien des Unternehmens in ein geschlossenes Bündel von Leistungsmessungsfaktoren zu überführen. Die dazu umzusetzenden Mechanismen und Regelkreise werden von der Scorecard meist direkt angesprochen. Im Mittelpunkt des Scorecard-Konzeptes steht die Entwicklung und Evaluierung äquivalenter Indikatoren zur operativen Erfassung der Wissensbestände und zur zielfördernden strategischen Weiterentwicklung der organisationellen Wissensbasis im Rahmen des organisationellen Vorgehensmodells. In Hinsicht auf die Planung und Koordination der Systeme ist es ebenfalls relevant, inwieweit Systeme bzw. ihre Teilsysteme einen Beitrag zum Unternehmenserfolg leisten. Dieses Wissen ist nämlich die Voraussetzung für eine Verbesserung des Wissensmanagementsystems, das der besseren Implementierung der Unternehmensziele im Rahmen eines übergeordneten Informationsmanagement- und -controllingsystems dient.

Das Komplexitätsmanagement von Geschäftsprozessen ist als Forschungsfeld bekannt. Verschiedene Ansätze versuchen eine Verbesserung, bspw. durch Techniken der Referenzmodellierung, der Adaptionsfähigkeit von Geschäftsprozessen oder des Anforderungs- und Konfigurationsmanagements. Die Systemwissenschaften stellen die konkreten Methoden zur Beschreibung, Analyse und Modifikation von zu beobachtenden personalen und sozialen Systemen bereit. Die Theorien der Systemwissenschaften fokussieren die Aspekte der Organisation der Unternehmen, der Dynamik und der Komplexität von Systemen. Organisation bedeutet Schneewind und Schmidt[183] zufolge, dass Beobachter definieren, was die möglichen Elemente eines Systems sind und welche Elemente zu einem System gehören und welche nicht. Dies impliziert auch, dass die Definitionen der zu untersuchenden Phänomene klare räumliche und sinnhafte Strukturen aufweisen (können). Mit Dynamik ist die Zeitabhängigkeit, die Entwicklung eines Systems in der Zeit angesprochen. Komplexität bezeichnet die in den Strukturen des Systems enthaltene Informationsdichte im Sinne der Vorhersagbarkeit oder Nicht-Vorhersagbarkeit des Systems. Komplexität kann als die Informationsmenge verstanden werden, die nötig ist, um die Struktur eines Systems vollständig zu verstehen.

1.3.2 Kooperation

Für Kuhlen[184] bezieht sich der Technologietransfer, unabhängig von den zu transferierenden Wissensinhalten, auf jede institutionalisierte Form der Kooperation. Durch Kooperation werden Kronen[185] zufolge Gestaltungsspielräume geschaffen und (komparative Kosten-)Vorteile ausgeschöpft. Kooperation ist ein technologietransferprozessbasiertes, strategisches Gestaltungsinstrument für unternehmerische Interaktion. (Das bedeutet Entscheidungen im Sinne einer Auswahl aus Handlungsalternativen.) Kooperation ist aber nicht zuletzt auch eine Strategie, mit deren Hilfe Unternehmen die verschiedensten internen und externen Ziele zu erreichen versuchen. Entsprechend wird Kooperation im Kontext des Technologietransfers in der Regel nicht als individuelles, sondern als intra- und interorganisationelles Kommunikationsproblem gesehen.

Diese Sichtweise impliziert, dass eine Kooperation selbst als zu gestaltende Funktion, als zu gestaltender (Informations-)Prozess im Rahmen der unternehmensübergreifenden Kommunikation, aufgefasst werden muss. Die Gestaltungsentscheidungen in den Unternehmensnetzwerken lassen sich nicht lediglich auf die Wahl etwa einer geeigneten Organisationsform oder die Vertragsgestaltung und ähnliche, die äußere Form einer Kooperation bestimmende Aspekte beschränken. Die wichtigsten Perspektiven einer Kooperation umfassen Hirschmann[186] zufolge:

- die Zusammenarbeit der Kooperationspartner: Kooperation beinhaltet (freiwillige) Zusammenarbeit und nicht nur eine Verhaltensabstimmung zwischen den Organisationseinheiten.
- die ordnungsgemäße Aufgabenerfüllung: In einer Kooperation werden Aufgaben von den Organisationseinheiten gemeinschaftlich erfüllt. Im Gegensatz zu konzentrativen Verbindungen sind aber nur Teilaufgaben Gegenstand einer Kooperation.
- die gemeinsame Zielorientierung: Eine Kooperation ist immer intendiert und nicht emergent, d.h. mit jeder Kooperation werden von Unternehmen(-steilen) spezifische Ziele verfolgt. Einer Kooperation liegt natürlich stets auch ein gemeinsames Ziel zugrunde (z.B. die Absicht, Gewinne zu erzielen oder Kostenvorteile auszuschöpfen).
- die Autonomie der Kooperationspartner: Die Organisationseinheiten können, je nach Projektausrichtung, als rechtlich und wirtschaftlich selbständige Unternehmen interpretiert werden. Dies bedeutet im Extremfall, dass Kooperationen keine einheitliche, weisungsbefugte Leitung haben. (Dem dieser Organisationsform inhärenten Informationsdefizit ist z.B. durch eine überbetriebliche Informationsflussteuerung gegenzusteuern.)
- die sachlich richtige und für beide Kooperationspartner vorteilhafte Problemlösung bzw. Entscheidungsfindung: In Kooperationen werden gemeinsame Entscheidungen gefällt. Die Entscheidungsbefugnisse sind gleichberechtigt auf die Partner verteilt, es findet eine gemeinsame Entscheidungsfindung (z.B. im Rahmen eines Wissensmanagementsystems) statt.
- die Harmonisierung der Gestaltungsinstrumente: Durch eine Kooperation wird nicht nur eine spezielle Struktur zwischen Organisationseinheiten geschaffen, sie stellt auch eine Strategie für die beteiligten Partner dar.

Die aufgezeigten Perspektiven betonen den kumulativen Charakter von Wissen im Rahmen einer Kooperation, d.h. dass Schlussfolgerungsverfahren im Rahmen der Interpretationsarbeit durch das informationslogistische Agentensystem in der Regel nur dann zu einem sachlich richtigen Ergebnis kommen, wenn sie auf dem bis dahin Erarbeiteten aufbauen können. Bei der Festlegung des Kontextes einer (möglichen) Kooperation bedarf es zuerst der Mühe, das zu virtualisierende (Teil-)System, das bspw. Bestandteil einer Interaktion ist, sinnvoll zu spezifizieren. Im Rahmen einer folgenden Kontextstudie werden die Umfelddaten gesammelt, aufgearbeitet und aus ihnen ein Weltbild modelliert, anhand dessen jedes in Frage kommende Charakteristikum ausgewählt und in die Virtualisierung mit einbezogen werden kann. Die Informationsmodellierung überträgt die erkannten Zusammenhänge auf etablierte Mechanismen und Regelkreise zur Koordination der Geschäfts- sowie der mit ihnen einhergehenden Unterstützungsprozesse (Technologietransferprozesse) auf dem Boden einer phonotaktischen Forecast-Steuerung. Letzteres Koordinationsinstrument soll sowohl das Umfeld fortlaufend neu spezifizieren und anpassen, als auch neue Geschäftsstrategien selbsttätig erarbeiten, was bis hin zur automatisierten Schaffung neuer Organisations- und Geschäftsprozessstrukturen führt.

Zunehmend sind IuK-Systeme in der Lage, die zur Initiierung der eigentlichen Kooperation benötigte Interaktion selbsttätig zu koordinieren. Dazu wird der (zukünftige) Bedarf an Technologietransferprozessen anhand von Informationsmodellen entlang der gesamten Wertekette einer Unternehmung fortlaufend feingranular, zeitnah erfasst und die zum Einsatz kommenden Informationsmodelle vom informationslogistischen Agentensystem automatisch evaluiert (vgl. Kap. 4.2.3). Die phonotaktische Forecast-Steuerung fokussiert die direkte Unterstützung der Geschäfts- und Technologietransferprozesse durch wissensbasierte und zunehmend intelligente Methoden und erlaubt die Koordination flexibler Systemstrukturen durch die dynamische Etablierung zeitnah agierender Kontroll- und Steuerungsinstrumente mit Wissensmanagementfunktion zur intelligenten Unterstützung der Informationsversorgung der Agenten im Rahmen einer Kooperation. Wir sprechen im Kontext derartiger Koordinationsfunktionen von autonomen Agenten, die, vom informationslogistischen Agenten- bzw. Muttersystem entsprechend „indoktriniert“, gewissermaßen als Replikator seiner Strategien fungieren. Mittels eines Informationsmodells, das zuvor situationsbezogen aus einem Informationsmodell-Repository extrahiert oder zur Laufzeit generiert wird, bildet ein Agent die relevanten Aspekte einer möglichen Kooperation auf seine Umgebung ab. Eine entsprechende Replikationsfunktion gestattet, einerseits unverzüglich eine beliebige Wertekette eines Unternehmens visualisieren bzw. virtualisieren zu können und andererseits durch den Austausch von Netzwerk-Thesauri an den Softwaremodulschnittstellen, die jeweils aus einem Grundstock von mehreren Diskurswelten ausgewählt werden, das unternehmungsspezifische Informationsmodell nach außen zu kommunizieren.

Die Agenten interagieren in unserem Modell eines informationslogistischen Agentensystems, weil sie hoffen, dass eine mitunter erstmalige Interaktion zu einer Kooperation in der Zukunft führt. Die Entwicklung einer Kooperation wird Axelrod[187] zufolge dadurch ermöglicht, dass die Agenten potenziell immer wieder aufeinander treffen können (diese Voraussetzung ist insbesondere an den Softwaremodulschnittstellen gegeben). Damit eine Kooperation in Gang gesetzt werden kann, ist Axelrod[188] zufolge die Bedingung erforderlich, dass ein bestimmtes Maß an Gruppierung von Agenten gegeben ist, die Strategien mit zwei Eigenschaften verwenden:

1. Die Strategien werden zuerst interagieren und
2. sie werden diskriminieren zwischen

- denjenigen, die auf Interaktion reagieren und
- denen, die es nicht tun.

Ein Agent hat an seiner Softwaremodulschnittstelle zwei Möglichkeiten. Er kann die Strategie „geschlossenes System“ oder die Strategie „Interaktion“ wählen. Die Platzhalter können ebenfalls für ökonomische Möglichkeiten wie „lehne eine Kooperation ab“ oder „stimme einer Kooperation zu stehen“ stehen. Strategische Entscheidungen können für eine Interaktion bedeutsam sein, denn es kann etwa das Kalkül eines Agenten sein, immer die Strategie „Interaktion“ zu wählen, weil ihm bspw. das Wissen über eine Technologie fehlt. In diesem Fall wird ein anderer Agent, der über dieses Wissen verfügt, vielleicht immer die Strategie „geschlossenes System“ wählen, da er, ohne das Wissen zu teilen, weiterhin hohe Monopolgewinne erwirtschaften kann. Es kommt also zu keiner Kooperation. Das Problem besteht darin, dass in einer Welt unbedingter Defektion (das bedeutet unkooperativen Verhaltens) kein vereinzelter Agent, der seine Interaktion anbietet erfolgreich sein kann, solange nicht andere in seiner Umgebung sind, die Gegenseitigkeit zeigen. Andererseits kann Kooperation ausgehend von kleinen Gruppen diskriminierender Agenten entstehen, solange diese Agenten nur zumindest einen kleinen Anteil ihrer Interaktionen miteinander unterhalten.

An den Softwaremodulschnittstellen ist in diesem Zusammenhang die Interaktionsstrategie „Wie du mir, so ich dir“ (< engl. > Tit-for-Tat)[189] besonders empfehlenswert. In diesem Konzept initiiert ein Agent in der ersten Runde eine Interaktion oder reagiert auf Anfragen eines anderen Agenten. In jeder folgenden Runde interagiert er, wenn ein anderer Agent in der vorangehenden Runde auf seine bspw. Anfrage reagiert. Wenn sein Gegenüber in der vorangehenden Runde aussteigt, macht der Agent dasselbe und wartet auf eine erneute bzw. initiale Anfrage seines Gegenübers, d.h. der Agent wechselt nach jedem Strategiewechsel seines Gegenübers seine eigene Strategie. Solange beide Agenten ausreichend an einer möglichen Kooperation interessiert sind, kann die Drohung der zukünftigen Nicht-Zusammenarbeit ausreichen, das Gegenüber zu überzeugen, die Interaktion aufrecht zu erhalten. Die Tit-for-Tat-Strategie ist insbesondere interessant, da sie eine unmittelbare Bestrafung für das Abspringen beinhaltet. Sie ist aber auch eine verzeihende Strategie, da der die Interaktion verweigernde Agent für jedes Abspringen nur einmalig bestraft wird. Wenn er einlenkt und zu interagieren beginnt, wird diese Strategie den Agenten wiederum durch die Aussicht auf eine mögliche zukünftige Kooperation belohnen.

Um die Agenten in die Lage zu versetzen, etwa ein übermitteltes Thesaurus-Dokument hinsichtlich ihrer eigenen Werte, Ziele und Strategien im Rahmen einer möglichen Kooperation an den Softwaremodulschnittstellen zu interpretieren, um eine Entscheidung darüber zu treffen ob eine Interaktion mit dem Gegenüber (weiterhin) lohnenswert ist, bedarf es einer grundlegenden, sowohl inhaltlichen als auch ökonomischen Analyse der Diskurswelt der Agenten, um die Zusammenhänge zu ergründen, denen eine Interaktion bzw. Kooperation unterliegt. Den Agenten müssen bereits im Vorfeld die Instrumente implementiert werden, die mögliche Kooperationen zur Laufzeit erkennen und eine sachlich richtige Entscheidung durch Softwarefunktionen zulassen. Dazu muss bzw. müssen im Vorfeld einer Modellierung das durch das Weltbild eines Agenten indizierte Vokabular sowie die, durch die Benennungen implizierten Formalismen und Axiome, hinsichtlich einer definierten Problem- und Entscheidungsvielfalt abgeleitet werden. Um unterschiedlichste Arten von Geschäfts- und Technologieprozessen formal selbsttätig generieren zu können, muss ein Agent mittels semiotischer Thesauri in der Lage sein, sein Weltbild vermitteln und eigenständig Schlussfolgerungsverfahren hinsichtlich der Relevanz einer Interaktion durchführen zu können. Er stellt hierzu die relevanten Aspekte einer (möglichen) Kooperation in seiner Formalsprache dar und stellt den Beschreibungsausschnitt an seiner Softwaremodulschnittstelle zur Verfügung. Eine Übereinkunft über ein gemeinsames Weltbild ermöglicht es schließlich zwei interagierenden Agenten, selbsttätig Relevanzbeurteilungen, bspw. hinsichtlich der Möglichkeiten und des Umfangs einer Zusammenarbeit, durchzuführen und eine Interaktion bzw. Kooperation zu initiieren (oder auch zu beenden).

In Anlehnung an eine Idee von Tolksdorf, Mochol, Heese et al.,[190] die auf Zhong, Zhu, Li et al.[191] rekurrieren, können die interagierenden Agenten im Rahmen eines Schlussfolgerungsverfahrens, das bspw. dazu dient die Möglichkeiten und den Umfang einer Zusammenarbeit herauszuarbeiten, die taxonomischen und attributiven Ähnlichkeiten der dazu im Vorfeld übermittelten Weltausschnitte zur Relevanzbeurteilung heranziehen. Die taxonomische Ähnlichkeit bezieht sich auf die relative Lage zweier zu vergleichender Konzepte in einer sog. „Konzepthierarchie“, bspw. die Benennungen „Anfrage“ und „Angebot“ sind beide semantisch basiert. Dahingegen bezieht sich die attributive Ähnlichkeit auf den Vergleich von Attributen und Ausprägungen, bspw. der „Versand“ gegenüber der „Lieferung“. Allgemein kann eine solche Klassifizierung ebenfalls auf der Grundlage des STEINADLER-Verfahrens von Panyr[192] durchgeführt werden, indem die zu vergleichenden Benennungen, die in der Form einer ontologischen Modellierung (die in unserem Sinne durch ein Thesaurus-Dokument repräsentiert ist [vgl. Kap. 3.0.2]) übermittelt werden, indexiert und die Terme (Benennungen) mittels einer Klassierungsfunktion auf die Hierarchie eines vorhandenen semiotischen Thesaurus abgebildet werden. Dies ermöglicht nach dem Konzept der dynamischen Klassifikation Relevanzbeurteilungen hinsichtlich der übermittelten Realitätsausschnitte durch den Abgleich der Benennungen und Relationen mit dem Weltbild des informationslogistischen Agentensystems. Die Updating-Komponente des STEINADLER-Verfahrens ermöglicht eine ständige Evaluierung des Klassifikationsnetzes. Sie führt zum einen eine Korrektur des vorher entstandenen Klassifikationsergebnisses durch. Zum anderen dient sie einer dynamischen Erweiterung der einer Relevanzbeurteilung zugrunde liegenden Ordnungsstruktur.

1.4 Informationslogistik

Längst hat sich der Satz „Wissen ist Macht“ in den Unternehmen als eine politische und organisatorische Herausforderung etabliert, denn der systematische und gezielte Erwerb von Wissen und dessen intelligente Anwendung erweisen sich immer deutlicher als neue Grundlage der Produktivität.[193] Im Bereich der F&E steht in vielen Fällen nicht die Entwicklung neuer Verfahren und Produkte im Vordergrund, sondern vielmehr der systematische, intelligente Erwerb externer Daten, bspw. durch den „Einkauf“ von Experten, den Zugriff auf fremde Wissensquellen oder den Erwerb von sog. „Wissensprodukten“.[194] Wissen wird zunehmend selbst zum primären Gut[195] und befähigt ein Unternehmen dazu:[196]

- Kundenbeziehungen herzustellen, die Loyalität alter Kunden zu erhalten und neue Kunden- und Marktsegmente effektiv und effizient zufrieden stellen zu können,
- innovative Produkte und Dienstleistungen einzuführen, die von den Zielkunden erwartet werden,
- qualitativ hochwertige Produkte und Dienstleistungen zu niedrigen Preisen mit kurzer Vorlaufzeit anbieten zu können,
- die Fähigkeiten des Personals und die Motivation mobilisieren zu können, um z.B. eine kontinuierliche Verbesserung der Prozesse, der Qualität und der Reaktionszeit zu gewährleisten,
- und IuK-Systeme implementieren zu können, die z.B. in Interaktion mit Nutzern neue Potenziale eröffnen.

Zu den drei klassischen Produktionsfaktoren „Arbeit, Boden und Kapital“ kommt somit gleichbedeutend der Faktor „Wissen“ hinzu; er:[197]

- wird auch als der vierte Produktionsfaktor bezeichnet und ist nicht nur die Basis jeder geschäftlichen Aktivität, sondern auch jeder geplanten Neuentwicklung.
- ist ein Vermögenswert, der wie andere den Wert eines Unternehmens bestimmt. Folglich gibt es die Notwendigkeit, ihn zu managen und angemessen zu bewirtschaften.

Die Anforderungen an das Informationsmanagement der Gegenwart gehen bei weitem über die schlichte Koordination anfallender Daten, die im Rahmen von Unternehmensprozessen gewonnen, gehalten, transformiert oder transferiert werden, hinaus. Genauso wie es die große Aufgabe des Managements des vergangenen Jahrhunderts war, die manuelle Arbeit produktiv zu machen, ist es aus der heutigen Situation entscheidend, die Produktivität des Wissensmanagements zu steigern (die Kopfarbeit produktiv zu machen) und die Daten bereitzustellen, die nicht vorhanden sind, welche aber aktuell erforderlich sind, um im Geschäftsalltag (oder in einer Problemlösungs- bzw. Entscheidungssituation) „angemessen“ handeln und reagieren zu können.[198] Dabei beziehen sich die Fragen des Wissensmanagements nicht nur auf die Nutzbarmachung der innerbetrieblichen Kapazitäten, sondern sie sind ebenfalls auf die Nutzbarmachung des außerbetrieblich vorhandenen Potenzials ausgerichtet. Je mehr das Wissenspotenzial eines Unternehmens ausgeschöpft ist, desto stärker orientiert sich das Wissensmanagement am Beschaffungsmarkt.

Um den organisatorischen Rahmenbedingungen moderner (elektronischer) Märkte gerecht zu werden, muss ein Wissensmanagement(-regel-)system etabliert werden, das alle Unternehmensdaten (softwarebasiert) einem zentralen Informationsmanagement und -controllingsystem unterstellt und neben den Aufzeichnungen der BDE alle Aspekte der Datenhaltung protokolliert, kontrolliert und überwacht. (Das Informationscontrolling benötigt zur Wahrnehmung seiner Funktionen die IT, das Informationsmanagement kann nur in Kenntnis der Wirtschaftlichkeitsaspekte die Informationsressourcen richtig beurteilen, auswählen und einsetzen.[199] ) Entsprechend der jeweiligen Konzeption ist dieses Wissensmanagementsystem im Unternehmen oder in einem Konzernrechenzentrum angesiedelt. Als zentrales Koordinationssystem (informationslogistisches Agentensystem)

- steuert es „die Bildung und Einordnung von strategischen Unternehmensbereichen in das Gesamtorganisationskonzept“ (die Virtualisierung). Es organisiert, etabliert und optimiert den Fluss des Produktionsfaktors Wissen sowie die Geschäftsprozesse.
- Es erhebt in dieser strategisch bedeutenden Position die Rohdaten zur Unterstützung der computergestützten Revision im Gesamtunternehmen
- und es koordiniert in der Rolle eines Expertensystems, auf Basis der im Rahmen der Leistungserstellung und Controllingfunktionen anfallenden Grunddaten (Kundenstamm-, Lieferantenstamm-, Teilestamm-, Erzeugnisstruktur-, Arbeitsplatzstamm- und Arbeitsgangstrukturdaten), die innerbetrieblichen Informations(-grund-)versorgung des Personals.

Unter den Gesichtspunkten der zunehmenden Realisierung der Unternehmensfunktionen ausschließlich auf dem Boden elektronischer IuK-Systeme (dies betrifft die zunehmend wissensbasierte Gestaltung virtualisierter und virtueller Prozesse) steigt in diesem Zusammenhang der zur Erfüllung des eigentlichen Geschäftshandelns verbundene Bedarf an Wissensmanagement zur (übergeordneten) Koordination der Kontroll- und Steuerungsfunktionen. Im Vordergrund steht die Ausrichtung der Datenströme an den Geschäftsprozessen eines Unternehmens und die weitere Unterstützung der dazu notwendigen Technologietransferprozesse.

Das informationslogistische Agentensystem dient vor diesem Hintergrund zum einen der Realisierung eines Datawarehouse in Form eines Kontroll- und Steuerungsinstruments, das fortlaufend betriebliches Wissen sammelt, aktualisiert, strukturiert und für verschiedene Aufgaben möglichst situationsbezogen, dies beinhaltet eine kontextabhängige und eine -unabhängige Perspektive, gezielt und aktiv zur Verbesserung des kooperativen Arbeitens zur Verfügung stellt. Das Ziel des informationslogistischen Agentensystems besteht zum anderen darin sicherzustellen, dass alle Agenten in Problemlösungs- bzw. Entscheidungssituationen sofort über das für ihre Handlung und Aufgaben notwendige Wissen verfügen. Die Bestände organisationellen Wissens des Unternehmens werden damit zum Allgemeingut, das von den menschlichen und artifiziellen Agenten im Rahmen einer Innovation weiterentwickelt und zur Optimierung der Geschäftsprozesse genutzt wird. Das informationslogistische Agentensystem greift dazu, dieser externe Bezug ist konstitutiv, auf das Wissen anderer Agenten zurück[200] und d.h. „Wissen auf Wissen anzuwenden“.[201]

Definition 18 – Informationslogistisches Agentensystem:

Ein informationslogistisches Agentensystem ist ein integriertes Konzept der Koordination wissenbasierter und zunehmend intelligenter Datawarehouse-Technologien. Es umfasst Mechanismen und Regelkreise zur automatisierten Abstimmung der Wissenserwerbsstrategie über alle Unternehmensbereiche und -ebenen hinweg, zunehmend mittels selbsttätiger (semiotischer) Verfahren der KI.

Die inflexiblen Strukturen klassischer Datenbanksysteme ließen die Idee eines umfassenden Datawarehouse-Konzeptes entstehen. Das Datawarehouse kann als eine integrierte, beständige sowie zeit- und themenorientierte Sammlung von Daten definiert werden, die zur Unterstützung von Problemlösungs- bzw. Entscheidungsprozessen dient. Es gilt die in einem Unternehmen an unterschiedlichen Stellen anfallenden Rohdaten zusammenzufassen und in ein Unternehmensdatenmodell, im Sinne eines ganzheitlichen Datenbankmanagements zu überführen.

Definition 19 – Datawarehouse:

Ein Datawarehouse ist eine subjektorientierte, integrierte, nicht-flüchtige und sich im Zeitablauf ändernde Sammlung von Wissen zur Unterstützung von Problemlösungs- bzw. Entscheidungsprozessen.[202]

Den Kern eines Datawarehouses stellt nach Scholz, Stein und Eisenbeis[203] eine integrierte Datenbank mit potenziell handlungsrelevantem Meta-Wissen über die einzelnen Geschäftsfelder eines Unternehmens dar, die Meta-Wissen aus den operativen Datenbanken und anderen externen Wissensquellen bedarfsgerecht bereitstellt. Kröger und Gimmy[204] definieren den Begriff der „Datenbank“ wie Folgt:

Definition 20Datenbank:

Eine Datenbank ist jede Sammlung von Daten, die systematisch oder methodisch angeordnet und einzeln mit Hilfe elektronischer Mittel oder auf andere Weise zugänglich sind.

Der Begriff „Datawarehouse“ ist in dieser Arbeit von dem der „Datenbank“ als Basis zur Speicherung von Daten abgegrenzt und beinhaltet verschiedene Methoden (sog. „Criteria Extractors“), etwa aus dem Bereich der KI, um die organisationellen Wissensstände im Datawarehouse handhabbar und somit nutzbar, bzw. durchsuchbar, zu machen und es so zu ermöglichen, aus unzusammenhängenden Daten wertvolle Zusammenhänge im Sinne von handlungsrelevantem Wissen zu extrahieren und zur weiteren Optimierung der Geschäfts- sowie der mit ihnen einhergehenden Unterstützungsprozesse (Technologietransferprozesse) einzusetzen. Das Datawarehouse stellt in Anlehnung an Panyr[205] die eigentliche Wissensbasis dar.

Ein informationseffizientes Unternehmen ist dadurch charakterisiert, dass alle potenziell interessanten Rohdaten über die Geschäftsprozesse zu jedem Zeitpunkt vollständig sind und dem jeweils gegebenen Stand entsprechen, d.h., dass sich die organisationelle Wissensbasis bei jedem neuen bzw. geänderten Datum im Gesamtunternehmen ohne zeitliche Verzögerung ändert. Der Begriff „Informationseffizienz“ wird deutlich, wenn wir uns klar machen, dass der organisationelle Wissensstand eines Zeitpunktes einen Bestand an Fakten- und Erfahrungswissen darstellt und sich daraus Schlüsse ziehen lassen auf die Merkmale der zentralen Geschäftsprozesse eines Unternehmens, die den Wert des Unternehmens bestimmen. Lev[206] (ähnlich Edvinsson[207] ) versteht darunter immaterielle Vermögenswerte (sog. „Intangible Assets“), die zurückbleiben, wenn die Akteure zum Feierabend ihren Arbeitsplatz verlassen. Hierzu zählen interne Abläufe und Strukturen, in Datenbanken hinterlegte Leistungsbeschreibungen, die aus Informationsobjekten ersichtliche Qualität der Kundenbeziehungen und Ähnliches.

Das aus der Wissensbasis gewonnene Wissen, die sog. „Meta-Daten“, bildet bzw. bilden die Basis für die steuerungsrelevante Problemlösung und Entscheidungsfindung eines Unternehmens sowie die Leistungsentwicklung allgemein. Es kommt im Zusammenhang mit der Unterstützung von Technologietransferprozessen mitunter darauf an, aus den reinen Leistungsdaten einer Unternehmung Inhalte zu filtern, die etwa einen sich ständig wiederholenden Sachverhalt zum Ausdruck bringen oder eine bestimmte Perspektive der Geschäftsprozesse beschreiben, um in einem nächsten Verarbeitungsschritt vertiefende Schlussfolgerungen abzuleiten, auf deren Basis weitere geschäftsrelevante Entscheidungen getroffen werden können (Stichwort: Managementinformations- und Expertensysteme).[208] Dies geschieht zunehmend vollständig automatisiert. Die informationslogistischen Mechanismen sind somit auf die Koordination der Technologietransferprozesse ausgerichtet (Stichwort: informationelle Absicherung) und bearbeiten in diesem Zusammenhang Unterstützungsfunktionen (Stichwort: Supply Chain Management). Dabei soll das informationslogistische Agentensystem die folgenden Anforderungen erfüllen:[209]

- die Einbeziehung von Wissen aus verschiedenen Quellen,
- die Unterstützung verschiedener Formen organisationellen Wissens,
- die Verwaltung von Wissen,
- die Klassifizierung von Wissen,
- die Unterstützung verschiedener Repräsentationsformen desselben Inhalts,
- die Einbeziehung des Kontextes,
- die Unterstützung der Aquisitation und der Ablage von Wissen,
- die aktive Verteilung von Wissen,
- die Unterstützung der Nutzung des Wissens durch die Bereitstellung geeigneter Suchmechanismen
- und die Ständige Aktualisierung des Bestandes organisationellen Wissens.

Die zur Koordination dieser Perspektiven einzuführenden Kontroll- und Steuerungsmechanismen zielen insbesondere auf die Verknüpfung datenbankgestützter und KI-basierter Verfahren der Datenverarbeitung mit der zur Evaluierung der Geschäftsprozesse notwendigen IT. Das Gesamtvorgehen zielt auf die, durch den verstärkten Einsatz von IuK-Systemen im Rahmen von Geschäftsprozessen, zunehmende Abhängigkeit der Unternehmen vom Einsatz dieser Technologien und die damit verbundene Notwendigkeit zur weiteren Unterstützung der technologiebasierten Koordinationsfunktionen. Dies gilt besonders für Unternehmen auf Märkten, die durch niedrige Markteintrittsbarrieren geprägt sind und dieses zu ständigen Rationalisierungsmaßnahmen (durch und mit dem Einsatz der IT zur Steuerung und Evaluierung der Geschäftsprozesse) zwingen.

Ein Bedarf an informationeller Unterstützung entsteht in einem betrieblichen Umfeld in der Regel aufgrund einer Problemlösungs- bzw. Entscheidungssituation, einer Wissenslücke bzw. eines Defizits an handlungsrelevantem Wissen. Im Idealfall sind die Nachfrage nach Wissen (objektiver und subjektiver Bedarf an Wissen der Agenten) und das Angebot an handlungsrelevantem Wissen deckungsgleich. Häufig entsteht jedoch ein Defizit an handlungsrelevantem Wissen bzw. treten Differenzen zwischen objektiv notwendigem und vom Agenten subjektiv für notwendig erachtetem Wissen auf.[210] Diese Differenzen lassen sich dadurch erklären, dass übermitteltes Wissen generell erst nach einer eingehenden Prüfung Bestandteil des sog. „Planungs- bzw. Entscheidungswissens“ (des kognitiven Modells) wird. Eine empfangene Mitteilung wird im Moment der Entscheidung nur berücksichtigt, wenn sie mit dem bisherigen Wissen des Entscheidungsträgers logisch verträglich und der Inhalt plausibel ist. Besteht hingegen vollkommene Ungewissheit, trägt zum Empfänger transferiertes Wissen zur groben Orientierung bei und hat Veränderungscharakter, da es unmittelbar den Wissensstand beeinflusst. Bedingung für eine sog. „handlungsstiftende Wirkung“ einer Mitteilung ist nach Picot, Reichwald und Wigand[211] jedoch, dass das darin enthaltene Wissen weder ein Zuviel an Erstmaligkeit von Erfahrungsbeständen noch ein zu hohes Maß an Bestätigung bereits gemachter Erfahrungen vermittelt. Reine Erstmaligkeit und reine Bestätigung bilden nach Picot, Reichwald und Wigand (s. o.) die Endpunkte auf ein Kontinuum, innerhalb dessen sich die pragmatische Wirkung von übermitteltem Wissen äußert. Eine vollständige Erstmaligkeit von übermitteltem Wissen besitzt in ihrem Modell keine pragmatische Handlungswirkung. Dem Empfänger gelingt es unter Umständen nicht, eine entsprechende Mitteilung aufgrund seiner eigenen Erfahrungen in einen kontextuellen Bezugsrahmen einzuordnen. Eine ähnliche Ansicht vertritt auch Toman.[212] (Vertiefend behandelt diese Zusammenhänge Hammwöhner,[213] der in Anlehnung an de Beaugrande und Dressler[214] den Begriff der „Informativität“ als das Maß dafür, inwieweit eine Mitteilung für einen Empfänger neu oder auch nur unerwartet ist, diskutiert.) Die Einschätzung der Handlungsrelevanz einer Mitteilung für den bspw. aufgabenbezogenen Wissensstand in einer Problemlösungs- bzw. Entscheidungssituation ist somit vom Informationsnutzer und dessen Kontext abhängig. Somit gibt es ein sachlogisches (wirtschaftliches) und ein auf die individuelle Verarbeitungskapazität des Entscheidungsträgers bezogenes Informationsoptimum. Folglich ist es denkbar, dass bei einem Entscheidungsträger ein subjektives Gefühl „unvollkommener Information“ und ein Bedürfnis nach zusätzlichem Wissen entsteht, obwohl das benötigte Wissen objektiv bereits vermittelt ist.

[...]


[1] Vgl. Porter, M.E. - Der Wettbewerb auf globalen Märkten: Ein Rahmenkonzept in: Porter, M.E. - Globaler Wettbewerb: Strategien der neuen Internationalisierung - Gabler Verlag Wiesbaden 1989 S.22ff

[2] Vgl. Lev, B. - Intangibles: Management, Measurement, and Reporting - Brookings Institution Press 2001 S.5

[3] Vgl. Schwarz, I.; Umstätter, W. - Die vernachlässigten Aspekte des Thesaurus: dokumentarische, pragmatische, semantische und syntaktische Einblicke - NfD 4/1999 S.201ff und Institut für Bibliothekswissenschaft an der Humboldt Universität zu Berlin: http://www.ib.hu-berlin.de/~wumsta/infopub/pub1996f/thesaurus_Semiotik.pdf S.7ff (Acrobat Reader)

[4] Morris, C.W. - Writings on the General Theory of Signs - De Gruyter Verlag Berlin NewYork 1972

[5] Panyr, J. - Thesaurus und wissensbasierte Systeme; Thesauri und Wissensbasen - NfD 39/1988 S.212

[6] Vgl. Umstätter, W. auf der Tagung der International Society for Knowledge Organization in Hamburg (ISKO) 1999 - Wissensorganisation mit Hilfe des semiotischen Thesaurus; auf der Basis von SGML bzw. XML 1999 - Institut für Bibliothekswissenschaft an der Humboldt Universität zu Berlin: http://www.ib.hu-berlin.de/~wumsta/pub113.pdf S.7f (Acrobat Reader)

[7] Vgl. Graumann, S.; Köhne, B.; Kahre, S. für NFO Infratest in Auftrag des BMWI - Monitoring Informationswirtschaft: 6. Faktenbericht 2003 - http://193.202.26.196/bmwi/Faktenbericht_6/pdf/Faktenbericht_Vollversion.pdf S.310 und S.333 (Acrobat Reader)

[8] Vgl. Scholz, C.; Stein, V.; Eisenbeis, U. - Die TIME-Branche: Konzepte, Entwicklungen, Standorte - Hampp Verlag 2001 S.26

[9] Vgl. Scholz, C; Stein, V.; Eisenbeis, U. - Die TIME-Branche: Konzepte, Entwicklungen, Standorte - Hampp Verlag 2001 S.18

[10] Vgl. Porter, M.E. - Der Wettbewerb auf globalen Märkten: Ein Rahmenkonzept in: Porter, M.E. - Globaler Wettbewerb: Strategien der neuen Internationalisierung - Gabler Verlag Wiesbaden 1989 S.22ff

[11] Vgl. Porter, M.E. - Der Wettbewerb auf globalen Märkten: Ein Rahmenkonzept in: Porter, M.E. - Globaler Wettbewerb: Strategien der neuen Internationalisierung - Gabler Verlag Wiesbaden 1989 S.23

[12] Vgl. Kaplan, R.S.; Norton, D.P. - Balanced Sorecard - Schäffer-Poeschel Verlag Stuttgart 1997 S.26

[13] Vgl. Drucker, P.F. - Die Kunst des Managements - Econ Verlag Düsseldorf Wien NewYork 2000 S.146

[14] Vgl. Crook, C.; Neu, C.R. für The RAND Corporation - Services; Technological Trends: Proceedings of an International Conference, Information Technology and the Character of Business 2000 - http://www.rand.org/publications/CF/CF157/CF157.chap5.pdf S.1 (Acrobat Reader)

[15] Vgl. Porter, M.E. - Wettbewerbsstrategie: Methoden zur Analyse von Branchen und Konkurrenten - Campus Verlag Frankfurt NewYork 1999 S. 239

[16] Porter, M.E. - Wettbewerbsstrategie: Methoden zur Analyse von Branchen und Konkurrenten - Campus Verlag Frankfurt NewYork 1999 S. 234f

[17] Vgl. Scheer, A.-W. - CIM: Der computergesteuerte Industriebetrieb - Springer Verlag Berlin Heidelberg NewYork 1990 S.27

[18] Vgl. Glaser, H.; Geiger, W.; Rohde, V. - PPS, Produktionsplanung und -steuerung: Grundlagen, Konzepte, Anwendungen - Gabler Verlag Wiesbaden 1992 S.4

[19] Vgl. Kunz, W.; Rittel, H. - Die Informationswissenschaften - Ihre Ansätze, Probleme, Methoden und ihr Ausbau in der Bundesrepublik Deutschland - Oldenbourg Verlag München Wien 1972 S.48 und Saarländische Universitäts- und Landesbibliothek: http://sova.sulb.uni-saarland.de/sova/volltexte/2000/31/pdf/kunz_rittel.pdf S.34 (Acrobat Reader)

[20] Vgl. Jandach, T. - Juristische Expertensysteme: Methodische Grundlagen ihrer Entwicklung - Springer Verlag Berlin Heidelberg NewYork 1993 S.9

[21] Vgl. Krüger, F. - Nicht-lineares Information Retrieval in der juristischen Informationssuche - Elwert Verlag Marburg 1997 S.18

[22] Vgl. Richter, M.M. - Prinzipien der künstlichen Intelligenz: Wissensrepräsentation, Inferenz und Expertensysteme - Teubner Verlag Stuttgart Leipzig 1992 S.366

[23] Vgl. Luhmann, N. - Soziale Systeme: Grundriss einer allgemeinen Theorie - Suhrkamp Verlag Frankfurt 1987 S.47ff

[24] Vgl. Panyr, J. - Automatische Klassifikation und Information Retrieval: Anwendung und Entwicklung komplexer Verfahren in Information-Retrieval-Systemen und ihre Evaluierung - Niemeyer Verlag Tübingen 1986 S.12ff

[25] Walker, D.E. - The Organization and Use of Information: Contributions of Information Science, Computational Linguistics and Artificial Intelligence - Journal of the ASIS 5/1981 S.347ff

[26] Vgl. Richter, M.M. - Prinzipien der Künstlichen Intelligenz: Wissensrepräsentation, Inferenz und Expertensysteme - Teubner Verlag Stuttgart 1992 S.5ff

[27] Vgl. Panyr, J. - Wissen und ein Ansatz zu seiner Taxonomie im Bereich der Künstlichen Intelligenz in: Degens, P.O.; Hermes, H.-J.; Opitz, O. - Die Klassifikation und ihr Umfeld; Studien zur Klassifikation (Bd. 17) Proceedings der 10. Jahrestagung der Gesellschaft für Klassifikation e.V. 1986 - Indeks Verlag Frankfurt 1986 S.25

[28] Vgl. Axelrod, R. - Die Evolution der Kooperation - Oldenbourg Verlag München Wien 2000 S.12

[29] Beaugrande, R.-A. de; Dressler, W.U. - Einführung in die Textlinguistik - Niemeyer Verlag Tübingen 1981 S.3ff und S.32ff

[30] Linke, A.; Nussbaumer, M.; Portmann, P.R. - Studienbuch Linguistik - Niemeyer Verlag Tübingen 2001 S.224ff und S.231ff

[31] Vgl. Bibel, W.; Hölldobler, S.; Schaub, T. - Wissensrepräsentation und Inferenz: Eine grundlegende Einführung - Vieweg Verlag Braunschweig Wiesbaden 1993 S.13ff

[32] Haugeland, J. - Mind Design: Philosophy, Psychology, and Artificial Intelligence - MIT Press Cambridge 1981

[33] Vgl. Newell, A. - The knowledge level - Artificial Intelligence 18/1982 S.87ff

[34] Vgl. Richter, M.M. - Prinzipien der Künstlichen Intelligenz: Wissensrepräsentation, Inferenz und Expertensysteme - Teubner Verlag Stuttgart 1992 S.8

[35] Vgl. Alkassar, A.; Garschhammer, M.; Gehring, F. et al. - Kommunikations- und Informationstechnik 2010+3: Neue Trends und Entwicklungen in Technologien, Anwendungen und Sicherheit - SecuMedia Verlag Ingelheim 2003 S.217ff und S.222ff

[36] Panyr, J. - Automatische Klassifikation und Information Retrieval: Anwendung und Entwicklung komplexer Verfahren in Information-Retrieval-Systemen und ihre Evaluierung - Niemeyer Verlag Tübingen 1986

[37] Vgl. Kuhlen, R. - Die Konsequenzen von Informationsassistenten - Suhrkamp Verlag Frankfurt 1999 S.418

[38] Vgl. Teichmann, R.; Lehner, F. - Mobile Commerce: Strategien, Geschäftsmodelle, Fallstudien - Springer Verlag Berlin Heidelberg NewYork 2002 S.104

[39] Vgl. Hirschmann, P. - Kooperative Gestaltung unternehmensübergreifender Geschäftsprozesse - Gabler Verlag Wiesbaden 1998 S.186

[40] Vgl. Kuhlen, R. - Hypertext: Ein nicht-lineares Medium zwischen Buch und Wissensbank - Springer Verlag Berlin Heidelberg NewYork 1991 S.63

[41] Vgl. Kuhlen, R. - Information in: Kuhlen, R.; Seeger, T.; Strauch, D. - Grundlagen der praktischen Information und Dokumentation (Bd. 1) Handbuch zur Einführung in die Informationswissenschaft und Praxis - Saur Verlag München 2004 S.15

[42] Vgl. Kuhlen, R. - Informationsmarkt: Chancen und Risiken der Kommerzialisierung von Wissen - UVK Konstanz 1995 S.42

[43] Vgl. Bell, D. - Die nachindustrielle Gesellschaft - Campus Verlag Frankfurt NewYork 1996 S.179f

[44] Vgl. Kuhlen, R. - Informationsmarkt: Chancen und Risiken der Kommerzialisierung von Wissen - UVK Konstanz 1995 S.38

[45] Vgl. Panyr, J. - Automatische Klassifikation und Information Retrieval: Anwendung und Entwicklung komplexer Verfahren in Information-Retrieval-Systemen und ihre Evaluierung - Niemeyer Verlag Tübingen 1986 S.12

[46] Vgl. Zimmermann, H.H. - Information in der Sprachwissenschaft in: Kuhlen, R.; Seeger, T.; Strauch, D. - Grundlagen der praktischen Information und Dokumentation (Bd. 1) Handbuch zur Einführung in die Informationswissenschaft und Praxis - Saur Verlag München 2004 S.706

[47] Vgl. Panyr, J. - Wissen und ein Ansatz zu seiner Taxonomie im Bereich der Künstlichen Intelligenz in: Degens, P.O.; Hermes, H.-J.; Opitz, O. - Die Klassifikation und ihr Umfeld; Studien zur Klassifikation (Bd. 17) Proceedings der 10. Jahrestagung der Gesellschaft für Klassifikation e.V. 1986 - Indeks Verlag Frankfurt 1986 S.15ff

[48] Bloom, B.S.; Engelhart, M.D.; Furst, E.J. et al. - Taxonomie von Lernzielen im kognitiven Bereich - Beltz Verlag Weinheim Basel 1973 (Originalausgabe 1956)

[49] Bloom, B.S.; Engelhart, M.D.; Furst, E.J. et al. - Taxonomie von Lernzielen im kognitiven Bereich - Beltz Verlag Weinheim Basel 1973 S.72ff

[50] Bloom, B.S.; Engelhart, M.D.; Furst, E.J. et al. - Taxonomie von Lernzielen im kognitiven Bereich - Beltz Verlag Weinheim Basel 1973 S.220ff

[51] Vgl. Manecke, H.-J.; Seeger, T. - Zur Entwicklung der Information und Dokumentation in Deutschland in: Buder, M.; Rehfeld, W.; Seeger, T.; Strauch, D. - Grundlagen der praktischen Information und Dokumentation - Saur Verlag München 1997 S.21

[52] Vgl. Wersig, G. - Thesaurus-Leitfaden: Eine Einführung in das Thesaurus-Prinzip in Theorie und Praxis - Saur Verlag München 1985 S.13

[53] Vgl. Harms, I. für die Fachschaft Information Engineering des Lehrstuhls Informatik und Informationswissenschaft der Universität Konstanz - Informationsaufbereitung: Hypertext 2001 - http://www.inf.uni-konstanz.de/fachschaft/download/bac2/ia-skript9.pdf S.5f (Acrobat Reader)

[54] Vgl. Tochtermann, K. - Ein Modell für Hypermedia: Beschreibung und integrierte Formalisierung wesentlicher Hypermediakonzepte - Shaker Verlag Aachen 1995 S.10ff

[55] Vgl. Hassenstein, B. - Biologische Kybernetik: Eine elementare Einführung - Quelle & Meyer Verlag Heidelberg 1973 S.56ff

[56] Vgl. Luhmann, N. - Die Realität der Massenmedien - Westdeutscher Verlag Opladen Wiesbaden 1997 S.53

[57] Vgl. Watzlawick, P.; Beavin, J.H.; Jackson, D.D. - Menschliche Kommunikation: Formen, Störungen, Paradoxien - Huber Verlag Bern Göttingen 1996 S.53f

[58] Vgl. Manning, C.D.; Schütze, H. - Foundations of Statistical Natural Language Pocessing - MIT Press Cambridge 1999 S.60ff

[59] Vgl. Riedl, R. - Kultur: Spätzündung der Evolution? Antworten auf Fragen an die Evolutions- und Erkenntnistheorie - Piper Verlag München Zürich 1987 S.179ff

[60] Vgl. Hassenstein, B. - Biologische Kybernetik: Eine elementare Einführung - Quelle & Meyer Verlag Heidelberg 1973 S.98

[61] Vgl. Wiener, N. - Kybernetik: Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine - Econ Verlag Düsseldorf Wien NewYork 1992 S.38 und S.111

[62] Vgl. Kunz, W.; Rittel, H. - Die Informationswissenschaften - Ihre Ansätze, Probleme, Methoden und ihr Ausbau in der Bundesrepublik Deutschland - Oldenbourg Verlag München Wien 1972 S.30 und Saarländische Universitäts- und Landesbibliothek: http://sova.sulb.uni-saarland.de/sova/volltexte/2000/31/pdf/kunz_rittel.pdf S.21 (Acrobat Reader)

[63] Vgl. Hantschk, A.; Jung, M. - Rahmenbedingungen der Lebensentfaltung: Die Ergontheorie des Hans Hass und ihre Stellung in den Wissenschaften - Verlag Natur und Wissenschaft Solingen 1996 S.125 und Hans-Hass-Institut: http://www.hans-hass.de/Rahmenbedingungen/123_129_Energie_und_Information.html

[64] Vgl. Wiener, N. - Kybernetik: Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine - Econ Verlag Düsseldorf Wien NewYork 1992 (Originalausgabe 1948) S.104ff

[65] Vgl. Weizsäcker, E.U. v. - Erstmaligkeit und Bestätigung als Komponenten der pragmatischen Information in: Weizsäcker, E.U. v. - Offene Systeme (I) Beiträge zur Zeitstruktur, Entropie und Evolution - Klett-Cotta Verlag Stuttgart 1986 S.107

[66] Vgl. Shannon, C.E. für The Bell System Technical Journal - A Mathematical Theory of Communication 1948 - http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf S.11 (Acrobat Reader)

[67] Vgl. Ebeling, W.; Freund, J.; Schweitzer, F. - Komplexe Strukturen: Entropie und Information - Teubner Verlag Stuttgart Leipzig 1998 S.80ff

[68] Vgl. Wiener, N. - Kybernetik: Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine - Econ Verlag Düsseldorf Wien NewYork 1992 (Originalausgabe 1948) S.192

[69] Morris, C.W. - Writings on the General Theory of Signs - De Gruyter Verlag Berlin NewYork 1972

[70] Linke, A.; Nussbaumer, M.; Portmann, P.R. - Studienbuch Linguistik - Niemeyer Verlag Tübingen 2001 S.13ff, S.131ff und S.169ff

[71] Linke, A.; Nussbaumer, M.; Portmann, P.R. - Studienbuch Linguistik - Niemeyer Verlag Tübingen 2001 S.171

[72] Vgl. Shannon, C.E. für The Bell System Technical Journal - A Mathematical Theory of Communication 1948 - http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf S.1 (Acrobat Reader)

[73] Vgl. Mag, W. - Entscheidung und Information - Vahlen München 1977 S.5

[74] Vgl. Gutenberg, E. - Grundlagen der Betriebswirtschaftslehre: Erster Band; Die Produktion - Springer Verlag Berlin Heidelberg NewYok 1983 S.268

[75] Vgl. Kuhlen, R. - Informationsmarkt: Chancen und Risiken der Kommerzialisierung von Wissen - UVK Konstanz 1995 S.34 und S.85

[76] Vgl. Wersig, G. - Informationssoziologie - Droemer Knaur Verlag München 1982 S.35ff

[77] Vgl. Gitt, W. - Information: Die dritte Grundgröße neben Materie und Energie - Siemens-Zeitschrift 4/1989 S.4

[78] Vgl. Weizsäcker, C.F. v. - Die Einheit der Natur - Deutscher Taschenbuchverlag München 1982 S.348 und S.351

[79] Vgl. Hildebrand, K. - Informationsmanagement: Wettbewerbsorientierte Informationsverarbeitung - Oldenbourg Verlag München Wien 1995 S.6ff

[80] Vgl. Krüger, F. - Nicht-lineares Information Retrieval in der juristischen Informationssuche - Elwert Verlag Marburg 1997 S.6

[81] Vgl. Panyr, J. - Automatische Klassifikation und Information Retrieval: Anwendung und Entwicklung komplexer Verfahren in Information-Retrieval-Systemen und ihre Evaluierung - Niemeyer Verlag Tübingen 1986 S.12f

[82] Vgl. Zimmermann, H.H. - Information in der Sprachwissenschaft in: Kuhlen, R.; Seeger, T.; Strauch, D. - Grundlagen der praktischen Information und Dokumentation (Bd. 1) Handbuch zur Einführung in die Informationswissenschaft und Praxis - Saur Verlag München 2004 S.706

[83] Vgl. Kunz, W.; Rittel, H. - Die Informationswissenschaften - Ihre Ansätze, Probleme, Methoden und ihr Ausbau in der Bundesrepublik Deutschland - Oldenbourg Verlag München Wien 1972 S.34f und Saarländische Universitäts- und Landesbibliothek: http://sova.sulb.uni-saarland.de/sova/volltexte/2000/31/pdf/kunz_rittel.pdf S.23f (Acrobat Reader)

[84] Vgl. Hauke, P. - Datenverarbeitungsprozesse und Informationsbewertung - GBI Verlag München 1984 S.188

[85] Vgl. Juris im Auftrag des Bundesministeriums der Justiz - Telekommunikationsgesetz - http://bundesrecht.juris.de/bundesrecht/tkg/gesamt.pdf S.6 (Acrobat Reader)

[86] Vgl. Manecke, H.-J.; Seeger, T. - Zur Entwicklung der Information und Dokumentation in Deutschland in: Buder, M.; Rehfeld, W.; Seeger, T.; Strauch, D. - Grundlagen der praktischen Information und Dokumentation - Saur Verlag München 1997 S.16

[87] Vgl. Manecke, H.-J.; Seeger, T. - Zur Entwicklung der Information und Dokumentation in Deutschland in: Buder, M.; Rehfeld, W.; Seeger, T.; Strauch, D. - Grundlagen der praktischen Information und Dokumentation - Saur Verlag München 1997 S.16

[88] Vgl. Manecke, H.-J.; Seeger, T. - Zur Entwicklung der Information und Dokumentation in Deutschland in: Buder, M.; Rehfeld, W.; Seeger, T.; Strauch, D. - Grundlagen der praktischen Information und Dokumentation - Saur Verlag München 1997 S.16ff

[89] Linke, A.; Nussbaumer, M.; Portmann, P.R. - Studienbuch Linguistik - Niemeyer Verlag Tübingen 2001 S.165ff

[90] Vgl. Panyr, J. - Thesaurus und wissensbasierte Systeme; Thesauri und Wissensbasen - NfD 39/1988 S.209

[91] Vgl. Umstätter, W. auf der Tagung der International Society for Knowledge Organization in Hamburg (ISKO) 1999 - Wissensorganisation mit Hilfe des semiotischen Thesaurus; auf der Basis von SGML bzw. XML 1999 - Institut für Bibliothekswissenschaft an der Humboldt Universität zu Berlin: http://www.ib.hu-berlin.de/~wumsta/pub113.pdf S.7f (Acrobat Reader)

[92] Vgl. Wersig, G. - Thesaurus-Leitfaden: Eine Einführung in das Thesaurus-Prinzip in Theorie und Praxis - Saur Verlag München 1985 S.13

[93] Vgl. Hauke, P. - Datenverarbeitungsprozesse und Informationsbewertung - GBI Verlag München 1984 S.54

[94] Vgl. Wersig, G.; Meyer-Uhlenried, K.-H. - Versuche zur Terminologie in der Dokumentation II: Kommunikation und Information - NfD 1/1969 S.202

[95] Vgl. Scheer, A.-W. - Wirtschaftsinformatik: Referenzmodelle für industrielle Geschäftsprozesse - Springer Verlag Berlin Heidelberg NewYork 1998 S.92

[96] Vgl. Pernul, G.; Herrmann, G.; Röhm, A.W. - Vertrauensbildung für Electronic Commerce: Technische Infrastrukturen, Anwendungsszenarienund Modellbildung in: Boos, M.; Goldschmidt, N. - WissensWert!? Ökonomische Perspektiven der Wissensgesellschaft - Nomos Verlag Baden-Baden 2000 S.232f

[97] Vgl. Scheer, A.-W. - ARIS: Vom Geschäftsprozess zum Anwendungssystem - Springer Verlag Berlin Heidelberg NewYork 1998 S.3

[98] Vgl. Hammer, M.; Champy, J. - Reengineering the Corporation: A Manifesto for Business Revolution - HarperCollins Publishers NewYork 1993 S.50ff

[99] Vgl. Scheer, A.-W. - ARIS: Vom Geschäftsprozess zum Anwendungssystem - Springer Verlag Berlin Heidelberg NewYork 1998 S.3

[100] Vgl. Scheer, A.-W. - Wirtschaftsinformatik: Referenzmodelle für industrielle Geschäftsprozesse - Springer Verlag Berlin Heidelberg NewYork 1998 S.91

[101] Vgl. Scheer, A.-W. - Wirtschaftsinformatik: Referenzmodelle für industrielle Geschäftsprozesse - Springer Verlag Berlin Heidelberg NewYork 1998 S.674f

[102] Vgl. Scheer, A.-W. - ARIS: Vom Geschäftsprozess zum Anwendungssystem - Springer Verlag Berlin Heidelberg NewYork 1998 S.26

[103] Vgl. Kuhlen, R. - Informationsmarkt: Chancen und Risiken der Kommerzialisierung von Wissen - UVK Konstanz 1995 S.338 und S.340

[104] Vgl. Schmidt, R. - Informationsvermittlung in: Kuhlen, R.; Seeger, T.; Strauch, D. - Grundlagen der praktischen Information und Dokumentation (Bd. 1) Handbuch zur Einführung in die Informationswissenschaft und Praxis - Saur Verlag München 2004 S.429

[105] Vgl. Kuhlen, R. - Informationsmarkt: Chancen und Risiken der Kommerzialisierung von Wissen - UVK Konstanz 1995 S.340

[106] Vgl. Hauke, P. - Datenverarbeitungsprozesse und Informationsbewertung - GBI Verlag München 1984 S.6f

[107] Vgl. Wild, J. - Zur Problematik der Nutzenbewertung von Informationen - ZfB 41/1971 S.315ff

[108] Vgl. Hauke, P. - Datenverarbeitungsprozesse und Informationsbewertung - GBI Verlag München 1984 S.52ff

[109] Vgl. Luhmann, N. - Organisation und Entscheidung - Westdeutscher Verlag Opladen Wiesbaden 2000 S.133ff

[110] Vgl. Jungermann, H.; Pfister, H.-R.; Fischer, K. - Die Psychologie der Entscheidung - Spektrum Verlag Berlin Heidelberg 1998 S.4f

[111] Vgl. Laux, H. - Entscheidungstheorie - Springer Verlag Berlin Heidelberg NewYork 1998 S.1 und S.8

[112] Vgl. Kuhlen, R. - Informationsmarkt: Chancen und Risiken der Kommerzialisierung von Wissen - UVK Konstanz 1995 S.89

[113] Vgl. Hauke, P. - Datenverarbeitungsprozesse und Informationsbewertung - GBI Verlag München 1984 S.149

[114] Vgl. Luhmann, N. - Organisation und Entscheidung - Westdeutscher Verlag Opladen Wiesbaden 2000 S.141

[115] Vgl. Svenson, O. - Some propositions for the classification of decision situations in: Borcherding, K.; Larichev, O.I.; Messick, D.M. - Contemporary Issues of Decision Making - North-Holland Publishing Company Amsterdam 1990 S.17ff

[116] Vgl. Frey, D.; Gaska, A. - Die Theorie der kognitiven Dissonanz in: Frey, D.; Irle, M. - Theorien der Sozialpsychologie (Bd. I) Kognitive Theorien - Huber Verlag Bern Göttingen 1993 S.275ff

[117] Vgl. Jungermann, H.; Pfister, H.-R.; Fischer, K. - Die Psychologie der Entscheidung - Spektrum Verlag Berlin Heidelberg 1998 S.29ff

[118] Vgl. Grossmann W. D. - Entwicklungsstrategien in der Informationsgesellschaft: Mensch, Wirtschaft und Umwelt - Springer Verlag Berlin Heidelberg NewYork 2001 S.328

[119] Vgl. Hauke, P. - Datenverarbeitungsprozesse und Informationsbewertung - GBI Verlag München 1984 S.195ff

[120] Vgl. Hauke, P. - Datenverarbeitungsprozesse und Informationsbewertung - GBI Verlag München 1984 S.197

[121] Vgl. Hauke, P. - Datenverarbeitungsprozesse und Informationsbewertung - GBI Verlag München 1984 S.56ff

[122] Vgl. Scheer, A.-W. - ARIS: Vom Geschäftsprozess zum Anwendungssystem - Springer Verlag Berlin Heidelberg NewYork 1998 S.23

[123] Vgl. Scheer, A.-W. - ARIS: Vom Geschäftsprozess zum Anwendungssystem - Springer Verlag Berlin Heidelberg NewYork 1998 S.23

[124] Vgl. Kuhlen, R. - Die Mondlandung des Internet: Die Bundestagswahl 1998 in den elektronischen Kommunikationsforen - UVK Konstanz 1998 S. 39f

[125] Vgl. Drucker, P.F. - Die Zukunft Managen - Econ Verlag Düsseldorf Wien NewYork 1992 S.223ff

[126] Vgl. Cole, T. - Erfolgsfaktor Internet: Warum kein Unternehmen ohne Vernetzung überleben wird - Econ Verlag Düsseldorf Wien NewYork 2000 S.59

[127] Vgl. Reichenwald, R.; Möslein, K.; Sachenbacher, H. et al. - Telekooperation: Verteilte Arbeits- und Organisationsformen - Springer Verlag Berlin Heidelberg NewYork 2000 S.5

[128] Vgl. Kohlöffel, K. M. - Strategisches Management: Alle Chancen nutzen, Neue Geschäfte erschließen - Hanser Verlag München Wien 2000 S.81ff

[129] Vgl. Lohmüller, B.; Pfeiffer, R.; Goffin, K. - Entwicklung neuer Produkte; zu komplex im virtuellen Unternehmen? in: Scholz, C. - Systemdenken und Virtualisierung: Unternehmensstrategien zur Virtualisierung auf der Grundlage von Systemtheorie und Kybernetik - Duncker & Humblot Verlag Berlin 2002 S.194

[130] Vgl. Woolley, B. - Die Wirklichkeit von virtuellen Welten - Birkhäuser Basel Boston Berlin 1994 S.70

[131] Vgl. Scholz, C. - Strategische Organisation: Multiperspektivität und Virtualität - Verlag Moderne Industrie Landsberg/Lech 2000 S.328

[132] Vgl. Knaur - Das deutsche Wörterbuch - Lexikographisches Institut München 1985 S.1043

[133] Vgl. Grossmann W. D. - Entwicklungsstrategien in der Informationsgesellschaft: Mensch, Wirtschaft und Umwelt - Springer Verlag Berlin Heidelberg NewYork 2001 S.196

[134] Vgl. Schweibenz, W. für „museums and the internet“ (mai) - Das virtuelle Museum: Überlegungen zum Begriff und Wesens des Museums im Internet 2001 - http://www.mai-tagung.de/FachDez/Kultur/Unsichtbar/Maitagung/Maitagung+2001/schweibenz.pdf S.7 (Acrobat Reader)

[135] Vgl. Beck, K.; Glotz, P.; Vogelsang, G. - Die Zukunft des Internet: Internationale Delphi-Befragung zur Entwicklung der Online-Kommunikation - UVK Konstanz 2000 S.108

[136] Vgl. Steinbicker, J. - Zur Theorie der Informationsgesellschaft - Leske + Budrich Opladen 2001 S.98

[137] Vgl. Kuhlen, R. - Die Konsequenzen von Informationsassistenten - Suhrkamp Verlag Frankfurt 1999 S.276ff

[138] Vgl. Woolley, B. - Die Wirklichkeit von virtuellen Welten - Birkhäuser Basel Boston Berlin 1994 S.69f

[139] Vgl. Hawking, S.W. - Das Universum in der Nussschale - Hoffmann und Campe Hamburg 2001 S.126

[140] Vgl. Hawking, S.W. - Eine kurze Geschichte der Zeit - Rowohlt Verlag Hamburg 2001 S.90

[141] Vgl. Kuhlen, R. - Informationsmarkt: Chancen und Risiken der Kommerzialisierung von Wissen - UVK Konstanz 1995 S.122

[142] Vgl. Kuhlen, R. - Informationsmarkt: Chancen und Risiken der Kommerzialisierung von Wissen - UVK Konstanz 1995 S.138

[143] Vgl. Reichenwald, R.; Möslein, K.; Sachenbacher, H. et al. - Telekooperation: Verteilte Arbeits- und Organisationsformen - Springer Verlag Berlin Heidelberg NewYork 2000 S.170

[144] Vgl. Steinbicker, J. - Zur Theorie der Informationsgesellschaft - Leske + Budrich Opladen 2001 S.89

[145] Vgl. Kuhlen, R. - Die Mondlandung des Internet: Die Bundestagswahl 1998 in den elektronischen Kommunikationsforen - UVK Konstanz 1998 S.335

[146] Vgl. Reichenwald, R.; Möslein, K.; Sachenbacher, H. et al. - Telekooperation: Verteilte Arbeits- und Organisationsformen - Springer Verlag Berlin Heidelberg NewYork 2000 S.254

[147] Vgl. Davidow, W.H.; Malone, M.S. - The Virtual Corporation: Structuring and Revitalizing the Corporation for the 21th Century - HarperCollins Publishers NewYork 1992 S.4f

[148] Vgl. Davidow, W.H.; Malone, M.S. - The Virtual Corporation: Structuring and Revitalizing the Corporation for the 21th Century - HarperCollins Publishers NewYork 1992 S.107ff

[149] Mowshowitz, A.; Turoff, M. - Virtual Organization: Toward a Theory of Sociental Transformation Stimulated by Information Technology - Greenwood Publishing Westport 2002

[150] Vgl. Sandhoff, G. - Die virtuelle Organisation; ein neues Organisationskonzept? in: Scholz, C. - Systemdenken und Virtualisierung: Unternehmensstrategien zur Virtualisierung auf der Grundlage von Systemtheorie und Kybernetik - Duncker & Humblot Verlag Berlin 2002 S.250

[151] Vgl. Reichenwald, R.; Möslein, K.; Sachenbacher, H. et al. - Telekooperation: Verteilte Arbeits- und Organisationsformen - Springer Verlag Berlin Heidelberg NewYork 2000 S.263

[152] Vgl. Pfeiffer, R.; Goffin, K. - Innovationsmanagement und Virtualisierung; Ergebnisse aus einem deutsch-britischen Projekt in: Scholz, C. - Systemdenken und Virtualisierung: Unternehmensstrategien zur Virtualisierung auf der Grundlage von Systemtheorie und Kybernetik - Duncker & Humblot Verlag Berlin 2002 S.184

[153] Vgl. Scholz, C. - Strategische Organisation: Multiperspektivität und Virtualität - Verlag Moderne Industrie Landsberg/Lech 2000 S.332

[154] Vgl. Heidegger, M. - Sein und Zeit - Niemeyer Verlag Tübingen 2001 S.437

[155] Vgl. Scholz, C. - Strategische Organisation: Multiperspektivität und Virtualität - Verlag Moderne Industrie Landsberg/Lech 2000 S.330

[156] Vgl. Scholz, C; Stein, V.; Eisenbeis, U. - Die TIME-Branche: Konzepte, Entwicklungen, Standorte - Hampp Verlag 2001 S.18

[157] Ettighoffer, D. - L'Entreprise Virtuelle ou les nouveaux modes de travail - Editions Odile Jacob Paris 1992

[158] Vgl. Reichenwald, R.; Möslein, K.; Sachenbacher, H. et al. - Telekooperation: Verteilte Arbeits- und Organisationsformen - Springer Verlag Berlin Heidelberg NewYork 2000 S.252ff

[159] Lockemann, P.C.; Mayr, H.C. - Rechnergestützte Informationssysteme - Springer Verlag Berlin Heidelberg NewYork 1978

[160] Vgl. Panyr, J. - Automatische Klassifikation und Information Retrieval: Anwendung und Entwicklung komplexer Verfahren in Information-Retrieval-Systemen und ihre Evaluierung - Niemeyer Verlag Tübingen 1986 S.15

[161] Leontief, W.W. - Input-Output Economics - Oxford University Press NewYork 1986

[162] Piaget, J. - Das Weltbild des Kindes - Deutscher Taschenbuchverlag München 1988

[163] Luhmann, N. - Die Gesellschaft der Gesellschaft - Suhrkamp Verlag Frankfurt 1999

[164] Lotka, A.J. - Elements of Mathematical Biology - Dover Publications NewYork 1956 (Originalausgabe 1924 unter dem Titel: Elements of Physical Biology)

[165] Volterra, V. - Fluctuations in the Abundance of a Species Considered Mathematically - Nature 118/1926 S.558ff

[166] Turing, A.M. - On Computable Numbers with an Application to the Entscheidungsproblem in: Proceedings of the London Mathematical Society Ser.2 42/1936 S.230ff

[167] Vgl. Puschmann, N.O. für die Fernuniversität Haagen - Wirtschaftsphilosophie I (Seminar „Sozialphilosophie ökonomischen Handelns“) Systemtheorie 1999 - http://www.fernuni-hagen.de/PRPH/puschsys.pdf S.4ff (Acrobat Reader)

[168] Vgl. Schmidt, G. - Informationsmanagement - Springer Verlag Berlin Heidelberg NewYork 1996 S.39

[169] Vgl. Soergel, D. - Organizing Infomation: Priciples of Data Base and Retieval Systems - Morgan Kaufmann Publishers SanFrancisco 1985 S.69ff

[170] Vgl. Luhmann, N. - Soziale Systeme: Grundriss einer allgemeinen Theorie - Suhrkamp Verlag Frankfurt 1987 S.16f

[171] Vgl. Pfeiffer, R.; Goffin, K. - Innovationsmanagement und Virtualisierung; Ergebnisse aus einem deutsch-britischen Projekt in: Scholz, C. - Systemdenken und Virtualisierung: Unternehmensstrategien zur Virtualisierung auf der Grundlage von Systemtheorie und Kybernetik - Duncker & Humblot Verlag Berlin 2002 S.184

[172] Vgl. Luhmann, N. - Soziale Systeme: Grundriss einer allgemeinen Theorie - Suhrkamp Verlag Frankfurt 1987 S.43ff

[173] Vgl. Parsons, T. - Der Begriff Gesellschaft: Seine Elemente und ihre Verknüpfungen in: Parsons, T.; Jensen, S. - Zur Theorie sozialer Systeme - Westdeutscher Verlag Opladen Wiesbaden 1976 S.121ff und S.161ff

[174] Maturana, H.R.; Varela, F.J. - Der Baum der Erkenntnis: Die biologischen Wurzeln des menschlichen Erkennens - Scherz Verlag Bern München Wien 1987

[175] Vgl. Luhmann, N. - Soziale Systeme: Grundriss einer allgemeinen Theorie - Suhrkamp Verlag Frankfurt 1987 S.25ff

[176] Vgl. Luhmann, N. - Soziale Systeme: Grundriss einer allgemeinen Theorie - Suhrkamp Verlag Frankfurt 1987 S.30ff

[177] Vgl. Luhmann, N. - Die Gesellschaft der Gesellschaft (2.Bd.) - Suhrkamp Verlag Frankfurt 1999 S.747

[178] Vgl. Luhmann, N. - Soziale Systeme: Grundriss einer allgemeinen Theorie - Suhrkamp Verlag Frankfurt 1987 S.236

[179] Vgl. Meier, K. - Ressort, Sparte, Team: Wahrnehmungsstrukturen und Redaktionsorganisation im Zeitungsjournalismus - UVK Konstanz 2002 S.84

[180] Vgl. Luhmann, N. - Soziale Systeme: Grundriss einer allgemeinen Theorie - Suhrkamp Verlag Frankfurt 1987 S.46

[181] Vgl. Luhmann, N. - Soziale Systeme: Grundriss einer allgemeinen Theorie - Suhrkamp Verlag Frankfurt 1987 S.50f

[182] Vgl. Scheer, A.-W.; Werth, D. - Geschäftsregel-basiertes Geschäftsprozessmanagement in: Harms, I.; Luckhardt, H.-D.; Giessen, H.W. - Information und Sprache; Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern - Saur Verlag München 2006 S.190f

[183] Vgl. Schneewind, K.A.; Schmidt, M. - Systemtheorie in der Sozialpsychologie in: Frey, D.; Irle, M. - Theorien der Sozialpsychologie (Bd. III) Motivations-, Selbst- und Informationsverarbeitungstheorien - Huber Verlag Bern Göttingen 2002 S.145ff

[184] Vgl. Kuhlen, R. - Informationsmarkt: Chancen und Risiken der Kommerzialisierung von Wissen - UVK Konstanz 1995 S.340

[185] Vgl. Kronen, J. - Computergestützte Unternehmungskooperation: Potentiale, Strategien, Planungsmodelle - Dt. Universitätsverlag Wiesbaden 1994 S.3

[186] Hirschmann, P. - Kooperative Gestaltung unternehmensübergreifender Geschäftsprozesse - Gabler Verlag Wiesbaden 1998 S.15f

[187] Vgl. Axelrod, R. - Die Evolution der Kooperation - Oldenbourg Verlag München Wien 2000 S.11

[188] Vgl. Axelrod, R. - Die Evolution der Kooperation - Oldenbourg Verlag München Wien 2000 S.158

[189] Vgl. Axelrod, R. - Die Evolution der Kooperation - Oldenbourg Verlag München Wien 2000 S.12

[190] Vgl. Tolksdorf, R.; Mochol, M.; Heese, R. et al. - Semantic-Web-Technologien im Arbeitsvermittlungsprozess - WI 1/2006 S.22

[191] Zhong, J.; Zhu, H.; Li, J. et al. - Conceptual Graph Matching for Semantic Search in: Conceptual structures; integration and interfaces; proceedings / 10th International Conference on Conceptual Structures - Springer Verlag Berlin Heidelberg NewYork 2002 S.92ff

[192] Vgl. Panyr, J. - Automatische Klassifikation und Information Retrieval: Anwendung und Entwicklung komplexer Verfahren in Information-Retrieval-Systemen und ihre Evaluierung - Niemeyer Verlag Tübingen 1986 S.109ff und S.229ff

[193] Vgl. Chandler, A. D. - Die Entwicklung des zeitgenössischen globalen Wettbewerbs in: Porter, M. E. - Globaler Wettbewerb: Strategien der neuen Internationalisierung - Gabler Verlag Wiesbaden 1989 S.507

[194] Vgl. Probst, G.; Raub, S.; Romhardt, K. - Wissen managen: Wie Unternehmen ihre wertvollste Ressource optimal nutzen - Gabler Verlag Wiesbaden 1998 S.153

[195] Vgl. Castells, M. - Das Informationszeitalter (I) Die Netzwerkgesellschaft - leske + budrich Verlag Opladen 2001 S.157ff

[196] Vgl. Kaplan, R.; Norton, D. - Balanced Sorecard - Schäffer-Poeschel Verlag Stuttgart 1997 S.3

[197] Vgl. Scheer, A.-W. - ARIS: Vom Geschäftsprozess zum Anwendungssystem - Springer Verlag Berlin Heidelberg NewYork 1998 S.20f

[198] Vgl. Steinbicker, J. - Zur Theorie der Informationsgesellschaft - Leske + Budrich Opladen 2001 S.27

[199] Vgl. Scheer, A.-W. - Wirtschaftsinformatik: Referenzmodelle für industrielle Geschäftsprozesse - Springer Verlag Berlin Heidelberg NewYork 1998 S.686f

[200] Vgl. Kuhlen, R. - Die Konsequenzen von Informationsassistenten - Suhrkamp Verlag Frankfurt 1999 S.151

[201] Vgl. Drucker, P.F. - Post-Capitalist Society - HarperCollins Publishers NewYork 1994 S.20

[202] Vgl. Inmon, W.H. - Building the Datawarehouse - Wiley & Sons NewYork 2002 S.31

[203] Vgl. Scholz, C.; Stein, V.; Eisenbeis, U. - Die TIME-Branche: Konzepte, Entwicklungen, Standorte - Hampp Verlag 2001 S.23

[204] Vgl. Kröger, D.; Gimmy, M.A. - Handbuch zum Internetrecht: Electronic Commerce; Informations-, Kommunikations- und Mediendienste - Springer Verlag Berlin Heidelberg NewYork 2002 S. 252

[205] Panyr, J. - Thesaurus und wissensbasierte Systeme; Thesauri und Wissensbasen - NfD 39/1988 S.210 und S.213

[206] Vgl. Lev, B. - Intangibles: Management, Measurement, and Reporting - Brookings Institution Press 2001 S.5ff

[207] Vgl. Daum, J.H. - Interview mit Leif Edvinsson in: Daum, J.H. - Intangible Assets: oder die Kunst, Mehrwert zu schaffen - Galileo Verlag Bonn 2002 S.154

[208] Vgl. Inmon, W.H. - Building the Datawarehouse - Wiley & Sons NewYork 2002 S.248

[209] Vgl. Scholz, C.; Stein, V.; Eisenbeis, U. - Die TIME-Branche: Konzepte, Entwicklungen, Standorte - Hampp Verlag 2001 S.26ff

[210] Vgl. Hauke, P. - Datenverarbeitungsprozesse und Informationsbewertung - GBI Verlag München 1984 S.9f

[211] Vgl. Picot, A.; Reichwald, R.; Wigand, R.T. - Die grenzenlose Unternehmung: Information, Organisation und Management - Gabler Verlag Wiesbaden 2003 S.68

[212] Vgl. Toman, W. - Einführung in die Allgemeine Psychologie (Band I): Biologische Grundlagen, Wahrnehmung, Gedächtnis, Intelligenz - Rombach Verlag Freiburg 1973 S.181

[213] Vgl. Hammwöhner, R. - Offene Hypertextsysteme: Das Konstanzer Hypertextsystem (KHS) im wissenschaftlichen und technischen Kontext - UVK Konstanz 1997 S.56

[214] Vgl. Beaugrande, R.-A. de; Dressler, W.U. - Einführung in die Textlinguistik - Niemeyer Verlag Tübingen 1981 S.145ff

Ende der Leseprobe aus 288 Seiten

Details

Titel
Konzeption und integrierte Formalisierung eines Referenzmodells für informationslogistische Agentensysteme
Untertitel
Ontologie; Intuition des Thesaurus?
Hochschule
Universität des Saarlandes
Note
2,0
Autor
Jahr
2007
Seiten
288
Katalognummer
V85668
ISBN (eBook)
9783638890847
Dateigröße
1811 KB
Sprache
Deutsch
Anmerkungen
187 Literaturquellen und 50 Internetfundstellen
Schlagworte
Referenzmodell, Informationslogistik, Agentensystem, Informationsmanagement, Informationscontrolling, Wissensmanagement
Arbeit zitieren
Gernot Schwed (Autor), 2007, Konzeption und integrierte Formalisierung eines Referenzmodells für informationslogistische Agentensysteme, München, GRIN Verlag, https://www.grin.com/document/85668

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Konzeption und integrierte Formalisierung eines Referenzmodells für informationslogistische Agentensysteme


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden