Bei einer Podiumsdiskussion auf der Executive Lounge 2004 eröffnete Peter Clotten das Gespräch mit dem Satz: ,,Der CIO wird an Bedeutung verlieren, wenn er den Wandel zum CPO (Chief Process Officer) nicht schafft". Eine Meinung, die man in den letzten Jahren oft lesen konnte, wenn es um die Zukunft des Chief Information Officers(CIO) geht.
Diese Arbeit befasst sich mit den Hintergründen dieser Meinung. Schnell wird deutlich, dass sich mit dieser Meinung sehr viele weitere Fragen in Verbindung bringen lassen, z.B. was diesen Anpassungsdruck auf den CIO verursacht oder in welcher Form sich denn der heutige CIO vom CPO unterscheidet.
Auch das Anzweifeln des CIOs und damit auch ein Stück weit der IT selbst, ist nicht ungewöhnlich. So finden z.B. keine Debatten über die Zukunft des Chief Financial Officers (CFO) oder des Chief Operation Officers (COO) in der Unternehmenshierarchie statt; Grundsatzdiskussionen darüber wie IT in einem Unternehmen gemanaget werden sollte, finden sich aber zuhauf. Der Grund dafür dürfte in der sich ständig verändernden Bedeutung der IT für Unternehmen liegen, die durch den technischen Fortschritt bestimmt wird. Von dieser sich verändernden Bedeutung der IT ist daher auch die Stellung des IT-Managements abhängig. Ob z.B. IT überhaupt die Produktivität steigert, ist seit Jahrzehnten ein beliebtes Forschungsgebiet. Solow brachte die Problematik dieses Bereichs 1987 mit seinem berühmten Satz ,,we can see the computer age everywhere but in the productivity statistics" auf den Punkt. Ende der 90er Jahre sollte er seinen Satz allerdings zurücknehmen, denn der sogenannte fünfte Kondratieff, das Zeitalter der Informationsgesellschaft, schien sich nun auch in den Statistiken für die Arbeitsproduktivität bemerkbar zu machen.
Inhaltsverzeichnis
1 Einleitung
1.1 Thematische Einleitung
1.2 Zielsetzung der Arbeit
1.3 Aufbau der Arbeit
2 Does IT Matter?
2.1 IT als Massenware
2.2 Schwindende Wettbewerbsvorteile durch IT
2.3 Das IT-Produktivitätsparadoxon
2.3.1 Das Solowsche Produktivitätsparadoxon
2.3.2 Das IT-Produktivitätsparadoxon auf Unternehmensebene
2.4 Die Ausbauphase der IT (IT buildout) ist erreicht
2.5 Konsequenzen für das IT-Management
2.6 Bewertung von Carrs Ideen
2.6.1 Entwicklung der IT
2.6.2 Wechsel von nachhaltigen zu temporären Wettbewerbsvorteilen
2.6.3 Schlussbemerkung
3 Der CIO
3.1 Das CIO-Konzept
3.2 Die Weiterentwicklung des CIOs
3.3 Die Stellung des CIOs im Unternehmen
3.3.1 Der CIO in den DAX-Unternehmen
3.3.2 Der Einfluss des CIOs auf andere Führungskräfte
3.3.3 Die Beziehung zwischen CIO und CEO
3.4 Dezentralisierung vs. Zentralisierung der IT
3.5 Erfolgsfaktoren für CIOs
4 CPO-Konzepte
4.1 Vom CIO zum CPO
4.1.1 Der CPO als Enabler des SOA-Unternehmens
4.1.2 Der ITIL-Standard
4.1.3 Der CPO in der Sicht deutscher IT-Verantwortlicher
4.2 CPO-Konzepte
5 Der CPO nach Schmidt und Seidel
5.1 Allgemeine Vorstellungen
5.1.1 Die drei Mythen des CIOs
5.1.2 Der Paradigmenwechsel vom CIO zum CPO bringt neue Wörter hervor
5.2 Aufgaben, Kompetenzen, Verantwortung und Anforderungen
5.2.1 Aufgaben
5.2.2 Kompetenzen
5.2.3 Verantwortung
5.2.4 Anforderungen
6 Der CPO nach Abolhassan und Jost
6.1 Allgemeine Vorstellungen
6.2 Aufgaben, Kompetenzen, Verantwortung und Anforderungen
6.2.1 Aufgaben
6.2.2 Kompetenzen
6.2.3 Verantwortung
6.2.4 Anforderungen
7 Der CPO nach Schmelzer und Sesselmann
7.1 Allgemeine Vorstellungen
7.2 Aufgaben, Kompetenzen, Verantwortung und Anforderungen
7.2.1 Aufgaben
7.2.2 Kompetenzen
7.2.3 Verantwortung
7.2.4 Anforderungen
8 Erste CPOs
8.1 CPOs nach Schmelzer und Sesselmann
8.2 CPO nach Schmidt, Seidel, Abolhassan und Jost
8.2.1 Veränderung der CIO-Organisationsstruktur
8.2.2 Das Geschäftsprozessmodell bei VW
9 Vergleich und Bewertung der einzelnen Konzepte
9.1 Vergleich der Konzepte
9.2 Einsatz der Konzepte
9.2.1 Die Institutionalisierung des Geschäftsprozessmanagements
9.2.2 Die Ernennung eines CPOs
10 Fazit
Abbildungsverzeichnis
2.1 Grenznutzen von Textverarbeitungsprogrammen
2.2 Ressourcen-basiertes Modell für die Nachhaltigkeit von Wettbewerbsvor- teilen
2.3 Das solowsche Produktivitätsparadoxon
2.4 Annäherung an die Daten der Aufbau- und Entwicklungsperioden
3.1 Die Entwicklung des CIOs von 1996 bis
3.2 CIO Aufgabenverteilung
3.3 Einfluss der IT-Organisation auf das mittlere Management
6.1 Drei-Stufen-Modell des Geschäftsprozessmanagements
7.1 Prozessgremien innerhalb eines Betriebes
7.2 Grundstruktur eines Unternehmensprozessmodells
7.3 CPO-Organisation in der reinen Prozessorganisation
8.1 CIO Organisation bei VW
8.2 Prozessorganisation bei AUDI
9.1 Einordnung der verschiedenen Modelle
Tabellenverzeichnis
2.1 Kosten für verschwendete Arbeitszeit
3.1 Berichtswege des CIOs
3.2 CIOs in den DAX
3.3 Qualitäten eines CIOs
4.1 Aktivität von CIOs auf dem englischen Arbeitsmarkt
4.2 Akzeptanz von ITIL in Deutschland
4.3 ITIL-Prozesse
4.4 Verantwortungsbereich von CPOs
7.1 Verantwortung in der Prozessorganisation
8.1 IT-Ausgaben
9.1 Vergleich CPO-Konzepte
9.2 Bedingungen für Wechsel vom CIO zum CPO
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
1 Einleitung
1.1 Thematische Einleitung
Bei einer Podiumsdiskussion auf der Executive Lounge 2004 eröffnete Peter Clotten1 das Gespräch mit dem Satz: „Der CIO wird an Bedeutung verlieren, wenn er den Wandel zum CPO (Chief Process Officer) nicht schafft“ [Onl06]. Eine Meinung, die man in den letzten Jahren oft lesen konnte, wenn es um die Zukunft des Chief Information Officers (CIO) geht. Diese Arbeit befasst sich mit den Hintergründen dieser Meinung. Schnell wird deutlich, dass sich mit dieser Meinung sehr viele weitere Fragen in Verbindung bringen lassen, z.B. was diesen Anpassungsdruck auf den CIO verursacht oder in wel- cher Form sich denn der heutige CIO vom CPO unterscheidet. Auch das Anzweifeln des CIOs und damit auch ein Stück weit der IT selbst, ist nicht ungewöhnlich. So finden z.B. keine Debatten über die Zukunft des Chief Financial Officers (CFO) oder des Chief Operation Officers (COO) in der Unternehmenshierarchie statt; Grundsatzdiskussionen darüber wie IT in einem Unternehmen gemanaget werden sollte2, finden sich aber zu- hauf.
Der Grund dafür dürfte in der sich ständig verändernden Bedeutung der IT für Un- ternehmen liegen, die durch den technischen Fortschritt bestimmt wird. Von dieser sich verändernden Bedeutung der IT ist daher auch die Stellung des IT-Managements abhän- gig. Ob z.B. IT überhaupt die Produktivität steigert, ist seit Jahrzehnten ein beliebtes Forschungsgebiet. Solow brachte die Problematik dieses Bereichs 1987 mit seinem be- rühmten Satz „we can see the computer age everywhere but in the productivity stati- stics“ auf den Punkt (Vgl. 2.3.1). Ende der 90er Jahre sollte er seinen Satz allerdings zurücknehmen [Gor00, S. 49], denn der sogenannte fünfte Kondratieff, das Zeitalter der Informationsgesellschaft, schien sich nun auch in den Statistiken für die Arbeitsproduk- tivität bemerkbar zu machen (Vgl. 2.3.1 und [Ins01]).
Als mit dem Börsencrash die Überbewertung der New Economy-Unternehmen deut- lich wurde und die Unternehmen in der folgenden Konjunkturflaute umstrukturierten und Überkapizitäten abbauten, wurden auch die IT-Budgets zusammengestrichen3. In dieser für die IT-Branche immer noch trüben Zeit, löste 2003 Nicholas G. Carr mit sei- nem Aufsatz „IT Doesn’t Matter“ erneut Diskussionen um die Zukunft des CIOs aus. Die Argumente für das Ende des CIOs lesen sich dabei meist wie folgt: Da IT zur Massenware geworden sei, wäre es nicht mehr möglich, durch sie Wettbewerbsvorteile zu erreichen. Stattdessen sei IT in Zukunft fast so einfach wie Strom aus der Steckdose beziehbar und große Teile der IT ließen sich auf diesem Weg problemlos auslagern. Ein kompliziertes IT-Management entfiele daher.
Den Verlust seiner Stellung könne der CIO daher nur verhindern, wenn er seinen Aufgaben-, Kompetenz- und Verantwortungsbereich ausdehnt. Wenn er sich stärker be- triebswirtschaftlich engagiere, wenn er konsequent die IT an dem Unternehmen ausrich- te, wenn er zum Gestalter wird und als Kommunikator die IT im Unternehmen profiliere. Er müsse daher die Bedeutung des Geschäftsprozessmanagements erkennen, es zu sei- ner Kompetenz machen und im Unternehmen vorantreiben.
1.2 Zielsetzung der Arbeit
Das Ziel der Arbeit ist ein besseres Verständnis von dem zu bekommen, was oft als Wandel „vom CIO zum CPO“ bezeichnet wird. Dafür muss klar sein, woher man kommt (vom CIO), also welche Bedeutung z.B. die IT hat, welche Rolle der CIO im Unternehmen spielt usw., und wohin man geht (zum CPO), also was z.B. die Aufgaben des CPOs sind oder welche Faktoren das Entstehen eines CPOs begünstigen. In diesem sehr weiten Feld beschäftigt sich diese Arbeit mit den folgenden Fragen:
- Was macht Unternehmen mit erfolgreichem IT-Management aus?
- Welche CPO-Konzepte gibt es?
- Wann ist die Ernennung eines CPOs sinnvoll?
- Gibt es schon CPOs in der Praxis?
1.3 Aufbau der Arbeit
In zweiten Kapitel wird die aktuelle Debatte über die Bedeutung der IT im Unternehmen und für die Wirtschaft aufgegriffen, da sie sehr wichtig für die Weiterentwicklung des CIOs ist. Dies soll anhand einer kritischen Betrachtung von Carrs „Does IT Matter?“ ge- schehen. Im dritten Kapitel wird das CIO-Konzept behandelt. So wird z.B. die Weiterent- wicklung des CIOs aufgezeigt, seine Stellung im Unternehmen behandelt und für ihn kri- tische Erfolgsfaktoren aufgelistet. Das vierte Kapitel widmet sich den unterschiedlichen CPO-Konzepten, die man in der Literatur finden kann: Es führt in die CPO-Konzepte ein, zitiert aktuelle Statistiken zum CPO und zeigt Faktoren auf, die die Weiterentwicklung des CIOs zum CPO befördern könnten. In den drei anschließenden Kapiteln werden dann unterschiedliche CPO-Konzepte behandelt. Der Aufbau dieser Kapitel wird in Punkt 4.2 behandelt. Überschneidungen lassen sich dabei nicht vermeiden, da es zu unvermeidli- chen Inkonsistenzen bei einer Synthese der vorgestellten CPO-Konzepte käme. Was nicht heißen soll, dass nicht vielleicht das eine Konzept durch das andere erweiterbar wäre. Im achten Kapitel (Erste CPOs) werden Führungskräfte vorgestellt, die den vorher behan- delten CPO-Konzepten entsprechen oder ähneln. Im neunten Kapitel folgt schließlich eine Gegenüberstellung der unterschiedlichen Konzepte. In dieser Gegenüberstellung ist der Wert dieser Arbeit zu sehen, da eine vergleichende Beschreibung der CPO-Konzepte meines Wissens bisher nicht vorgenommen wurde. Des Weiteren soll in diesem Kapi- tel auch der Frage nachgegangen werden, wann die Einsetzung eines CPOs sinnvoll ist. Kapitel zehn schließt schließlich die Arbeit mit dem Fazit ab.
Damit Definitionen für unklare Begriffe schneller gefunden werden können, enthält das letzte Kapitel (Index) ein Verzeichnis aller Definitionen. Eine spezielle Methodik wird in dieser Arbeit nicht angewendet. Es gibt nur zwei Grundsätze, denen diese Arbeit folgt:
1. Probleme, die sich in erster Linie um die Bedeutung von Wörtern, bzw. ihrer De- finition drehen, werden - soweit möglich - vermieden4. Wörter, die anders als im normalen Sprachgebrauch verwendet werden oder unüblich sind, habe ich immer genau so zu erklären versucht wie sie auch in der Arbeit verwendet werden.
2. Die Arbeit ist möglichst einfach geschrieben5.
2 Does IT Matter?
Auf die Frage, ob „Wirtschaftsinformatik heute noch das richtige Studium für künftige CIOs“ sei, da „Angeblich [...] Technik für [...] IT-Manager nur noch eine untergeordnete Rolle“ spiele, antwortet Scheer: „Zweifelsohne bewegen sich die Aufgaben des CIOs in Richtung mehr fach- licher Kompetenz hin zum Chief Process Officer. Für strategische Entschei- dungen benötigt der IT-Verantwortliche aber nicht nur betriebswirtschaft- liches Wissen, sondern auch Kenntnisse über Basistechnologie. Wie soll er sonst Innovationspotenziale, neue Systeme oder IT-Partner beurteilen?“[Sch06a] Dieses Zitat, das nur stellvertretend für viele steht, zeigt welchen Einfluss Carrs Auf- satz „IT Doesn’t Matter“ bis heute hat, wenn es um die Zukunft des CIO oder der IT geht. Oft werden dabei Formulierungen wie „IT spielt nur noch eine untergeordnete Rolle“ oder „IT wird unwichtig“ gebraucht, die in dieser Pauschalität natürlich abgelehnt oder nur eingeschränkt akzeptiert werden. Die wirklichen Überlegungen Carrs spielen meist eine untergeordnete Rolle und sollen daher in diesem Kapitel näher beleuchtet werden6. Verwunderlich ist dabei die große Resonanz auf Carrs Artikel, denn seine Ide- en sind nicht neu. Wesentliche Ideen Carrs findet man schon in John Deardens Artikel „The Withering Away of the IS Organization“ von 1987 [Dea87]7 oder in Max Hoppers Artikel „Rattling SABRE - New Ways to Compete on Information“ von 1990 [Hop90].
In der Literatur wird überwiegend Carrs „IT Doesn’t Matter“ zitiert, der Rückgriff auf diesen Artikel wird hier aber vermieden, da sich Carrs Argumente teilweise in seinem später erschienenen Buch „Does IT Matter?“ änderten. In erster Linie behandelt Carr die folgenden Themenkomplexe:
-IT als Massenware
-Schwindende Wettbewerbsvorteile durch IT
-Konsequenzen für das IT-Management
2.1 IT als Massenware
Den Begriff der Massenware (Commodity) versteht Carr aus der Perspektive des Nutzers. Ein Produkt ist demzufolge genau dann Massenware für einen Betrieb, wenn es für alle Wettbewerber leicht verfügbar ist, sodass sich kein Unternehmen durch dieses Produkt langfristig von anderen Unternehmen unterscheiden kann [Car04, S. 152].
Carr behandelt in seiner Analyse der IT Hardware und Software getrennt. Dass heißt, dass die viel an Carr geäußerte Kritik, dass IT für ihn nur Hardware sei, wie z.B. bei Smith und Fingar [SF03, S. 56], nicht mehr greift. Den Datentransport über die Hard- ware vergleicht er mit dem Gütertransport über das Schienennetz oder der Energiever- sorgung durch das Stromnetz:„IT can be thought of as a transport system, carrying digital data just as railroads carry goods and the electric grid carries energy“ [Car04].
Als einen der Vorreiter für die Massenware Hardware sieht Carr Michael Dell an, der u.a. mit seinem Direktvertriebssytem für mehr Wettbewerb und günstigere PCs sorgte. Als Vorbedingung für eine Massenware sieht Carr gemeinsame Standards an. So ist für ihn der Server-Markt in den 90ern mangels einheitlicher Standards kein Massenmarkt gewesen, da Sun, IBM und HP, teils bis heute, eigene Lösungen favorisierten. Durch die ständig fortschreitende Technik verschwinde mit der Zeit auch der Mehrwert, den Kun- den von Neuentwicklungen im Vergleich zu günstigeren Vorgängermodellen haben. Auf diesen Gedanken wies z.B. Gordon bereits 2000 hin [Gor00, S. 63 ff.]. Er zeigte am Bei- spiel von Textverarbeitungsprogrammen, dass mit jeder neuen Version der Grenznutzen trotz steigender Rechenleistung abnimmt. Die größte Nutzensteigerung kam demnach mit dem Übergang von der Schreibmaschine zur Textverarbeitung unter DOS mit einem einfachen Texteditor. Die nächste Nutzensteigerung kam mit Programmen wie Word- Perfect 4.08 als erstem WYSIWYG-Textverarbeitungsprogramm9. Alle später folgenden Microsoft-Textverarbeitungssysteme brachten daher immer weniger zusätzlichen Nutzen für den Anwender10. Siehe dazu Abbildung 2.1.
Dies läge daran, dass sich ausgereiftere und etabliertere Vorgängermodelle gut zur Massenfertigung eignen und damit auch leicht von der Konkurrenz imitierbar sind [Car04, S. 39]. Der Wettbewerb wechsle daher von den eher spezialisierten Lösungen zu dem Faktor Kosten11. Carr kommt dabei zu folgendem Schluss: „Carried to its logical conclusion, the trend toward commodity hardwa- re would end with disapperance, from a user’s standpoint, of the individual 31987 war Word Perfect das am besten verkaufte Textverarbeitungsprogramm, die Erlöse übertrafen sogar die von Lotus 1-2-3 und dBase III. 1984 hatte Word Perfect erst einen Anteil von 1%, führend war zu diesem Zeitpunkt noch MicroPros WordStar mit einem Marktanteil von 23% [CK03, S. 254].
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.1: Grenznutzen von Textverarbeitungsprogrammen. Quelle: [Gor00, S. 64].
components of the physical infrastructure. Companies would simply connect to the infrastructure through a cable or antenna, and all the functions their employees require would automatically be delivered to them. IT would be- come as simple to use as electricity“ [Car04, S. 40].
Software sieht Carr ebenfalls als Massenware an, da sie genauso wie andere Produk- te, trotz ihrer abstrakten Form, gehandelt wird und somit den gleichen Gesetzen des Marktes wie jedes andere Produkt auch unterworfen ist. Hinzu kommt, dass wohl kaum ein anderes Produkt zu so geringen Kosten vervielfältigt werden kann. Carr stellt au- ßerdem die These auf, dass Unternehmen ihre Eigenentwicklungen und damit auch ihre Unterscheidungsmerkmale gegenüber anderen Unternehmen zugunsten von Standard- software aufgeben, wenn sie dadurch ihre Kosten senken können. Als Beispiel nennt Carr den Beginn der kommerziellen Softwareentwicklung. Zu Beginn der 50er Jahren bezog man Software vor allem aus drei Quellen: man schrieb sie selbst, erhielt sie vom Computer-Hersteller oder teilte sie mit anderen. Oftmals blieb am Anfang nur die erste Option übrig, da die Computer-Hersteller kaum Software zur Verfügung stellten [CK03, S. 29]12.
In diesen Zeitraum fällt auch die Gründung der IBM-User-Group SHARE im Mai 1955. Das erste Treffen fand am 22. August 1955 statt [Arm80, S. 125]. SHARE steht nicht für ein Akronym. Schon durch den Namen sollte zum Ausdruck kommen, dass in SHARE Informationen miteinander geteilt werden sollen. Im Dezember 1955 folgte Ramington
Rands USE (Univac Scientific Exchange) und im Jahre 1956 IBMs User Group GUIDE, die zur weltweit größten User-Group wurde und sich auf die Märkte außerhalb der USA bezog, während SHARE für die USA bestimmt war [CK03, S. 33 f.]. Paul Armer beschrieb das Ziel von SHARE 1956 wie folgt: „Its aim is to eliminate, as much as possible, red- undant effort expended in using the 704. It seeks to accomplish this aim by promoting cooperation and communication among installations that use the 704“ [Arm80, S. 123]. Carr sieht daher in SHARE einen Vorläufer für die spätere Entwicklung im IT-Markt. Die an SHARE beteiligten Unternehmen seien bereit gewesen ein Stück ihrer Einzigartigkeit aufzugeben, in dem sie untereinander Programme austauschten13. Ihre Einzigartigkeit würden die Unternehmen aber nur opfern, wenn die Vorteile durch eingesparte Kosten überwiegen würden [Car04, S. 43]. Daraus schließt Carr: „When a widely used resource is expensive and subject to strong scale economies, cost calculations will often trump strategic ones. What typically happens in such cases is that control over the provision of the resource shifts from the users to a group of outside suppliers“ [Car04, S. 44].
Des Weiteren wurde nach Carr die Entwicklung der Software durch die folgenden Entwicklungen und Faktoren erheblich vereinfacht und erleichtert [Car04, S. 52-55]:
-Modularisierung von Software
-Wiederverwendbarkeit von Softwaremodulen 14
-Das Aufkommen mächtigerer Programmiersprachen wie Basic, Fortran und Cobol, die die Programmierung im Gegensatz zur Assemblersprache erheblich vereinfach- ten.
-Neue Anwendungen wie Visual Basic, in denen schon viel Programmierarbeit durch grafische Benutzeroberflächen abegenommen wird.
-Die Anzahl der Programmierer wuchs stark an. Während sich in den 50er Jahren die Anzahl der Programmierer weltweit auf einige Tausend belief, liegt sie heute vermutlich schon im zweistelligen Millionenbereich.
-Programmierarbeit lässt sich teilweise genauso gut in Niedriglohnländern erledi- gen.
-Software lässt sich über das Internet sehr leicht verbreiten und verkaufen.
Zukünftige Entwicklung der Software
Bei neueren Entwicklungen wie Web Services und SOA (siehe dazu auch Punkt 4.1.1) sieht Carr vor allem Softwarehersteller als treibende Kraft. Er schreibt (Vgl. hierzu be- sonders Punkt 2.2): „Whatever the particular fate of Web services, architectural innovations will continue to appear in one form or another as vendors compete to make the IT infrastructure a more stable, flexible, and reliable conduit for business. The benefits of these advances will be great, but they will tend to be broadly and quickley shared“ [Car04, S. 59].
Um die Zukunft der IT-Architektur zu beschreiben, schließt sich Carr Scott McNealy an. McNealy vergleicht die IT-Architektur mit einem Auto. Früher habe jedes Unterneh- men sein eigenes Auto aus unterschiedlichen Komponenten montiert. Mit der Folge, dass nur mit viel Aufwand Interoperabilität zwischen einzelnen IT-Landschaften mög- lich war. Heute habe ein Unternehmen vier Möglichkeiten. Erstens, es lagert seine IT aus, z.B. von IBM Global Service; Zweitens, es betreibt weiterhin eine selbst entwickelte IT-Landschaft; Drittens, es kauft eine komplett neue IT oder Viertens, es mietet sich eine fertige IT-Landschaft (wenn z.B. Anwendungen von einem externen Anbieter browser- basiert angeboten werden) [McN03, S. 27]. Die vierte Möglichkeit ist für McNealy so einfach wie das Bestellen eines Taxis. Diesen Vergleich spitzt Carr noch zu: „Hailing a taxi is something everyone can do equally well“ [Car04, S. 60]. Als Beispiel nennen Carr und McNealy [McN03, S. 28] Salesforce.com. Da diese CRM-Software browserbasiert ist, ist keine Integration in die Unternehmens-IT mehr nötig15.
2.2 Schwindende Wettbewerbsvorteile durch IT
In dem Kapitel „Vanishing Advantage“ vertritt Carr die Meinung, dass durch IT kei- ne nachhaltigen Wettbewerbsvorteile mehr möglich sind. Wenn Carr von Wettbewerbs- vorteilen spricht, verwendet er die Terminologie Porters, zitiert ihn allerdings nicht in diesem Zusammenhang. Trotzdem ist annehmbar, dass Carr, wenn er von Wettbewerbs- vorteilen spricht, die drei Strategien Porters meint, die Unternehmen zu nachhaltigen Wettbewerbsvorteilen verhelfen sollen. Demnach müsste IT einem Unternehmen vor Al- lem bei dem Erreichen einer der folgenden Strategien helfen:
1. Kostenführerschaft
2. Differenzierung (Dem Kunden etwas Besonderes bieten, für das er bereit ist mehr zu zahlen)
3. Marktnischen besetzen (Und in dieser Nische Kostenführerschaft oder Differenzie- rung anstreben. Auch Konzentration genannt.)
Porter ist dabei wichtig, dass ein Unternehmen nur dann einen nachhaltigen Wettbe- werbsvorteil erreichen kann, wenn es sich auf eine dieser drei Strategien konzentriert. Nachhaltigkeit lässt sich also nur dadurch erreichen, dass man bestimmte Bereiche ver- nachlässigt, um in anderen hervorragend zu sein. Es gibt zwar Unternehmen, die Kos- tenführerschaft und Differenzierung gleichzeitig erreichen, diese befinden sich dann al- lerdings in einer leicht angreifbaren Position [Por04, S. 19]16.
Auch wenn Carr diese Einteilung nicht vornimmt, kann man durchaus sagen, dass Carrs Ideen zu diesem Thema auch dann Gültigkeit haben sollten, wenn ein Unterneh- men seine IT-Infrastruktur streng an einer dieser drei Strategien ausrichtet. Carr argu- mentiert dabei wie folgt: Wenn Eigenentwicklungen von Software immer seltener wer- den und Software zunehmend von Software-Herstellern bereitgestellt wird, dann kann man sich auch weniger durch Software von den Konkurrenten abheben. Das Erreichen von nachhaltigen Wettbewerbsvorteilen sei damit durch IT nicht mehr möglich, da Kon- kurrenten genauso leicht Zugang zu dieser IT hätten. Hopper hingegen sah noch die Möglichkeit Wettbewersvorteile zu erreichen, in dem man IT richtig nutzt und folgt da- mit eher der Meinung, dass Management der IT wichtig sei (Vgl. Punkt 2.6).
Zu ähnlichen Ergebnissen wie Hopper kommen auch Mata, Fuerst und Barney. Sie untersuchten 1995 unter welchen Bedingungen IT einem Unternehmen zu nachhaltigen Wettbewerbsvorteilen verhelfen kann [MFB95]. Sie verfolgten dabei einen ressourcen- basierten Ansatz, der weit über Carrs Überlegungen zur Nachhaltigkeit von Wettbe- werbsvorteilen hinaus geht. Demnach ist ein Wettbewerbsvorteil nur dann nachhaltig, wenn er die folgenden drei Bedingungen erfüllt (Siehe dazu auch Abbildung 2.2):
-Die infrage kommende Ressource oder Fähigkeit muss einen Wert für den Kunden darstellen,
-sollte heterogen sein, d.h. sie sollte sich von denen anderer Unternehmen unter- scheiden
-und diese Heterogenität muss andauernd sein (Immobilität der Ressource oder Fähigkeit).
Wie andauernd diese Heterogenität ist, ist davon abhängig wie schwer die Ressour- ce/Fähigkeit imitierbar ist. Mata et al nennen drei Kategorien, in die man die meisten Quellen für schwer imitierbare Heterogenität einordnen kann. In die erste Kategorie fal- len alle Quellen, die sich aus der Geschichte des Unternehmens ergeben und daher nur mit hohen Kosten imitierbar sind. In die zweite fallen alle, bei denen unklar ist, warum das Unternehmen Wettbewerbsvorteile besitzt. In diesem Fall steigen ebenfalls die Kos- ten für eine Imitierung. In die letzte Kategorie fallen alle Quellen, die sozial komplex sind. Dies kann z.B. eine besondere Unternehmenskultur sein. Ein nachhaltiger Wettbe- werbsvorteil durch IT kann also dann erzielt werden, wenn sich die Quelle dieses Wett- bewerbsvorteils einer der drei genannten Kategorien zuordnen lässt und Abbildung 2.2 genügt. Nach genau diesem Ansatz (die drei Kategorien + Abbildung 2.2) untersuchten Mata et al die folgenden Quellen für nachhaltige Wettbewerbsvorteile:
1. IT-Switching-Costs 17 erhöhen 18 Diese Strategie verfolgte mit IT z.B. AHS (heute Baxter Healthcare) mit seinem Bestellsystem ASAP. ASAP (ein Bestellsystem für Krankenhäuser) wurde in den 70er Jahren von AHS entwickelt. Die Kunden muss- ten erst in IT investieren, bevor sie ASAP nutzen konnten. Da diese IT aber nur mit ASAP kompatibel war, erhöhten sich automatisch die Kosten für einen Wechsel zu einem Konkurrenzprodukt [Car04, S. 72ff.][MFB95, S. 490]. Da heute Hardware günstiger von Hardware-Herstellern bezogen werden kann, in der Regel einheit- liche Standards existieren und Kunden hohe Kosten für einen Wechsel von einem auf ein anderes System scheuen, seien nachhaltige Wettbewerbsvorteile über diese Strategie kaum noch zu erreichen. Im Gegenteil, das Verfolgen einer solchen Stra- tegie kann sogar dazu führen, dass man seine Kunden verliert, wenn man sie mit
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.2: Ressourcen-basiertes Modell für die Nachhaltigkeit von Wettbewerbsvor- teilen. Eigene Darstellung nach: [MFB95, S. 494].
Druck an sich zu binden versucht19.
2. Eigenentwicklungen, sie können dann zu einem nachhaltigen Wettbewerbsvor- teil verhelfen, wenn man sie vor der Konkurrenz geheimhalten kann. Patente auf Eigenentwicklungen sind allerdings nur bedingt ein Schutz, da sie nicht vor Imita- tion schützen. Aus diesem Grunde ist es unwahrscheinlich mit Eigenentwicklungen nachhaltige Wettbewerbsvorteile zu erzielen, da sie kaum geheim zu halten sind.
3. TechnischeFähigkeitensind unabdingbar für den Einsatz von IT. Sie erzeugen nach Abbildung 2.2 zwar Wert, sind allerdings sehr mobil. Selbst dann, wenn sie sehr ungleichmäßig über verschiedene Unternehmen verteilt sind. Aus diesem Grund schätzen die Autoren technische Fähigkeiten bestenfalls als einen temporä- ren Wettbewerbsvorteil ein.
4. IT-Management-Fähigkeiten. Unter IT-Management wird hier z.B. die Fähigkeit verstanden, die IT-Bedürfnisse der einzelnen Geschäftseinheiten zu verstehen, mit ihnen zusammenzuarbeiten, die IT richtig zur Unterstützung von Lieferanten und Geschäftseinheiten einzusetzen und zukünftige IT-Bedürfnisse von Kunden, Liefe- ranten und Geschäftseinheiten vorwegzunehmen. Das IT-Management sehen Mata et al als Quelle für Wettbewerbsvorteile durch IT an. Nur das IT-Management kön- ne die technischen Fähigkeiten des IT-Personals heben und zum Vorteil des Unter- nehmens einsetzen (Dieser Punkt wird noch ausführlicher in 2.6.2 behandelt).
2.3 Das IT-Produktivitätsparadoxon
Um seine Theorie zusätzlich zu untermauern zitiert Carr Studien, die sich mit dem IT- Produktivitätsparadoxon beschäftigen20. Diese Studien werden in Punkt 2.3.2 behan- delt. Zuvor wird das IT-Produktivitätsparadoxon einleitend in Punkt 2.3.1 auf makro- ökonomischer Ebene behandelt.
Mit diesem Paradoxon bezeichnet man das Phänomen, dass sich der Einsatz von IT in den Statistiken nicht durch höhere Produktivität niederschlägt.
2.3.1 Das Solowsche Produktivitätsparadoxon
Die neoklassische Wachstumstheorie nach Solow und ihre Weiterentwicklungen weisen auf die enge Beziehung zwischen Wirtschaftswachstum und technischen Fortschritt hin. Diese traditionellen „neoklassische[n] Modelle vom Solow-Swan-Typ behandeln den technischen Fortschritt noch als eine exogene Größe [die] wie „Manna vom Himmel“ fällt und somit einem reinen öffentlichen Gut gleicht“ [Sch00, S. 6 ff.]. Im Gegensatz dazu behandeln neuere Modelle den technischen Fortschritt als endogene Größe, d.h. der technische Fortschritt soll aus dem Modell heraus erklärbar sein.
Das Solowsche Produktivitätsparadoxon besteht nun darin, dass sich der technische Fortschritt der Computerbranche nicht in der gesamtwirtschaftlichen Produktivität nie- derschlägt. Abbildung 2.3 zeigt die durchschnittliche Wachstumsrate der Arbeitsproduk- tivität21 sowie der IT-Investitionen in den USA über den Zeitraum von 1947 bis 1995 hin- weg. Die Grafik zeigt deutlich, dass ein Rückgang des Arbeitsproduktivitätswachstums verzeichnet wird, während die Investitionen in IT deutlich anstiegen. Um dieses Parado- xon zu erklären, wird z.B. häufig angeführt, dass der Großteil der IT-Investitionen auf den Dienstleistungssektor entfalle22. So kamen z.B. mehr als 70% der IT-Investitionen des privaten Sektors bis zu den 1990er Jahren aus dem Dienstleistungsbereich. „Allein im Jahre 1992 können knapp 38% aller von der US-Wirtschaft vorgenommenen Inves- titionsprojekte als IT-Investitionen des Finanz-, Versicherungs- und Immobiliengewerbes identifiziert werden“ [Sch00, S. 16]. Grichilis kommt daher zu folgendem Schluss: „The major answer to this puzzle is very simple: over three-quarters of this investment has gone into our ’unmeasurable’ sectors, and thus productivity effects, which are likely to be quite real, are largely invisible in the data“ [Sch00, S. 17, Griliches nach Schreyer].
Nach anderen Untersuchungen machen die Messprobleme des Dienstleistungssektors nur ein Drittel oder 12% des Produktivitätsrückgangs aus [Sch00]. Daher sind Zwei- fel angebracht, ob das Produktivitätsparadoxon durch den Dienstleistungssektor erklär- bar ist. Da der Produktivitätsrückgang auch recht plötzlich in den 70er Jahren in al- len OECD-Staaten einsetzte, müsste es in diesen Jahren einen deutlichen Zuwachs des Dienstleistungssektors gegeben haben, wenn der Produktivitätsrückgang in erster Linie durch Messprobleme im Dienstleistungssektor erklärbar sein soll. Dies ist aber nicht der Fall.
Von anderen Theoretikern wird die Meinung vertreten, dass das Potential der IT noch nicht richtig genutzt würde und dass wir uns erst in einer Übergangphase befänden (Vgl. dazu Perez in Punkt 2.4). Der Computer ist demnach eine Basisinnovation, die erst mit einiger Verzögerung wirtschaftlich spürbar wird. In dem Zeitraum von 1995 bis 1999 kam es allerdings zu einem starken Wachstum. Die Arbeitsproduktivität wuchs in den USA in diesen Jahren um durchschnittlich 2,58%, während gleichzeitig die IT- Investitionen aufgrund des Preisverfalls23 der IT stark anstiegen. Allerdings wies Gor- don 1999 darauf hin, dass dieses Wachstum nicht struktureller Natur ist. Er führt das Wachstum in diesem Zeitraum auf drei Gründe zurück [Gor99, S. 22]:
1. Änderungen in der Messung des Bruttoinlandsprodukt (GDP) in den USA
2. Immer leistungsfähigere Computer, die für exponentielles Wachstum bei den Com- puter-Herstellern sorgten, die nur 1,2% der US-Wirtschaft ausmachen;
3. Den Konjunkturzyklus, der normalerweise immer wachse, wenn der Output größer als der Trend ist.
2.3.2 Das IT-Produktivitätsparadoxon auf Unternehmensebene
Um seine Argumentation zu stützen, führt Carr zwei Studien an ([HB96] und [PH97]), in denen die Produktivität und die Profitabilität von IT in Unternehmen untersucht wird24. In der ersten Studie wurden von Hitt und Brynjolfsson [HB96] 370 große US- Unternehmen untersucht [Car04, S. 64 ff.]. Dabei stellte man fest, dass IT-Investitionen die Produktivität steigern und meist eine hohe Verzinsung des eingesetzten Kapitals er- möglichen. Zu dem Ergebnis, dass IT-Investitionen die Produktivität erhöhen, kam Bryn- jolfsson auch in einer späteren und breiteren Analyse [Bry03]. Allerdings gab es in den
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.3: Das solowsche Produktivitätsparadoxon. Obwohl in dem Zeitraum von 1972-1995 durchschnittlich mehr als doppelt soviel in IT investiert wur- de wie in den Jahren von 1947-1972, fiel die Arbeitsproduktivität (la- bor productivity) um durchschnittlich 1,5 %. Arbeitsproduktivität ohne Landwirtschaft. Quelle: [Ins01, S. 51 (im PDF)]
Ergebnissen eine sehr breite Streuung, d.h. die IT-Produktivität verteilte sich sehr gleich- mäßig über die Unternehmen und schwankte von einem positiven über einen neutralen bis hin zu einem negativen Einfluss auf die IT-Produktivität. Die Ergebnisse besitzen also keineswegs die hohe Eindeutigkeit, die in manchen Untersuchungen unterstellt wird. Dennoch ist insgesamt ein positiver Einfluss der IT auf die Produktivität gemessen wor- den.
Allerdings hat der IT-Einsatz nach Hitt und Brynjolfsson [HB96] einen negativen Ein- fluss auf die Profitabilität. So wird durch den IT-Einsatz neben der erhöhten Produkti- vität zwar ein höherer Wert für den Kunden generiert, dieser höhere Wert würde aber zumindest in den untersuchten Unternehmen an den Kunden weitergegeben. Daher sei kein Anstieg der Profitabilität durch den bloßen IT-Einsatz messbar. Die Autoren war- nen aber davor, daraus den voreiligen Schluss zu ziehen, dass IT nur den Wert für den Kunden erhöhen würde und Profite zunichte macht. Dem Management geben Hitt und Brynjolfsson zwei Empfehlungen, für die sie auf die besprochenen Strategien von Porter zurückgreifen: „First, when cost is the central strategic issue in an industry, our produc- tivity results suggest that IT investment may be one way to pursue a cost leadership strategy, provided that the cost reductions cannot be emulated by other firms. However, for industries where cost is not the central strategic issue or where there are few barriers to adoption of IT, firms are unlikely to create lasting competitive advantage simply by spending more on IT. This raises the second issue: managers seeking higher profits should look beyond productivity to focus on how IT can address other strategic levers such as product position, quality, or customer service. While IT can potentially lower the cost of providing these services, attaining competitive advantage may in- volve using IT to radically change the way products or services are produced and delivered in a way that cannot be duplicated by competitors. This may be possible by leveraging existing advantages with IT or using technology to target other segments of the industry where competition is less intense“ [HB96].
Hitt und Brynjolfsson schließen also nicht aus, dass ein überlegter IT-Einsatz zu Wett- bewerbsvorteilen führen kann. Höhere IT-Ausgaben allein seien aber kein Garant für Er- folg. Unternehmen könnten aber versuchen, die Vorzüge der IT zu nutzen, um Chancen auf dem Markt wahrzunehmen. Durch selektives Zitieren erweckt Carr beim Leser den Eindruck, dass nach Hitt und Brynjolfsson keine Wettbewerbsvorteile durch IT möglich wären: „Their examination of company financial data „showed little evidence of an impact of IT on supranormal profitability“ and indeed suggested „the pos- sibility of an overall negative effect of IT in profitability.“ Consumers, ho- wever, appeared to receive substantial economic benefits from companies’ investments in IT. In conclusion, the researchers reported that „our profita- bility results suggest that, on average, firms are making the IT investments necessary to maintain competitive parity but are not able to gain competitive advantage.““ [Car04, S. 64]
Hitt und Brynjolfsson untersuchten in ihrer Arbeit die Profitabilität und die Produk- tivität von IT sowie den Wert für den Verbraucher, der durch IT generiert wird. An der von Carr zitierten Stelle beziehen sie sich nur auf ihre Untersuchungsergebnisse zur Pro- fitabilität. Diese Ergebnisse sind aber keinesfalls ihre „conclusion“, wie die oben zitierte Stelle aus Hitts und Brynjolfssons Arbeit zeigt. Das folgende Zitat ist aus der zweiten Stu- die, die Carr anführt. Sie soll zeigen, dass durch IT kein strategischer Wettbewerbsvorteil mehr möglich ist: „The easy availability of IT to all banks implies that IT investments do not provide any competitive advantage. In other words, since there is no „barrier to entry“ in terms of IT in the retail banking industry, a bank investing in IT does not stand to gain additional market share as a result of its investment. In fact, by not investing in IT and by foregoing the gains provided by it, a firm may, on the other hand, lose market share (Clemons 1991). Thus, in this competitive environment of retail banking, neither IT capital nor IT labor investments should make significant impacts on the firm’s profitability. The results bear this hypothesis out: IT investment has zero or insignificant effect on bank profitability [PH97, S. 18].“25
Prasad und Harker [PH97] stellen ebenfalls fest, dass IT-Investitionen nicht zwingend zu höherer Profitabilität führen. Es ist hier aber zu vermuten, dass die Zahlen ähnlich weit gestreut sind wie die der 1167 oben erwähnten Unternehmen, die Brynjolfsson untersuchte [Bry03]. Prasad und Harkers [PH97] Schlussfolgerung wird auch bestätigt von den Ergebnissen von Westwood und Holland26. Sie untersuchten die Erträge im britischen Bankensektor. Dabei stellten sie fest, dass „die Bandbreite der Ertragsspanne zwischen den erfolgreichsten und den wenig erfolgreichen Banken über viele Jahre recht stabil war, seit Mitte der 90er Jahre aber stark“ auseinander klaffte [BBG+04]. Klein [BBG+04] stellt daher die Hypothese auf, dass die Banken mit gutem Management in größerem Maße von IT profitierten, während jene mit schlechter Performance starke Einbrüche hinnehmen mussten. Diese Untersuchung legt also nahe, dass IT-Investitionen zumindest bestehende Unterschiede zwischen Unternehmen zusätzlich verstärken. An dieser Stelle bewähren sich auch die Schlussfolgerungen aus der Studie von [PH97]. Die Höhe der IT-Investitionen ist also weniger ausschlaggebend als der intelligente Umgang mit IT, der auch maßgeblich von qualifiziertem IT-Personal abhängig ist. Oftmals werden bestehende Potentiale einfach nicht richtig ausgenutzt27.
Erklärungen für das IT-Produktivitätsparadoxon
Gründler hat die verschiedenen Erklärungsversuche des IT-Produktivitätsparadoxon auf Unternehmensebene wie folgt zusammengefasst: Umverteilung der Gewinne durch stärkeren Wettbewerb:Bei dieser Er- klärung geht man davon aus, dass der Einsatz von IT dazu führt, dass Unterneh- men mit hohen IT-Aufwendungen die Kunden der restlichen Unternehmen abwer- ben und es so nur zu einer Umverteilung der Gewinne kommt.
Messprobleme des Inputs und Outputs:Messprobleme der IT-Produktivität werden besonders im Dienstleistungssektor deutlich. Zum einen weil Dienstleis- tungen nicht greifbar sind, zum anderen weil mehr Flexibilität, höhere Qualität, schnellere Lieferzeiten oder mehr Varianten sich kaum in steigender Produktivi- tät niederschlagen. Erschwerend kommt hinzu, dass die meisten IT-Investitionen im Dienstleistungssektor getätigt werden [Grü97, S. 76f.]. Auch eine höhere Ar- beitsqualität fließt nicht in die Statistiken mit ein. Um die Inputs und Outputs, und damit letztlich die Produktivität, über lange Zeiträume vergleichen zu kön- nen, muss man sie um die Inflation bereinigen. Da sich die Produkte und die IT aber schnell wandeln, müsste man die Inputs und Outputs auch um die Qualität bereinigen, die „das größte Problem bei der Bemessung von Input und Output“ darstellt.
Mangelnde Reinvestition von mitarbeiterbezogenen Einsparungen:Auch wenn die Möglichkeiten von IT ausgenutzt werden, müssen sie nicht zwangs- läufig zu Produktivitätssteigerungen führen. Wird ein Prozess z.B. mit IT gestützt, erfolgt nur eine Produktivitätsteigerung „wenn entweder Personal abgebaut, die Tätigkeit erweitert oder die eingesparte Zeit zur Qualitätsverbesserung der Aufga- be verwendet wird. [...] So haben die Gestaltungsmöglichkeiten moderner Büro- software zu ausufernden Ansprüchen an die Gestaltung von Schriftstücken geführt. Für die Überarbeitung und Präsentation bereits bestehender Inhalte wird immer mehr Zeit aufgewendet, oft zu Lasten ihrer inhaltlichen Verbesserung“ [Pil98].
Gewinne durch IT werden mit Verzögerung realisiert:Es dauert z.B. sei- ne Zeit bis neue Produkte mit einer neuen IT-Umgebung entwickelt sind und sich in den Bilanzen niederschlagen. Genauso benötigen die Mitarbeiter eines Unter- nehmens Zeit, bis sie sich mit einer neuen Anwendung vertraut gemacht haben, um deren Potential auszuschöpfen. Wird der Nutzen einer IT-Investition allerdings nur kurz nach der Implementierung gemessen, „kann es [...] so scheinen als ob die Investition unrentabel ist“ [Grü97, S. 79].
Abläufe werden unzureichend reorganisiert:Oftmals wird versucht, die be- stehenden Abläufe eins zu eins in die IT zu übertragen, ohne die Möglichkeiten, die die neue Technik bietet, überhaupt auszuschöpfen. Ein Anzeichen dafür kann es z.B. sein, wenn Anwendungssysteme streng nach Funktionen getrennt sind und Möglichkeiten für „vertikale und horizontale Aufgabenintegration“ [Grü97, S. 79 f.] ausgelassen werden. Interessant ist an diesen Erklärungsansatz auch die histo- rische Parallele: „So wurde David zufolge der Elektromotor Ende des 19. Jahrhun- derts zunächst nur auf dieselbe Art und Weise genutzt wie die Dampfmaschine“ [Sch00, S. 28].
Missmanagement der IT:Gründler betont, dass das Missmanagement nicht nur ungewollt ist, sondern auch politische Gründe haben kann oder aus „nicht richtig abgestimmte[n] Ziel- und Anreizsystemen“ [Grü97, S. 80] resultieren kann.
Widerstände gegen den IT-Einsatz:Da mit der Einführung von IT-Systemen oft Reorganisationen verbunden sind, kann es zu Ängsten vor Macht- und Status- verlust kommen. Auch die Angst vor mehr Transparenz bei der Einführung ver- netzter Informationssysteme führt zur Abwehrreaktionen. „In dieses Bild passen verschiedene Umfrageergebnisse aus den USA und Europa, die alle gemeinsam zu der Aussage kommen, daß die erhöhte Komplexität der Umwelt in unserer Gesell- schaft verstärkt zu einer generellen Technologieangst führt“ [Grü97, S. 81f.]28.
2.4 Die Ausbauphase der IT (IT buildout) ist erreicht
Carr nennt fünf Anzeichen dafür, dass der „IT buildout is much closer to its end than its beginning“ [Car04, S. 85]: IT bietet immer mehr Funktionalitäten (1), die der Nutzer ei- gentlich nicht braucht (Carr vertritt also auch Gordons These vom abnehmenden Grenz- nutzen von IT, Vgl. Abbildung 2.1). Gleichzeitig sei sie dabei aber so günstig geworden, dass sie sich mehr oder weniger jeder leisten könne (2). Außerdem stehe mittlerweile z.B. durch Glasfiberkabel mehr Bandbreite zur Verfügung als benötigt werde (3) und große IT-Hersteller böten immer mehr Dienstleistungen „on demand“ an (4), rechnen also zunehmend nach Nutzung ab.
Besonders widersprochen wurde dem fünften Anzeichen, dass Carr schon in „IT doesn’t matter“ anführte (5): „Finally, and most definitively, the investment bubble has burst, which historically has been a clear indication that an infrastructural technology is re- aching the end of its buildout“ [Car03, S. 47]. Smith und Fingar antworteten darauf in ihrer Kritik an Carrs Artikel mit Carlota Perezs Buch „Technological Revolutions and Financial Capital“: „In their book, Technological Revolutions and Financial Capital, they take a long-term perspective on the good and bad times in the economy and link technology and finance to „patterns of speculative exuberance, followed by crash, followed by a strong buildout period“ [SF03]29.
Carr wiederum zitiert ebenfalls Perez, um seinen Satz nun theoretisch zu unterfüttern: „Finally, and perhaps most tellingly, an enormous investment bubble has expanded and burst, which historically has been an indication that an infra- structural technology is reaching the end of its buildout. In her seminal book Technological Revolutions and Financial Capital, Carlota Perez divides the period of adaption of a new and broadly used technology into two phases. [...] The collaps of the bubble signals that „a new infrastructure is in place“ Wie im Zitat von Smith und Fingar schon deutlich wurde, schreibt Perez keineswegs, dass das Platzen der Blase ein Anzeichen für den Ausbau einer Infrastruktur ist. Im Sinne Perez setzt nach dem Platzen einer Blase ein Lernprozess ein und das momentan vor- herrschende Paradigma wird zur allgemein akzeptierten Methode. Um den Paradigma- Begriff Perezs zu verstehen, soll hier kurz ihre Theorie umrissen werden. Perezs Theorie ist eine Verbindung aus den kuhnschen Paradigmen30 und den schumpeterschen Über- legungen zu Konjunkturzyklen. Sie überträgt das kuhnsche Paradigma, das ursprünglich nur für die Wissenschaft gilt, auf die Wirtschaft. Diese Paradigmen nennt sie techno- ökonomische Paradigmen (techno-economic paradigm). Ein Paradigma bei Kuhn ist z.B. die „Korpuskular Optik“ oder die „allgemeine Relativitätstheorie“. Dabei schließt der Begriff Paradigma nicht nur die Theorie ein. Um zum Paradigma zu werden, muss die Theorie eine Anhängerschaft von Wissenschaftlern anziehen, „die ihre Wissenschaft bis- her auf andere Art betrieben [haben], und gleichzeitig [muss] sie noch offen genug [sein], um der neuen Gruppe von Fachleuten alle möglichen ungelösten Probleme zu stellen“ [Kuh76, S. 25]. Ein techno-ökonomisches Paradigma ist nach Perez ein best- practice-Modell, dass aus einem Set von alles durchdringenden generischen Technologie- und Orangisationsprinzipien besteht. Diese Prinzipien repräsentieren den effizientesten Weg, um eine partikulare technologische Revolution anzuwenden und um sie für die Modernisierung und Verjüngung einer Wirtschaft einzusetzen [Per03, S. 15].31
Während es auch in einer Wissenschaft mehrere Paradigmen geben kann, die Kon- sens sind, gibt es nach Perez immer nur ein etabliertes techno-ökonomisches Paradigma. Dieses Paradigma durchläuft fünf Phasen, ehe es von einem neuen abgelöst wird. Ab- bildung 2.4 zeigt diese Phasen anhand dem letzten und dem gerade etablierten techno- ökonomischen Paradigma. Jedes erfolgreiche techno-ökonomische Paradigma leitet eine neue große Entwicklungswelle ein (ähnlich den Kondratieff-Zyklen). Es folgt eine Be- schreibung der fünf Phasen:
1. Die erste Phase dieser Entwicklungswelle ist die des „Eindringens“ (irruption pha- se). In dieser Phase ist viel Risikokapital vorhanden, dass in die neuen Produkte und Entwicklungen, die das neue Paradigma ermöglicht, investiert werden. In die- ser Phase setzt auch der Prozess der kreativen Zerstörung von Schumpeter ein. Alte Branchen, die nicht den Entwicklungen, die das neue Paradigma mit sich bringt, gewachsen sind, verschwinden. Die Arbeitslosigkeit steigt an.
2. Die zweite Phase der Installationsphase nennt Perez die des „Wahnsinns“ (frenzy phase). In ihr verschärfen sich die Unterschiede zwischen arm und reich, es gibt viel Wettbewerb, die Gesellschaft individualisiert sich zunehmend, die Unterneh- men werden stark überbewertet und es werden Überkapazitäten aufgebaut.
3. Die dritte Phase beendet mit dem Platzen der Investitionsblase die zweite Phase und es kann zu Protesten kommen. Eine Rezession setzt ein.
4. Je nach dem wie stark das neue Paradigma ist und welche Rahmenbedingungen gesetzt werden, folgt die vierte Phase, die Synergiephase (synergy phase). Diese Phase ist die erste Phase der Entwicklungsperiode (deployment period). Es ist eine Phase der Massenproduktion und der Expansion. Die Wirtschaft wächst gleichmä- ßig, die Arbeitnehmerrechte und der Mittelstand werden gestärkt und der Wohl- stand wächst. Technologie wird als eine positive Kraft angesehen und die Arbeits- losigkeit sinkt.
5. Die letzte Phase ist die der Sättigung (maturity phase). Sie ist gekennzeichnet durch das Ende des vorherrschenden techno-ökonomischen Paradigmas. Die Pro- dukte haben immer kürzere Lebenszyklen, der Markt ist gesättigt, die Gewerk- schaften fordern weiterhin Lohnerhöhungen, es kommt zu einer starken Konzen- tration in den Branchen. Das bestehende System wird zunehmend hinterfragt wie z.B. durch die „Hippie-Bewegung“ 1968 in den USA, gleichzeitig gibt es Kräfte, die am alten Paradigma festhalten. Perez schreibt: „The stage is set for the decline of the whole mode of growth and for the next technological revolution“. [Per03, S. 49-56]
Perez betont allerdings, dass sich die Entwicklungswellen überlappen können. Sie ist sich auch keineswegs sicher ob die dritte Phase (Turning Point) bereits durchlaufen wur- de. Damit das jetzige Paradigma in die nächste Phase übergehen kann, müssten zuerst die strukturellen Probleme gelöst werden, die die letzte Rezession auslösten. Würde dies geschafft, so müsste nach Perez eine neue Periode des Wachstums und Wohlstands fol- gen. Ein Übergang in die vierte Phase, in die Entwicklungsperiode also, kann durchaus im Sinne Carrs interpretiert werden. Denn es käme wie Carr richtig diagnostiziert, zu einem Zeitalter der Massenware Computer und Software. Ebenso würde eine weitere Konzentrationswelle auf längere Sicht einsetzen.
Die Anwendung dieses Modells, auch für langfristige Prognosen, dürfte sehr schwie- rig sein, da Konjunkturzyklen allgemein „sowohl [in ihrer] Frequenz als auch [ihrer] Amplitude der einzelnen Zyklen so unterschiedlich [sind], daß von einem gewisserma- ßen gesetzmäßig wiederkehrenden typischen Konjunkturzyklus nicht gesprochen wer- den kann“ [Cez05, S. 466]. Perez unterstellt dem Kapitalismus aber ein ihm immanentes Gesetz.
2.5 Konsequenzen für das IT-Management
Am Ende seines Buches stellt Carr vier Handlungsempfehlungen für das IT-Management an: Ausgaben senken; nicht die neuste IT-Technik verwenden, lieber der Entwicklung fol- gen; Eigenentwicklungen nur bei geringen Risiko27; die eigenen Schwächen fokussieren,
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.4: Annäherung an die Daten der Aufbau- und Entwicklungsperioden (in- stallation and deployment periods). Eigene Darstellung. Der Übersicht- lichkeit wegen wurde auf die Darstellung der ersten drei großen Ent- wicklungswellen verzichtet. Quelle: [Cez05, S. 57]
nicht Chancen. Im folgenden werden die Richtlinien einzeln behandelt:
1.Die Ausgaben senken.Nach Carr würden oftmals leistungsfähigere Computer als nötig gekauft, da das Gros der Anwender in einem Unternehmen nur Standar- danwendungen wie Word oder Excel benutze [Car04, S. 113]. Ein anderes Ein- sparpotential sieht Carr darin, dass man den verschwenderischen Umgang mit IT-Ressourcen unterbindet. So würden etwa nach Computerworld 70% der Spei- cherkapazität eines typischen Windows-Netzwerkes mit Spam, mp3s oder Video- Clips verschwendet. Carr schlägt vor, dass den Anwendern z.B. nur ein bestimmter Raum an Speicher zugewiesen wird. Andere Möglichkeiten sieht Carr im Auslagern von IT oder im Umstieg auf Linux. So habe E-Trade 1998 für 14 Millionen Dollar sechzig Sun-Server gekauft, deren jährliche Wartungskosten 1,5 Millionen Dollar betrugen. 2002 wurden diese durch 80 Linux-Server ersetzt, die 320 000 Dollar kosteten und die Wartungskosten erheblich reduzierten. Carr empfiehlt sogar, stel- lenweise den Mitarbeitern den Zugriff auf das Internet zu verbieten [Car04, S. 115].
2.Nicht die neuste IT-Technik verwenden, lieber der Entwicklung folgen.Wer später einsteigt, habe Vorteile, da er aus den Fehlern und Erfolgen der Innovatoren lernen könne und auf homogenere und standardisiertere Lösungen zurückgreifen kann, die sich auch leichter bei Partnern einbinden lassen. Neue Produkte seien hingegen oft um ein vielfaches teurer und selten kompatibel, wenn es bei ihrer Entwicklung noch keine anerkannten Standards gab.
3.Innovationen nur bei geringem Risiko.Ein Unternhemen sollte nur zum Innova- tor werden, wenn die Risiken abschätzbar sind und ein Wettbewerbsvorteil mög- lich wird. So könne ein Unternehmen mit Marktmacht wie z.B. WalMart gefahrlos in RFID-Chips investieren. Zumal WalMart einen Teil der Kosten auf seine Liefe- ranten abwälzen konnte, da diese ebenfalls die Technologie einführen mussten, um ihre Verträge mit WalMart zu behalten. Ansonsten sollten Unternehmen nur Innovationen betreiben, wenn diese sehr spezialisiert sind, nicht leicht nachgeahmt werden können und sich nur schwer verbreiten und standardisieren lassen [Car04, S. 127]. Strategische Vorteile für Start Ups in etablierten Märkten seien dann möglich, wenn die etablierten großen Unternehmen bereits IT-Architekturen aufgebaut haben, die an neue Entwicklungen nur mit großem Aufwand anpassbar sind. Hier ist der Vorteil von StartUps, dass sie auf einer grünen Wiese beginnen können und über weniger komplexe Organisationsstrukturen verfügen, die es jabei großen Unternehmen abzubilden gilt [Car04, S.127-129].
4. Die eigenen Schwächen fokussieren, nicht Chancen. Dieser Punkt geht davon aus, dass IT zunehmend Massenware wird. Wenn eine Ressource wie die IT zur Massenware geworden ist, obliegt sie nicht mehr der Kontrolle des Unternehmens. Die Vermeidung von Risiken, die durch diese Ressource entstehen können, werden dann wichtiger für das Unternehmen als das Gewinnen von strategischen Vorteilen durch diese Ressource [Car04, S. 108]. Carr vergleicht daher die IT mit dem Stromnetz. So sei die Vermeidung von Stromausfällen wichtig, das Erreichen von strategischen Vorteilen durch Stromnutzung wird aber kaum angestrebt werden. Risiken sieht Carr z.B. in der IT-Sicherheit. Nach Schätzungen wird jedes Jahr in 9 von 10 Unternehmensnetzwerken eingedrungen. Die Schäden, die hierbei z.B. durch Wirtschaftsspionage oder Viren u.ä. entstehen können, sind nur schwer zu beziffern. In diesem Zusammenhang würden auch die Fähigkeiten des IT-Stabs zunehmend wichtiger werden. Gleichzeitig würden die Stäbe für IT aber schrumpfen, da immer mehr Produkte und Entwicklungen von Händlern übernommen werden. Die Fähigkeiten müssten sich aber beim IT-Stab verbessern, da er besser mit den Software-Verkäufern verhandeln muss [Car04, S. 133].
[...]
1 Peter Clotten ist CIO bei Giesecke & Devrient
2 Um einige Beispiele zu nennen: [SG81], [Dea87], [RD90], [Hop90], [BJZ92], [Car03], [Jos04], [KB04]. Eines der bekanntesten Zitate dürfte dabei vom ehemaligen AirAmerica CIO Max Hopper kommen: „In this world [Hopper spricht von der Zukunft, in der immer mehr IT vernetzt und dezentralisiert ist], a company trumpeting the appointment of a new chief information officer will seem as anachronistic as a company today naming a new vice president for water and gas“ [Hop90].
3 Erst 2004 stiegen die IT-Investitionen wieder langsam an, nach dem sie 2001 das erste mal einbrachen [DSSW04]. Siehe auch [PS03, S. 230].
4 „Was man ernst nehmen muß, sind Fragen und Behauptungen über Tatsachen: Theorien und Hypothe- sen; die Probleme, die sie lösen; und die Probleme, die sie aufwerfen“ [Pop04, S. 20]. Das soll nicht heißen, dass Definitionen nicht wichtig wären, sie werden nur oft überschätzt. Keiner wird z.B. den Vor- teil einer Definition als Abkürzung oder Unterscheidung (Allein in der BWL gibt es unterschiedlichste Bedeutungen von „Prozess“) abstreiten [vS80, S. 26]. Vermieden werden sollen nur die Probleme, mit denen man zu tun hat, wenn man nach einer Letztbegründung für Definitionen sucht (Vgl. dazu Albert [Alb91, S. 15 ff.]). Gleiches gilt für unnötige Wortklaubereien, mit denen man sich nur vom eigentlichen Untersuchungsgegenstand entfernt.
5 Dieser Grundsatz bezieht sich nicht auf den bekannten Satz Einsteins, sondern auf Popper. Feyerabend kritisierte zwar die poppersche Aufforderung zur Einfachheit, trieb die Einfachheit selbst aber auf die Spitze durch einen möglichst lockeren und leicht lesbaren Schreibstil, der zumindest von dem Popper- Schüler Albert in einem Briefwechsel mit Feyerabend als Weiterentwicklung Poppers empfunden wur- de [Bau97]. Das soll aber nicht heißen, dass Dinge einfacher darstellt werden sollen als sie sind. Für die Forderung nach Einfachheit gibt es eine logische Begründung, denn je einfacher z.B. eine Theorie aufgebaut ist, desto einfacher ist sie überprüfbar, allein schon deshalb, weil sie von mehr Menschen verstanden werden kann. Der Grad der Überprüfbarkeit ist dabei umso höher, je höher die Anzahl der Basissätze ist, die nach der Theorie unmöglich sind [Pop05, S. 69 ff.]. Kurz: je mehr eine Theorie ver- bietet, desto leichter lässt sie sich überprüfen und desto gehaltvoller ist sie. Daher ist eine besonders gehaltvolle Theorie logisch betrachtet unwahrscheinlicher als eine weniger gehaltvolle [Pop05, S. 97], da mit wachsenden Gehalt die Zahl der Basissätze steigt, die im Widerspruch mit der Realität stehen können. Diese Forderung nach Überprüfbarkeit, die beinahe identisch mit der nach Einfachheit ist, ist deshalb von Bedeutung, da aus logischer Sicht ein Beweis, eine Verifizierung, eine endgültige Begrün- dung, usw. unmöglich ist [Pop05, S. 19 ff.]. Theorien können sich also nur bewähren, weshalb nach dieser Sicht ein Unterschied zwischen Theorie und Hypothese entfällt. Es soll dem Leser also nur das Auffinden von Fehlern so leicht wie möglich gemacht werden, da das Lernen aus Fehlern, aus Versuch und Irrtum eine der Hauptquellen für wissenschaftlichen Fortschritt ist. Aus Platzgründen wird auf ei- ne ausführliche und verständlichere Darstellung dieser Problematik verzichtet. Gute Kritik an dieser Auffassung findet man bei Paul Feyerabend, Imre Lakatos oder Herbert Keuth.
6 Natürlich wurde Carrs Artikel auch positiv aufgenommen, z.B. von Mieze [Mie04]
7 Dearden zieht allerdings andere Schlüsse aus seiner Analyse als Carr. Dearden setzt sich für eine Dezen- tralisierung des IT-Management ein (Was vermutlich daran liegt, dass sein Artikel mit dem Aufkommen der PCs zusammenfällt, die eine Dezentralisierung der IT ermöglichten), während bei Carr ein Unter- schied zwischen Zentralisierung oder Dezentralisierung keine Rolle spielt. Genaugenommen setzt er fast stillschweigend ein zentrales IT-Management voraus. Vgl. dazu auch Punkt 3.4 in Kapitel 3.
8 What you see is what you get
9 Gordon greift hier also auf das 1. Gossensche Gesetz (Gesetz vom abnehmenden Grenznutzen) zurück. Vgl. dazu z.B. [Cez05, S. 84 f.]
10 Da Carr an anderer Stelle Porters „Competitive Advantage“ zitiert, ist anzunehmen, dass er genau dessen Terminologie verwendet. Siehe dazu auch Punkt 2.2
11 Der Chairman von SHARE schrieb über IBMs erste Produktionscomputer 1956: „The vendor delivered [...] a number of copies of Principles of Operations (IBM Form 24-6024-1) of 103 pages (including 4 pages of octal-decimal conversion tables), a primitive assembler, and some utility programs (such as a one-card bootstrap loader, a one-card bootstrap clear memory, and the like). That was it“ [Arm80, S. 123].
12 Bis zum Jahre 1956 wurden ungefähr 300 Programme von den teilnehmenden Unternehmen in SHARE eingebracht. Welchen Verlauf SHARE danach nahm ist unklar, da es sich bei der Quelle [Arm80], die Champbell-Kelly [CK03] zitiert, die wiederum Carr [Car04] zitiert, um den Abdruck einer Arbeit von 1956 handelt. GUIDE soll zumindest in späteren Jahren in erster Linie ein Forum zum Austausch über IBMs Produkte gewesen sein.
13 Vgl. hierzu auch Schmidt und Seidels Vorstellungen in Kapitel 5
14 Ein ähnliches Beispiel wäre z.B. das Reisebuchungssystem CWT Connect des Reiseunternehmens Carlson Wagonlit Travel (siehe www.cwtconnect.com)
15 Porter nennt drei Fälle, in denen ein Unternehmen Kostenführerschaft und Differenzierung erreichen kann: Erstens, wenn die Wettbewerber mittelmäßig sind; Zweitens, wenn das Unternehmen über einen großen Marktanteil verfügt und Drittens, wenn das Unternehmen der Vorreiter in einer neuen Techno- logie ist [Por04, S. 19 f.]. Dennoch sei diese Strategie nicht ungefährlich, da ein Unternehmen nicht auf Dauer Anbieter von Premiumangeboten mit den niedrigsten Kosten in der Branche sein kann. Das soll nicht heißen, dass ein Premiumanbieter nicht möglichst Kosten sparen sollte, solange er nicht seine Differenzierung aufgibt. Oder dass ein Kostenführer nicht nach Differenzierungsmöglichkeiten suchen sollte, die nicht viel kosten [Por04, S. 20]. Neben diesen drei Strategien wird in der Literatur außer- dem die Strategie der Mass Customization behandelt (zu ihr nimmt aber keine der zitierten Studien Bezug, weshalb sie nur in dieser Fußnote kurz aufgegriffen wird). Nach Piller besteht diese Strategie in der gleichzeitigen Verfolgung der Kostenführerschaft- und Differenzierungsstrategie [Pil97, S. 15]. Die Verfolgung von einer von Porters Strategien reiche aufgrund der neuen Marktbedingungen nicht mehr aus, weshalb man nun nach Kostenführerschaft und Differenzierung streben sollte. Dies bedeutet, dass Porters Strategien ihre Gültigkeit verlieren würden, da sie Mass Customization ausschließen. Ein Nebeneinander dieser Strategien wäre eine logische Unmöglichkeit. Andererseits spricht Piller nur von einer relativen Kostenführerschaft und sein Beispiel der maßgeschneiderten Levis Jeans ist auch nicht die ausgeprägteste Differenzierungsform wie etwa eine Designerjeans. Daher liegt Mass Customization eher in der Mitte von beiden Strategien und erreicht bei gleichzeitiger Verfolgung beider Strategien bei guten Wettbewerbern zumindest keine der beiden Strategien (Der Verkaufspreis der Levis Jeans ist z.B. 20% höher als der einer herkömmlichen). Da Mass Customization in bestimmten Bereichen dennoch sehr erfolgreich ist, ist also eher zu fragen wann sich der Einsatz von Mass Customization lohnt. In allen Branchen ist Mass Customization nicht durchführbar, zumindest zurzeit nicht. In der Automobilbranche kann es z.B. zu Problemen kommen, vgl. dazu [AKM01]. Auch in allen Bereichen, in denen Bestellungen stark schwanken, kann es schnell zu Engpässen kommen, da man nicht auf Lager fertigen kann. In ande- ren Bereichen, z.B. im E-Business, scheint sie aber durchaus erfolgreich zu sein [GS02]. Die portersche Einteilung löst Mass Customization aber nicht auf. So basiert z.B. nach Porter der Wettbewerbsvorteil von Levis nur auf Technologie. Levis müsste sich daher nach Porter bei einer größeren Verbreitung die- ser Technologie mit der Zeit wieder an einer der drei im Text genannten Strategien (Kostenführerschaft usw.) orientieren. Alternativ könnte die Mass Customization auch „wegdefiniert“ werden, in dem man sie einfach als eine günstige Differenzierungsmöglichkeit eines Kostenführers ansieht, womit man sie wieder in Einklang mit Porter brächte. Individualisierung bietet ja schließlich einen zusätzlichen Nut- zen, der die höheren Kosten mehr als ausgleicht.
16 Switching-Costs sind die Kosten, die einem Kunden zusätzlich entstehen, wenn er zu einem anderen Anbieter wechselt. Z.B. der Kauf neuer Hardware, da der neue Anbieter eine andere Schnittstelle ver- wendet.
17 Auch „The create-capture-keep paradigm“ genannt.
18 Chen und Forman stellten fest, dass es Herstellern von Switches und Servern auch in einer Open-Source- Umgebung noch gelang, die Switching-Costs zu erhöhen. Gerade Hersteller wie Microsoft oder Cisco konnten durch diese Strategie die Verbreitung neuer Technologien anderer Hersteller verzögern und gewannen so Zeit, diese neue Technologien selbst in ihre Produkte zu implementieren[yCF06, S. 560 f.].
19 Die Studien sind [HB96] und [PH97], siehe dazu Punkt 2.3.2
20 Ohne Landwirtschaft.
21 Vgl. dazu Punkt 2.3.2, der sich noch einmal mit „Erklärungsversuchen des IT-Produktivitätsparadoxon“ auf Unternehmensebene auseinandersetzt
22 Allein von 1995-1998 sanken die Preise um knapp 28% pro Jahr, von 1990 bis 1995 waren es 15% pro Jahr [Sch00, S. 45]
23 „Die Erklärung eines bestimmten Ablaufs aus einer einzigen Ursache, eine mono-kausale Erklärung al- so, ist jedoch bei Vorgängen, die erfahrungsgemäß komplexer zu sein pflegen, nur selten stichhaltig“ [Gla65, S. 157]. Die teilweise verwendeten mono-kausalen Erklärungen unterstellt indirekt, dass Pro- fitabilitätssteigerungen nur auf den Faktor IT-Investition zurückzuführen sind. Aus diesem Grund ist es nicht verwunderlich, dass es bis heute viele, zum Teil sehr aufwendige Studien zu diesem Thema gibt, die zu unterschiedlichen Ergebnissen kommen.
24 Carr zitiert abermals aus diesem Zitat nur Teile und lässt den Satz „In fact, by not investing in IT and by foregoing the gains provided by it, a firm may, on the other hand, lose market share“ aus. Er erwähnt leider auch nicht das sehr interessante Fazit dieser Studie, das nicht einmal unbedingt mit Carr im Widerspruch steht: „This paper has shown the importance of IT labor in the overall productivity and profitability of the U.S. banking industry. Beyond the econometric analysis, the paper presents an explo- ratory investigation into what characteristics of a bank lead to effective use of IT labor. All of this analysis points to the need to continually invest in not only the technical skills of this work force, but their industry-specific knowledge as well. As the „process engineers“ of the organiza- tion, IT labor is crucial in the design, control, and execution of service delivery in banks. Thus, a key driver of efficiency and effectiveness in the industry in the management of the IT labor force and procurement process.“[PH97, S. 29]
25 Nach Klein [BBG+04].
26 Ein gutes Beispiel dürfte hier z.B. die Groupware Lotus Notes sein. In vielen Betrieben ist die Funktion SameTime von Lotus Notes deaktiviert. Dabei würde diese Funktionalität viele Kommunikationsprozesse bei flächendeckenden Einsatz beschleunigen. Dank des implementierten Chats ist die Kommunikation auch ungezwunger als im Schriftverkehr. Schon Fayol wollte am liebsten jeden Schriftverkehr abschaffen [Fay29, S. 33 f.] und durch persönliche Kommunikation ersetzen.
27 Dies scheint allerdings in dieser Ausprägung eher ein Problem der westlichen Welt zu sein. Den Japanern ist diese Technologieangst z.B. fremd.
28 Mit ihrem „their“ beziehen sich Smith und Fingar auf Carlota Perez und Chris Freeman. Das Buch ist aber nur von Carlota Perez verfasst. Perez und Freeman veröffentlichten allerdings 1988 gemeinsam den Aufsatz „Structural Crisis of Adjustment: Business Cycels and Investment Behavior“. Des Weite- ren argumentieren Smith und Fingar, dass z.B. das Eisenbahnnetz nach der Investitionsblase von 1847 noch erheblich ausgebaut wurde. Dieser Einwand ist aber irrelevant, da Perez nach der Phase der In- vestitionsblase quasi Phasen der Massenproduktion sieht. So gesehen ist der erhebliche Anstieg von Schienenkilometer nach 1847 durchaus mit Carr vereinbar [SF03, S. 53]. and that „the new way of doing things with the new technologies has become ’common sense’“ [Car04, S. 85].
29 Von Kuhn stammt auch der mittlerweile durch inflationären falschen Gebrauch zur Bedeutungslosigkeit verkommene Begriff des Paradigmenwechsels.
30 In diesem Punkt unterscheidet sich Perezs Paradigma vom Kuhnschen. Für Kuhn muss ein neues Paradig- ma nicht besser sein als das alte, er leugnet auch, dass es „definitiven Fortschritt gäbe, mehr noch: dass wir Fortschritt gar nicht genau bestimmen könnten“ [SR02, S. 158].
Häufig gestellte Fragen
Worum geht es in dieser Arbeit?
Diese Arbeit befasst sich mit dem Wandel „vom CIO zum CPO“ und untersucht die Hintergründe dieser Entwicklung. Es wird untersucht, was ein erfolgreiches IT-Management ausmacht, welche CPO-Konzepte es gibt, wann die Ernennung eines CPOs sinnvoll ist und ob es bereits CPOs in der Praxis gibt.
Was sind die Hauptfragen, die in der Arbeit behandelt werden?
Die Arbeit behandelt folgende Fragen: - Was macht Unternehmen mit erfolgreichem IT-Management aus? - Welche CPO-Konzepte gibt es? - Wann ist die Ernennung eines CPOs sinnvoll? - Gibt es schon CPOs in der Praxis?
Was ist die thematische Einleitung der Arbeit?
Die thematische Einleitung diskutiert die sich verändernde Bedeutung der IT für Unternehmen und die damit verbundene Rolle des CIO. Es werden Debatten um die Zukunft des CIO und der IT im Allgemeinen aufgegriffen, insbesondere im Kontext der Diskussionen, die durch Nicholas G. Carrs Aufsatz "IT Doesn't Matter" ausgelöst wurden.
Was ist das Solowsche Produktivitätsparadoxon?
Das Solowsche Produktivitätsparadoxon bezeichnet das Phänomen, dass sich der Einsatz von IT in den Statistiken nicht durch höhere Produktivität niederschlägt. Es wird untersucht, ob dieses Paradoxon durch den Dienstleistungssektor erklärbar ist und ob das Potential der IT noch nicht richtig genutzt wird.
Was sind Carrs Ideen zur IT als Massenware?
Carr argumentiert, dass IT zur Massenware geworden ist, da sie für alle Wettbewerber leicht verfügbar ist und sich kein Unternehmen durch IT langfristig von anderen Unternehmen unterscheiden kann. Er behandelt Hardware und Software getrennt und vergleicht den Datentransport mit dem Gütertransport über das Schienennetz oder der Energieversorgung durch das Stromnetz.
Was sind Carrs Konsequenzen für das IT-Management?
Carr empfiehlt dem IT-Management, Ausgaben zu senken, nicht die neuste IT-Technik zu verwenden, Eigenentwicklungen nur bei geringem Risiko zu betreiben und sich auf die eigenen Schwächen zu fokussieren, nicht auf Chancen.
Was sind die fünf Anzeichen dafür, dass die Ausbauphase der IT erreicht ist (IT buildout)?
Carr nennt fünf Anzeichen: IT bietet immer mehr Funktionalitäten, die der Nutzer eigentlich nicht braucht; IT ist günstig geworden, so dass sie sich jeder leisten kann; es steht mehr Bandbreite zur Verfügung als benötigt wird; große IT-Hersteller bieten immer mehr Dienstleistungen „on demand“ an; die Investitionsblase ist geplatzt.
Wie beeinflusst die Entwicklung vom CIO zum CPO die Aufgabenbereiche?
Der CIO soll seinen Aufgaben-, Kompetenz- und Verantwortungsbereich ausdehnen, sich stärker betriebswirtschaftlich engagieren, konsequent die IT an dem Unternehmen ausrichten und zum Gestalter werden. Er muss die Bedeutung des Geschäftsprozessmanagements erkennen, es zu seiner Kompetenz machen und im Unternehmen vorantreiben.
Welche CPO-Konzepte werden in der Arbeit behandelt?
Die Arbeit widmet sich den unterschiedlichen CPO-Konzepten, die man in der Literatur finden kann. Es wird in die CPO-Konzepte eingeführt, es werden aktuelle Statistiken zum CPO zitiert und es werden Faktoren aufgezeigt, die die Weiterentwicklung des CIOs zum CPO befördern könnten.
- Arbeit zitieren
- Max Doerfer (Autor:in), 2007, Vom CIO zum CPO, München, GRIN Verlag, https://www.grin.com/document/110794