Die hochzuverlässige Organisation im Kontext der PatientInnensicherheit in Krankenhäusern

Ein organisationstheoretischer Ansatz


Bachelorarbeit, 2020

75 Seiten, Note: 1.7

Anonym


Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1 Einleitung
1.1 Problemstellung
1.2 Zielsetzung und Aufbau der Arbeit

2 Der Begriff „zuverlässige Organisation“ und seine Grundlagen
2.1 Erklärungsversuche der Krisenforschung in der Literatur
2.2 Man-Made Disasters
2.3 Normal Accidents Theory (NAT)
2.4 High Reliability Organizations (HROs)

3 Die Grenzen der Theorie der High Reliability Organizations
3.1 Die Begriffe der High Reliability Organizations und der Zuverlässigkeit
3.2 Auswahl der untersuchten Organisationen
3.3 Sicherheit als Unternehmensziel
3.4 Redundanzen
3.5 Fokus auf Technik

4 Anwendbarkeit der HRT in Krankenhäusern im Sinne einer Erhöhung der PatientInnensicherheit
4.1 Hochzuverlässigkeit in Krankenhäusern
4.2 Voraussetzungen für die Übertragung des HRO-Ansatzes
4.2.1 Die Rolle der Führungskräfte
4.2.2 Entwicklung einer Sicherheitskultur

5 Entwicklung der PatientInnensicherheit

6 Fehlerkultur in Krankenhäusern
6.1 Zuverlässigkeitsmanagement im Krankenhaus
6.2 Aufbau der Umfrage
6.3 Umfrageergebnisse
6.4 Zusammenfassung

7 Fazit

Literaturverzeichnis

Anhang

Abbildungsverzeichnis

Abbildung 1: Vier-Felder-Matrix

Abbildung 2: Die fünf Prinzipien der Zuverlässigkeit

Abbildung 3: High Reliability Organisation im Krankenhaus

Abbildung 4: Matrix unterschiedlicher Fehlerkulturausprägungen

Abbildung 5: Reifegrade einer Sicherheitskultur im Krankenhaus

Abbildung 6: Die fünf Prinzipien der Zuverlässigkeit

Abbildung 7: Umfrageergebnis von Frage 6

Abbildung 8: Umfrageergebnis von Frage 4

Abbildung 9: Umfrageergebnis von Frage 14

Abbildung 10: Umfrageergebnis von Frage 13

Abbildung 11: Umfrageergebnis von Frage 12

Abbildung 12: Workload Management

Abbildung 13: Umfrageergebnis von Frage 23

Abbildung 14: Umfrageergebnis von Frage 32

Abbildung 15: Die fünf Prinzipien der Zuverlässigkeit

Tabellenverzeichnis

Tabelle 1: Prozessverlauf von Unfällen und Katastrophen

Tabelle 3: Vergleich Training und Systemsicherheit in der Luftfahrt und der Medizin

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Eine Studie der OECD1 2 stellt in einem weltweiten Vergleich der Gesundheitssysteme fest, dass das deutsche Gesundheitssystem nicht zur Spitzengruppe gehört. Nach erheblichen Verbesserungen zwischen 2000 und 2016 belegte Deutschland Rang 23 (vgl. OECD 2019), allerdings geht aus der Studie deutlich hervor, dass die Effizienz des Gesundheitssystems nicht ausreichend sei. Demzufolge liegt in Deutschland die Zahl vermeidbarer und behandelbarer Todesursachen (Rang 16, 2016) leicht unter dem EU-Durchschnitt, aber signifikant höher als in anderen westeuropäischen Ländern (vgl. OECD 2019: S. 12).

Ob Keime, falsch durchgeführte Operationen, falsche Medikation oder Hygienemängel - Gesundheitssysteme haben mit spezifischen Problemen zu kämpfen, die besonders in Zeiten wie diesen, geprägt durch die Covid-19-Pandemie, ersichtlich werden. Im europäischen Vergleich wird deutlich, dass sich einige Länder durch besondere präventive Maßnahmen von der „Masse“ abheben (vgl. OECD 2019). Ein Beispiel sind die Niederlande, die durch die Institutionalisierung von klinischen MikrobiologInnen in Krankenhäusern mit einer Intensivstation nahezu keimfrei arbeiten und somit weniger Todesfälle aufgrund multiresistenter Keime zu verzeichnen haben (vgl. Donner 2017).

Isolierte Maßnahmen wie die erwähnte genügen nicht, wenn eine Verbesserung der PatientInnensicherheit erzielt werden soll. Vielmehr müssen Prozesse und organisatorische Abläufe angepasst werden, um eine Struktur zu erreichen, die Krankenhäuser zu eine zuverlässigen bzw. zuverlässigeren Organisationen werden lässt. Im Bereich der Organisationtheorien bietet die „High Reliability Theory (HRT)“ einen interessanten Ansatz, wenn es darum geht, die nötige Effizienz zu erreichen und eine Organisation dazu zu befähigen, sich überhaupt diesem Ziel zu nähern.

Die High Reliability Organizations, kurz HROs genannt, sind Organisationen, die für ihre geringe Fehlerquote bekannt sind. Es treten weniger Fehler, Störungen und Unfälle auf, als statistisch zu erwarten ist. HROs sind in der deutschen Literatur unter „Hochzuverlässigkeitsorganisationen“ (HZO) bekannt. Sie beschäftigen sich mit Prozessen, die einen permanenten Fokus auf Ausfälle haben. Dies wird durch die Auseinandersetzung mit Fehlern, die Analyse betrieblicher Abläufe und die Vereinfachung von Prozessen gewährleistet. Die HRO lässt durch diese Integration Ausfälle erkennbarer werden. Prozesse, die eine zuverlässige Leistung zu gewährleisten, sind zwar aufwändig, stellen aber sicher, dass Ausfälle schon in frühen Entwicklungsstadien identifiziert und durch Antizipation sowie Eindämmung der Ereignisse gravierende Folgeschäden bzw. Katastrophen verhindert werden (vgl. Weick; Sutcliffe 2016: S.31).

1.1 Problemstellung

Zur Veranschaulichung von hochzuverlässigen Organisationen ist es zwingend notwendig, sich im Vorfeld mit Unfällen, Katastrophen und dem Streben nach Zuverlässigkeit auseinanderzusetzen. Neben den „High Reliability Organizations“, welche sich zumeist nicht mit Ereignissen, sondern mit Organisationen, die als besonders zuverlässig gelten, befassen, haben Barry Turner und Charles Perrow sich dem Gebiet der Unfälle und Katastrophen gewidmet. Um die HRO-Forschung zu komplettieren, werden Man-made Disasters sowie die Normal-Accidents-Theorie im Rahmen dieser Thesis aufgearbeitet. Durch die genaue Abgrenzung wird ersichtlich, weshalb die HRO-Forschung in dem Bestreben, präventive Maßnahmen gegen scheinbar unvermeidliche Ereignisse zu ergreifen, eine wichtige Rolle einnehmen kann.

Die HRT-Forschung und die damit in Verbindung gebrachten Organisationen, die als besonders zuverlässig auffallen, beruhen auf der Arbeit des Forscherteams der University of California at Berkely aus dem Jahre 1984 (vgl. Roberts 1990: S.160 ff.). Vorherige Fallstudien widmeten sich fast ausschließlich der Analyse von bereits geschehenen Unfällen und Katastrophen (vgl. Perrow, 1984; Turner 1978) und nicht den zuverlässigen Organisationen.

Als Beispiele für bestehende HROs sind unter anderem Kernkraftwerke, Feuerwehrteams, Flugzeugträger und Flugsicherungsteams zu nennen (vgl. Roberts 1990: S. 160-176), die sich diesen organisationstheoretischen Ansatz zu Nutze gemacht haben, um Fehler, Störungen und Unfälle zu reduzieren. Im Ergebnis zeigt sich, dass die Zahl der Vorfälle nach Implementation der relevanten HRO-Prozesse deutlich unter der statistischen Eintrittswahrscheinlichkeit liegt.

Im Rahmen der HRO-Analyse ist deutlich geworden, dass sich die Anwendbarkeit auf reguläre Wirtschaftsunternehmen im Wettbewerbsumfeld als problematisch darstellt, da der Profit meistens der Sicherheit vorgezogen wird (vgl. Teichmann 2019: S. 1).

Aktionäre stehen in einer profitorientierten Unternehmung an erster Stelle und somit muss sich die Sicherheit dem Kostenfaktor oftmals unterordnen. Angesichts der Aktualität (Pandemie) der Thematik erweist sich eine Untersuchung der Anwendbarkeit der HRO auf das Gesundheitssystem als sehr interessant.

An dieser Stelle könnte natürlich das Argument aufgeworfen werden, dass ein Teil der 2017 in Deutschland vorzufindenden 1942 Krankenhäuser mittlerweile privatisiert ist, nämlich 37,5 Prozent (vgl. Statista 2020) und somit sehr wohl auch an einer Gewinnmaximierung interessiert ist, was die immer geringere Dichte an Pflegepersonal etc. verdeutlicht - dennoch unterscheiden sich diese Institutionen signifikant von klassischen Wirtschaftsunternehmen.

So ist das das Gesundheitswesen kein Markt im herkömmlichen Sinn, da es sich nicht um ein selbstregulierendes System handelt, in dem die Preisbildung von Angebot und Nachfrage gesteuert wird. Darüber hinaus herrscht keine Investitionsautonomie der Anbietenden. Diese wird ersetzt durch öffentliche Planungs- und Bedarfsdeckungsverfahren, welche verbunden sind mit rechtsmittelfähigen Entscheidungen. Zu der fehlenden Investitionsautonomie der Anbietenden kommt hinzu, dass es den Nachfragenden an Markttransparenz mangelt. Dies wird durch eine fehlende Konsumfreiheit, Vertragsfreiheit und Kundenautonomie deutlich. Eine freie Inanspruchnahme von Gesundheitsleistungen und vor allem auch Freiheit in der Entscheidung, von welchem Anbietenden man eine Leistung beziehen möchte, sind in der Regel nicht gegeben (vgl. Obst 2012: S. 1).

Das Anrecht auf gesundheitliche Versorgung und Vorsorge findet jedoch als Daseinsvorsorge Eingang in die gesellschaftliche Realität. Daseinsvorsorge meint in diesem Zusammenhang die Verpflichtung des Staates, Leistungen zugunsten des Einzelnen zu erbringen, zu einer zumutbaren (monetären) Gegenleistung (vgl. Obst 2012: S. 1).

Dies zeigt, dass Gesundheitseinrichtungen - ob staatlich, privatisiert oder in Trägerschaft - eine deutlich höhere gesellschaftliche Verantwortung tragen als die meisten am Markt agierenden Unternehmen.

In der HRO-Theorie werden, wie eingangs erwähnt, vor allem Atomkraftwerke, Flugzeugträger, Flugsicherung etc. genannt. In ihrem sozialen und politischen Umfeld sind die verrichtete Arbeit sowie die eingesetzte Technologie hoch risikoreich und besitzen ein hohes Fehlerpotenzial, welches eine Bedrohung für Mensch und Umwelt darstellt. Die Konsequenz von möglichen Fehlern, in dem Fall die Bedrohung von Menschenleben, ist so enorm, dass kein Spielraum für das Lernen durch Experimente vorhanden sein sollte (vgl. Borgert 2013: S. 30).

Dieses und nichts anderes sollte das Ziel des Gesundheitssystems bzw. der Krankenhäuser sein, weshalb sich die Prüfung der Anwendbarkeit der HRO in diesem Bereich deutlich besser eignet als in Bezug auf ein am freien Markt agierendes Wirtschaftsunternehmen.

1.2 Zielsetzung und Aufbau der Arbeit

Das Ziel dieser Bachelorthesis ist es, zu untersuchen, ob der organisationstheoretische Ansatz der hochzuverlässigen Organisation auf das Krankenhausmanagement übertragbar ist und ob dieser durch eine Minimierung oder Reduzierung der Fehlerquote zu einer Verbesserung der PatientInnensicherheit beitragen kann. Im Kern stellt sich die Frage, ob Krankenhäuser als hochzuverlässige Organisationen agieren bzw. bestimmte Ansätze der High Reliability Theory umsetzen könnten, um die oben genannten Probleme zu verringern.

Um sich der Fragestellung zu nähern, erfolgen zunächst eine historische Herleitung sowie theoretische Erläuterung der HRT-Forschung mit Schwerpunkt auf hochzuverlässige Organisationen.

Anhand der Ergebnisse einer qualitativen literarischen Inhaltsanalyse sowie einer Umfrage unter Krankenhauspersonal soll die folgende Forschungsfrage beantwortet werden:

Ist der organisationstheoretische Ansatz der hochzuverlässigen Organisation auf Krankenhäuser übertragbar und kann dieser zu einer Verbesserung der PatientInnensicherheit beitragen?“ Es wird erwartet, dass die HRO-Ansätze den Ergebnissen zufolge zu einer deutlichen Minimierung der Fehlerquote im Gesundheitssystem führen können. In diesem Zusammenhang sollen etwaige Umsetzungsprobleme dargestellt sowie die Grenzen der Theorie aufgezeigt werden.

Im folgenden Gliederungspunkt erfolgen eine Bestimmung des Begriffs der Zuverlässigkeit und eine Darlegung der theoretischen Grundlagen einer HRO. In diesem Zusammenhang werden zwei weitere Theorieansätze hinzugezogen, die die Entwicklung der HRT determiniert haben: die Theorie der „Man-Made Disasters“ von Barry Turner sowie die „Normal Accident Theory“ (NAT) von Charles Perrow.

2 Der Begriff „zuverlässige Organisation“ und seine Grundlagen

Um sich der Thematik der Zuverlässigkeit zu nähern, ist es von großer Bedeutung, im Vorfeld zu klären, was in diesem Zusammenhang mit „Zuverlässigkeit“ gemeint ist. Dies ist vor allem deswegen relevant, weil Unternehmen, die als hochzuverlässig gelten, von regulären Unternehmen abzugrenzen sind.

Die HRT-Forschung und die damit in Verbindung gebrachten Organisationen, die als besonders zuverlässig auffallen, gehen auf die Arbeit eines Forscherteams der University of California at Berkely aus dem Jahre 1984 zurück (vgl. Roberts 1990: S. 160 ff.). Vorherige Fallstudien widmeten sich fast ausschließlich der Analyse von bereits geschehenen Unfällen und Katastrophen (vgl. Perrow 1984) und nicht den zuverlässigen Organisationen.

Eine genau Definition existiert in der HRT-Forschung nicht. Nach aktuellem Stand sind Organisationen dadurch gekennzeichnet, dass diese über einen längeren Zeitraum schlichtweg keine Fehler machen (vgl. Roberts; Stout; Halpern 1994: S. 615), was keine theoretische Begriffsabgrenzung darstellt. Für eine erste Annäherung an eine Definition des Begriffs der Zuverlässigkeit wird zuerst die Begriffsbestimmung aus der Brockhaus­Enzyklopädie hinzugezogen:

„Zuverlässigkeit ist die Fähigkeit einer betrachteten Einheit (z.B. Bauelement, Gerät, Anlage oder System), eines Materials oder Verfahrens, innerhalb der vorgegebenen Toleranzen den durch den Verwendungszweck bestimmten Anforderungen, die an das Verhalten ihrer Eigenschaften während einer gegebenen Zeitdauer gestellt werden, zu genügen.“ (Brockhaus 2002)

Diese Definition ist sehr unpräzise, da die bestimmten Anforderungen nicht weiter ausgeführt werden und die vorgegebene Toleranz nicht eingegrenzt werden kann.

In der Praxis stellt eine Organisation, welche die branchenüblichen Sicherheitsanforderungen, vom Gesetzgeber in entsprechenden Auflagen festgehalten und mit dem aktuellen Wissensstand verknüpft, erfüllt, kein Problem dar. Wenn nun doch ein Unglück geschieht, welches von den betreffenden Regulierungsinstanzen und unabhängiger Expertise nicht vorhergesehen wurde, so müsste man die Organisation dennoch als zuverlässig einstufen (vgl. Gundel 2004: S. 31). In dem Fall liegt keine Zuverlässigkeit vor, sondern eine asymmetrische Informationsverteilung zwischen der zu regulierenden Organisation und der verantwortlichen Regulierungsinstanz (vgl. Laffont 1994: S. 510).

Denn nur die Betreiber können die tatsächliche Gefahr beurteilen, kennen den aktuellen Stand der erhältlichen Sicherheitssysteme und kommunizieren diesen nicht an Dritte. Die Asymmetrie geht einher mit schwachen behördlichen Auflagen, was eine geringe Prävention seitens der Betreiber zur Folge hat, obwohl diese trotz allem zuverlässig gehandelt haben (vgl. Gundel 2004: S. 31).

Toleranzen sind schwierig einzugrenzen und je nach Technologie individuell handzuhaben, denn je gefährlicher eine Technologie ist, desto höher ist das Fehlerrisiko bei zu hoher Toleranz. Somit stellt sich die Frage, ab welchem Grad an Fehlerfreiheit ein spezifisches System als hochzuverlässig klassifiziert werden kann oder nicht. Eine vollständige Sicherheit kann keine Organisation gewährleisten. Also ist es schlichtweg unmöglich, einen Bewertungsmaßstab zu bestimmen (vgl. Gundel 2004: S. 31).

Mit dieser Problemstellung hat sich Schauenburg (2004) auseinandergesetzt. Er stellt fest das die Definition von Zuverlässigkeit in der Literatur wenig verfolgt wird. Es werden meistens nur Organisationen herangezogen, die bereits über eine hohe Zuverlässigkeit verfügen. Daraus schließt er, dass sich die Präzisierung der Zuverlässigkeit sehr schwierig gestaltet. Schauenburgs Ansicht nach müssen Systeme interorganisatorisch verglichen oder ein System muss über einen festgelegten Zeitraum beobachtet werden. Des Weiteren wäre ein exogener Beurteilungsmaßstab eine Möglichkeit, die Leistung innerhalb eines Systems zu vergleichen. Dies führt allerding zu einer Problemverschiebung, weil auch für solch einen Maßstab keine Begründung vorliegt (vgl. Schauenburg 2004: S. 249-250).

Gundel (2004) treibt die Überlegungen von Schauenburg noch weiter voran und versucht mithilfe der 0-Ring-Theorie (vgl. Kremer 1993) eine abgeleitete Produktionsfunktion aufzustellen, um den Zuverlässigkeitsbegriff weiter einzugrenzen. Aber auch mit der Überlegung lässt sich das grundlegende Problem der richtigen Klassifizierung von Organisationen nicht lösen, sondern sie schafft nur eine weitere Annährung, wie die Erkenntnisse aller anderen HRO -Forschenden (vgl. Gundel 2004: S. 32).

Im Rahmen der Analyse wird jedoch deutlich, dass die HRO-Forschung als größten gemeinsamen Nenner die Zuverlässigkeit einer Organisation dann als gegeben ansieht, wenn deren Arbeit unter bestimmten Rahmenbedingungen zumindest als relativ zuverlässig erscheint (vgl. Gundel 2004: S. 32). Im Weiteren wird der Begriff auch in dieser Form verwendet.

2.1 Erklärungsversuche der Krisenforschung in der Literatur

Um zum Verständnis der High Reliability Theory beizutragen, wird zunächst auf die Theorie der „Man-Made Disasters“ sowie auf die „Normal Accident Theory“ eingegangen. Diese haben sich komplementär zu der HRT entwickelt und befassen sich primär mit Unfällen und Katastrophen. Die HRT-Forschung macht sich ihre Erkenntnisse zu Nutze und versucht nicht, das Entstehen von Unfällen oder Katastrophen zu erklären, sondern vielmehr, diese durch das Erreichen einer hohen Zuverlässigkeit zu vermeiden.

2.2 Man-Made Disasters

Neben den High Reliability Theory, welche sich zumeist nicht mit Ereignissen, sondern mit Organisationen, die als besonders zuverlässig gelten, auseinandersetzt, haben sich Barry Turner und Charles Perrow dem Gebiet der Unfälle und Katastrophen gewidmet.

Im Rahmen seiner Dissertation befasste sich Barr y Turner im Jahre 1976 mit deren Ursachen. Nach der Veröffentlichung von zwei Aufsätzen (vgl. Turner 1976a; 1976b) folgte das Buch „Man-Made Disasters“, welches als Meilenstein auf dem Gebiet der Krisenforschung gilt (Turner 1978). Der Autor wertet verschiedene Berichte von Unfällen aus und kommt zu der Überzeugung, dass die meisten die Folge von schlechtem Management und Informationsverarbeitungsproblemen seien. Turner baut seine theoretischen Ausführungen auf insgesamt dreizehn Unfällen und Katastrophen auf (vgl. Turner 1976b: S. 773).

Er entwickelte im Rahmen seiner Unfallstudien einen Prozessverlauf der Unfälle sowie Katastrophen mit sechs Stufen:

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Prozessverlauf von Unfällen und Katastrophen Quelle: Turner 1976a: S. 381.

Die erste Stufe beschreibt die Zeit vor dem Ereignis, in der alles seinem gewohnten Ablauf nachgeht. Es gibt kulturell akzeptierte Annahmen zu etwaigen Bedrohungen und Gefahren. Damit einhergehend werden bestimmte Verhaltensweisen, präventive Regelungen sowie festgelegte Vorschriften befolgt. Auf der zweiten Stufe, in der sogenannten Inkubationsperiode, summieren sich unbemerkte Ereignisse, die mit den üblichen Annahmen zur Entwicklung von Unfällen und Gefahren sowie Vermeidungsstrategien nicht übereinstimmen und vom Normalfall abweichen. Laut Turner bleibt diese Phase für die Verantwortlichen mangels Informationen unbemerkt und ohne Reaktionen (vgl. Turner 1976a: S. 758-760). In den untersuchten Fällen gab es neben den unvorhersehbaren Katastrophen, die in der Inkubationsperiode nicht verhindert werden konnten, auch Fälle, bei denen genug Ressourcen und Zeit vorhanden waren, um eine Katastrophe auf Stufe zwei zu einzudämmen. Turner führte das Fehlverhalten der Verantwortlichen auf folgende Fehler zurück (vgl. Turner 1976b: S. 759):

- Warnungen von Außenstehenden wurden gänzlich ignoriert, Situationen falsch eingeschätzt und theoretisch falsche Annahmen getroffen.
- Informationen waren nicht umfangreich genug aufbereitet oder es herrschte ein Informationsüberangebot.
- Informationen wurden von den Verantwortlichen schlichtweg ignoriert oder unterschätzt.
- Schutzmaßnahmen waren veraltet und nicht systemgerecht, sodass die Verletzung von Regularien als normal galt.

Mit Turners Fallstudien ließ sich ausnahmslos beweisen, dass die Verhaltensweisen der Verantwortlichen Auslöser bzw. mitverantwortlich für spätere Zwischenfälle waren (vgl. Turner 1976a: S. 389-390). Die Inkubationsperiode, der Zeitraum zwischen dem ersten Störfall und dem daraus resultierenden Unfall, betrug in den meisten Fallstudien mehr als drei Jahre (vgl. Turner 1976b: S. 761). Die Kausalkette der Inkubationsperiode kann somit tatsächlich durch mangelnde Informationsverarbeitung verursacht werden.

Die dritte Stufe beschreibt den Eintritt des Unfalls oder der Katastrophe. Er erfolgt immer unerwartet, bedingt durch die in Stufe zwei versäumten Vermeidungsstrategien. Die Ursachen sind entweder technischer oder sozio-technischer3 Natur (vgl. Turner 1976b: S. 761).

Die Katastrophe nimmt ihr komplettes Ausmaß auf der vierten Stufe an. Eine schnelle, meist kettenförmige Abfolge von Konsequenzen des auslösenden Ereignisses oder des parallelen Auftretens mehrerer Ereignisse, die überraschend die Intensität verstärken, tritt ein (vgl. Turner 1976b: S. 763).

Stufe fünf umfasst die Interventionen am Unglücksort, um den Personen- und Sachschaden, soweit die Situation es zulässt, einzudämmen. Vorher getroffene Annahmen und Theorien müssen durch das unerwartete Ereignis angepasst werden, um der Situation zielgerichtet begegnen zu können (vgl. Turner 1976b: S. 763). Vorherige Annahmen, die nicht mehr zeitgemäß sind für die eingetroffene Situation, können das Ausmaß der Katastrophe deutlich verschlimmern.

Auf der sechsten und letzten Stufe erfolgt eine Untersuchung der gesamten Katastrophe. Die resultierenden Ergebnisse sollen helfen, Gefahrenpotenziale in der Zukunft besser einzuschätzen und auszumerzen. Aus diesem Prozess gehen neue Regulierungen und die Anpassung von vorher getroffenen Annahmen hervor, die im besten Fall auf ähnliche Unfälle und Katastrophen präventiv wirken (vgl. Turner 1976b: S. 764).

Auf Grundlage seiner Untersuchungen kommt Turner abschließend zu dem Ergebnis:

“The overall findings reported here could be restated as the proposition that disasterprovoking events tend to accumulate because they have been overlooked or misinterpreted as a result of false assumptions, poor communications, cultural lag, and misplaced optimism.” (Turner 1976a: S. 395)

Turners Ergebnisse stützen sich auf 84 offizielle Unfallberichte der britischen Regierung (vgl. Turner; Pigeon 1997: S. 197-198).

In späteren Veröffentlichungen ergänzte er wiederholt seine Ausführungen um die Aussage, dass komplexe Systeme und Produktionseinrichtungen zu einer höheren Unfallwahrscheinlichkeit beitragen (vgl. Turner 1994a: S. 218-219). Damit bekräftigt Turner die Normal-Accidents-Theorie von Charles Perrow, die im nächsten Abschnitt erläutert wird. Trotz des Gefahrenpotenzials, welches von komplexen Systemen ausgeht, sind laut Turner organisatorisches Versagen und schlechtes Management die Hauptursachen aller Unfälle und Katastrophen (vgl. Turner 1994a: S. 215).

Voraussetzung der Prävention von Unfällen und Katastrophen sei ein effizientes System, welches ein umfangreiches Krisenmanagement gewährleiste. Außerdem könne mit angepassten Organisationsformen und Managementtechniken mangelnder

Informationsverarbeitung entgegengewirkt werden. Eine Ausrichtung der Katastrophenforschung auf aktuelle Unfallgeschehnisse und unerforschte Gebiete vermöge Probleme bei der Informationsverarbeitung zu beseitigen (vgl. Turner 1994a: S. 215-219; Turner 1994b: S. 31-38).

2.3 Normal Accidents Theory (NAT)

Charles Perrow (1984) veröffentlichte 1984 das Werk „Normal Accidents“, welches sich ebenfalls mit der Krisenforschung auseinandersetzt. In seinem Buch, welches den Begriff der N ormal Accidents Theory prägte, berichtet Perrow unter anderem über seine Erkenntnisse als Gutachter des damaligen „Three Mile Island“-Atomkraftwerk-Störfalls bei Harrisburg in den USA und analysiert darüber hinaus das Katastrophenpotenzial von chemischen Anlagen, des Flugverkehrs, der Marine und weiterer Beispiele (vgl. Perrow 2011). Perrows Kernaussage, vermittelt über die Normal Accidents Theory, ist, dass bei der Verwendung von risikoreicher Technologie Unfälle und Katastrophen unvermeidlich seien und selbst das beste Krisenmanagement diese nicht verhindern könne.

Dies trifft auf technische Systeme zu, welche eine hohe Komplexität sowie eine enge Kopplung aufweisen. Eine klare Definition der Begriffe nimmt Perrow in seinem Werk nicht vor. Er führt lediglich Beispiele an und schildert so, was er unter hoher Komplexität und enger Kopplung versteht. Perrow beschreibt komplexe Systeme als unter kontinuierlicher Nutzung und enger räumlicher Anordnung stehend und viele parallele Interaktionen zwischen zahlreichen Komponenten sowie den komplexen Austausch von möglich schadhaften Komponenten beinhaltend. Dadurch grenzt er komplexe Systeme von linearen Systemen ab. Zur Handhabung solcher komplexen Systeme werden spezialisierte Mitarbeitende und eine Vielzahl an Kontrollinstrumenten benötigt. Diese sind von abgeleiteten Informationen abhängig, weil durch die hohe Komplexität der Gesamtüberblick nicht gewährleistet ist. Dies führt dazu, dass kein Mitarbeiter oder keine Mitarbeiterin vollständige Kenntnis vom System hat (vgl. Perrow 1992: S. 128-129).

[...]


1 Organisation für wirtschaftliche Zusammenarbeit und Entwicklung.

2 Die Interaktion zwischen Menschen und Technik

3 In der ONR 49000 werden alle für das Risikomanagement und das Risikomanagementsystem benötigten Begriffe erläutert und so ein einheitliches Verständnis erzeugt.

Ende der Leseprobe aus 75 Seiten

Details

Titel
Die hochzuverlässige Organisation im Kontext der PatientInnensicherheit in Krankenhäusern
Untertitel
Ein organisationstheoretischer Ansatz
Hochschule
Hochschule Bremen
Note
1.7
Jahr
2020
Seiten
75
Katalognummer
V961016
ISBN (eBook)
9783346308436
Sprache
Deutsch
Schlagworte
HRO, High reliability Organization, Hochzuverlässig, Hochzuverlässige Organisation, HZO, Patientensicherheit, Krankenhaus, Krankenhäuser, Zuverlässig, Organisation, Man-Made Disasters, NAT, Normal Accidents Theory, Sicherheit als Unternehmensziel, HRT, Sicherheitskultur, PatientInnensicherheit, Patient, Zuverlässigkeitsmanagement, Katastrophen, Unfall
Arbeit zitieren
Anonym, 2020, Die hochzuverlässige Organisation im Kontext der PatientInnensicherheit in Krankenhäusern, München, GRIN Verlag, https://www.grin.com/document/961016

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Die hochzuverlässige Organisation im Kontext der PatientInnensicherheit in Krankenhäusern



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden