(Endlich) Aus Fehlern lernen. Der Wunsch nach einer neuen Sicherheitskultur in der Patientenversorgung


Bachelorarbeit, 2015

57 Seiten, Note: 1,5


Leseprobe

Inhaltsverzeichnis

Abkürzungsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

1. Einleitung
1.1 Fragestellung und methodisches Vorgehen
1.2 Aufbau der Arbeit
1.3 Bislang genommene Meilensteine in der Patientensicherheit
1.4 Definitionen

2. Wie entsteht eine Sicherheitskultur
2.1 Entwicklungsmodell der Sicherheitskultur der Internationalen Atomenergiebehörde (IAEA)
2.2 Das Reifegradmodell der Sicherheitskultur

3. Sicherheitskulturmodell nach Reason

4. Fehlerquellen im Krankenhaus
4.1 Merkmale komplexer Systeme
4.1.1 Situationsmerkmale
4.1.2 Handlungsanforderungen
4.2 Auslösende Ereignisse
4.2.1 Arbeitsumfeld
4.2.2 Teamfaktoren
4.2.3 Arbeitsbezogenen Faktoren
4.2.4 Patientenbezogene Faktoren
4.3 Human Factors
4.3.1 Physiologische und biologische Faktoren
4.3.2 Begrenztes individuelles Wissen, Fertigkeiten und Fähigkeiten
4.3.3 Probleme der menschlichen Informationsverarbeitung und Motivationsregulation
4.4 Hierarchie und Führungsverhalten

5. Instrumente einer erfolgreichen Sicherheitskultur
5.1 Critical Incident Reporting System
5.2 Crew/Crisis Resource Management
5.3 Simulation und Teamtraining
5.4 Debriefing
5.5 Checklisten

6. Implementierung einer konstruktiven Fehlerkultur

7. Diskussion und Ausblick

Literaturverzeichnis

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 1: Fehlerklassifikation (mod. nach Reason 1990; vgl. St. Pierre et al. 2011: 43)

Abbildung 2: Modell der Fehlerentstehung nach Reason (vgl. Patientensicherheit-online.de 2014)

Abbildung 3: Grundlegende Faktoren die sich bei der Bildung mentaler Modelle gegenseitig beeinflussen. (eigene Darstellung, vlg. St. Pierre et al. 2012: 92)

Abbildung 4: Funktionsschema eines CIRS nach Rohe, Thomeczek 2008 (eigene Darstellung, vgl. Hart et al. 2009: 12)

Abbildung 5: Phasen und idealtypische Aufgaben des Wandlungsmanagements. (eigene Darstellung, vgl. Krüger, Petry 2005: 14)

Tabellenverzeichnis

Tabelle 1: Reifegradmodell der Sicherheitskultur (eigene Darstellung, vgl. St. Pierre et al. 2011: 252 f.)

Tabelle 2: Merkmale von Komplexität (eigene Darstellung, vgl. St. Pierre et al. 2011: 26)

Tabelle 3: Fixierungsfehler und ihre Bedeutung, (eigene Darstellung, vgl. St. Pierre et al. 2011: 96 in Anlehnung an DeKeyser u. Woods 1990)

Tabelle 4: Ebenen der Fehlervermeidung und dazugehörige Instrumente. (eigene Darstellung)

Tabelle 5: 15 CRM-Leitsätze nach Rall u. Gaba (eigene Darstellung, vgl. Rall, M.; Gaba, D.M. 2009)

1. Einleitung

„Gesundheitswesen ohne Sicherheitskultur“: „Unzumutbar hohe Fehlerrate / Versagen des Systems / Andere Industriezweige als Vorbild“ (FAZ 2000: N1).

So schrieb die Frankfurter Allgemeine Zeitung am 05. 01. 2000 in Anlehnung an den amerikanischen Bericht „To Err Is Human/Building a Safer Health System“. „To err is human“ war einer der ersten veröffentlichten Berichte (1999 in den USA) über die vermeidbaren und unerwünschten Ereignisse, an denen der Analyse nach 44.000-98.000 Patienten jährlich in den USA versterben (vgl. Valentin 2004: 63). Aktuelle Zahlen für Deutschland lieferte der AOK-Bundesverband am 21.01.14 mit dem alljährlichen Krankenhausreport 2014. Darin geht man von 19.000 Todesfällen durch Behandlungsfehler pro Jahr in der Bundesrepublik aus. Bei etwa fünf bis zehn Prozent aller Krankenhausbehandlungen findet ein unerwünschtes Ereignis statt (vgl. AOK-Bundesverband 2014: 1).

Der Leiter des Instituts für Gesundheitssystemforschung (Universität Witten/Herdecke) Prof. Max Geraedts erläutert in seinem Statement zum aktuellen Krankenhausreport, dass knapp die Hälfte der unerwünschten Ereignisse vermeidbar wären. „Für Krankenhäuser lohnt es sich also, zum Wohle des Patienten in die Patientensicherheit und Vermeidung von Fehlern zu investieren.“ (Geraedts 2014: 2) Weiter fordert er, dass Krankenhäuser noch stärker für das Thema Fehlerkultur sensibilisiert werden müssen (vgl. Geraedts 2014: 2).

Krankenhäuser stellen von Natur aus hochkomplexe und vulnerable Systeme dar. Die verschiedensten Fachdisziplinen mit ihren unterschiedlichen Berufsgruppen sind an der Patientenversorgung beteiligt und verfolgen ihre individuellen Ziele. Faktoren wie Kostendruck, Zeitnot, umfangreiches technisches Equipment das beherrscht werden muss, und vor allem Personalmangel erhöhen die Fehlerwahrscheinlichkeit (vgl. Kahla-Witzsch, Platzer 2007: 30 f.). Zusätzlich kommt es in der Medizin, ähnlich wie in anderen Hochrisikobereichen regelhaft zu sogenannten „ad-hoc-Situationen“ (vgl. Burghofer, Lachner 2012: 9), das heißt, ein Team muss schnell und effektiv miteinander kommunizieren und reagieren, um die Situation bestmöglich bewältigen zu können. All diese Umstände machen die sichere Patientenversorgung vielschichtig, kompliziert und vor allem anfällig für Fehler oder Zwischenfälle.

Ein weiterer wichtiger Bestandteil einer Sicherheitskultur ist der Umgang mit Fehlern bzw. Zwischenfällen. In der Medizin wird immer noch sehr oft mit der Frage „Wer war das?“ reagiert und die Betroffenen werden direkt beschuldigt. Daraus resultiert das häufige Phänomen, dass begangene Fehler nicht bearbeitet werden (vgl. Hauke 2005: 11). Von zahlreichen Autoren wird daher eine Abkehr von der bislang propagierten „Null-Fehler-Kultur“ bzw. einer Verurteilung von Fehlern (Culture of Blame) hin zu einer offenen Sicherheitskultur gefordert (vgl. Löber 2012: 3). Häufig handelt es sich bei unerwünschten Ereignissen oder Zwischenfällen um eine Kaskade verschiedenster Faktoren, die zur Fehlerentstehung beigetragen haben. Eine neue multifaktorielle Sicherheitskultur, die mit Fehlern offen umgeht, ist nötig (vgl. Borgwart, Kolpatzik 2010: VII)! Krankenhäuser müssen, um Patientensicherheit zu gewährleisten, eine funktionierende Sicherheitskultur entwickeln. Diese Sicherheitsarbeit muss zu einer dauerhaften und funktionsübergreifenden Steuerungsaufgabe für Krankenhäuser werden (vgl. St. Pierre et al. 2011: 249).

Das Konzept der Sicherheitskultur wurde nach dem Reaktorunglück 1986 in Tschernobyl, Russland von der Internationalen Atomenergiebehörde (IAEA) der Öffentlichkeit vorgestellt. Dieses Konzept findet mittlerweile nicht nur in der kerntechnischen Industrie allgemeine Aufmerksamkeit, sondern wurde auch auf viele weitere Hochrisikobereiche übertragen (vgl. Badke-Schaub et al. 2012: 31). Das Konzept der Sicherheitskultur umfasst folgende Dimensionen: Management, Führungsebenen, Teams und Instrumente (vgl. Badke- Schaub et al. 2012: 177). Im Verlauf dieser Arbeit wird es um genau diese Faktoren der Sicherheitskultur gehen.

1.1 Fragestellung und methodisches Vorgehen

Das zentrale Thema in der vorliegenden Arbeit wird sein: (Endlich) Aus Fehlern lernen - der Wunsch nach einer neuen Sicherheitskultur in der Patientenversorgung.

Diese Bachelorarbeit wurde als Literaturarbeit durchgeführt. Es erfolgte eine umfassende Literaturrecherche in wissenschaftlichen Fachzeitschriften -Datenbanken und der Fachliteratur. Die Ergebnisse der Literaturrecherche wurden zusammengefasst, analysiert und Empfehlungen für eine erfolgreiche Sicherheitskultur wurden abgeleitet.

Ziel der Arbeit ist es, den Begriff der „Sicherheitskultur“ und den damit verbundenen notwendigen Kulturwandel im „Gesamtsystem Krankenhaus“ zu erläutern. Es wird der Frage nachgegangen, warum sich dieser kulturelle Wandel in der Krankenhausstruktur nur langsam und schleppend vollzieht. Des Weiteren sollen grundlegende Konzepte und Instrumente für eine erfolgreiche Sicherheitskultur vorgestellt und analysiert werden.

1.2 Aufbau der Arbeit

In der Einleitung wurde der Aufbau, die Fragestellung und das methodische Vorgehen beschrieben, zudem werden kurz die genommenen Meilensteine der Patientensicherheit und einige ausgewählte Definitionen erläutert.

Der Hauptteil besteht aus Kapitel 2, in dem es um die Entstehung und Modelle einer Sicherheitskultur geht, Kapitel 3 mit dem Sicherheitskulturmodell nach Reason und Kapitel 4 und 5, die die vielfältigen Fehlermöglichkeiten im Kontext Krankenhaus, sowie Instrumente einer erfolgreichen Sicherheitskultur behandeln.

Zu dem sich anschließenden Schlussteil gehören Kapitel 6 und 7, in denen es um die Möglichkeiten zur Implementierung einer Sicherheitskultur im Krankenhaus geht und die eine Diskussion der Autorin sowie einen Ausblick enthalten.

1.3 Bislang genommene Meilensteine in der Patientensicherheit

Nachfolgend sollen exemplarisch einige nationale und internationale Entwicklungsschritte im Bereich der Patientensicherheit skizziert werden.

1999: „To Err is Human -Building a Safer Health System“ wird vom Institute of Medicine, USA veröffentlicht.

2003: Der Sachverständigenrat zur Begutachtung der Entwicklung im Gesundheitswesen bringt ein Gutachten mit dem Titel „Fehler in der Medizin -Ursachen, Vermeidungsstrategien und patientenorientierte Schadensregulierung“ heraus (vgl. SVR Gesundheit 2014).

2004: Die WHO beschließt die Weltallianz für Patentenrechte (World Alliance of Patient Safety) mit dem Ziel, die Sicherheit der Patienten zu gewährleisten (vgl. WHO 2014).

2005: Gründung des Aktionsbündnisses für Patientensicherheit (vgl. Aktionsbündnis Patientensicherheit 2014).

2009: Empfehlungen des Rates der Europäischen Union zur Sicherheit der Patienten unter Einschluss der Prävention und Eindämmung von therapieassoziierten Infektionen (vgl. Rat der Europäischen Union 2014).

2009: Gründung des Instituts für Patientensicherheit an der Universität Bonn mit dem Forschungsschwerpunkt Patientensicherheit (vgl. Institut für Patientensicherheit 2014).

2012: Das „European Union Network for Patient Safety and Quality of Care (PaSQ)“ ist eine Joint Action mit dem Ziel, die Zusammenarbeit zwischen den europäischen Mitgliedsstaaten in den Bereichen Patientensicherheit und Qualität in der Gesundheitsversorgung zu fördern (vgl. PaSQ 2014).

2013: Das Patientenrechtegesetz der Bundesrepublik tritt in Kraft. In diesem werden die Patientenrechte gebündelt und die Stellung des Patienten im Gesundheitssystem gestärkt (vgl. Patientenrechtegesetz 2014).

1.4 Definitionen

Es existieren vielfältige Definitionen für den Begriff „Fehler“. Das Aktionsbündnis Patientensicherheit e.V. stellt einige Definitionen zur Verfügung die von der Fachpresse regelmäßig zitiert werden. So definiert das Aktionsbündnis Fehler als: „Eine Handlung oder ein Unterlassen bei dem eine Abweichung vom Plan, ein falscher Plan oder kein Plan vorliegt. Ob daraus ein Schaden entsteht, ist für die Definition des Fehlers irrelevant.“ (Aktionsbündnis Patientensicherheit 2014) St. Pierre unterscheidet Fehler in ihrer Definition mit der Sichtweise auf Konsequenzen (Fehler werden als falsches Ergebnis betrachtet) oder mit der Suche nach den Ursachen (Fehler als falsche Handlung).

Mit der Definition des Aktionsbündnisses ist der Blick auf die Ursache gerichtet. Hier ist es von Bedeutung, warum etwas geschieht, und weniger das Ergebnis oder die Konsequenzen (vgl. St. Pierre et al. 2011: 40). Auch wird beigefügt, dass es für die Definition des Fehlerbegriffs nicht von Bedeutung ist, ob ein Schaden eingetreten ist.

Als weiteres wird Patientensicherheit definiert als „Abwesenheit unerwünschter Ereignisse“- (Aktionsbündnis Patientensicherheit 2014). Einflussfaktoren auf die Patientensicherheit stellen Mensch, Technik und Organisation dar, sowie die Beziehungen der Menschen innerhalb des Systems (vgl. Badke-Schaub et al. 2012: 236 f.). Damit kommen eine Reihe verschiedenster Faktoren in Betracht, die diese Patientensicherheit gefährden könnten.

Das Aktionsbündnis stellt vier weitere Definitionen von Schlüsselbegriffen für ein systematisches Verständnis zur Verfügung. So wird ein „unerwünschtes Ereignis“ (engl.: adverse event) als eine Schädigung beschrieben, die durch eine Behandlung entsteht und nicht auf der Erkrankung des Patienten beruht. Diese Schädigung kann vermeidbar oder unvermeidbar sein (vgl. Aktionsbündnis Patientensicherheit 2014).

Ein „vermeidbares unerwünschtes Ereignis“ (engl.: preventable adverse event) ist demzufolge ein unerwünschtes Ereignis, das vermeidbar ist (vgl. ebenda) und das sogenannte „kritisches Ereignis“ (engl.: critical incident) wird als ein Ereignis definiert, das zu einem unerwünschten Ereignis führen könnte oder dessen Wahrscheinlichkeit deutlich erhöht (vgl. ebenda). Der „Beinahe-Schaden“ (engl.: near miss) umfasst einen Fehler ohne Schaden, der zu einem Schaden hätte führen können (vgl. ebenda).

2. Wie entsteht eine Sicherheitskultur

Sicherheit gehört zu den grundlegendsten Bedürfnissen von Menschen. Belyova und Banse stellen die Frage: „Wenn Sicherheit eine so wichtige Rolle in unserem Leben einnimmt, wieso ist ihre Vernachlässigung kein Einzelfall?“ (Belyova, Banse 2013: 22) Diese Wichtigkeit wird häufig immer erst dann präsent, wenn es zu spät ist (vgl. Belyova, Banse 2013: 22). Wie in der Einleitung beschrieben, hat sich das Modell der Sicherheitskultur entwickelt, nachdem es beim Reaktorunglück in Tschernobyl zu einer Katastrophe kam, die tausende von Menschen betraf.

In der Ölindustrie rüttelten Unglücksfälle, wie die umgestürzte Plattform „Alexander Kielland“ in Norwegen und 1988 die Explosion der Plattform „Piper Alpha“ in der Nordsee, die Öffentlichkeit auf. Ein Umdenken in der chemischen Industrie in Deutschland wurde durch die Störfälle von Griesheim und Höchst eingeleitet (vgl. Badke-Schaub et al. 2012: 251).

Sicherheitskultur umfasst theoretische wie auch praktische Aspekte. Auf der theoretischen Ebene geht es um Vorschriften, Anweisungen und Regeln. Die praktische Ebene macht die Überzeugung und Akzeptanz der Sicherheitskultur aus. Eine gelebte Sicherheitskultur wird von allen Mitgliedern einer Organisation akzeptiert, aufrechterhalten und verbessert (vgl. Belyova, Banse 2013: 25 f.). Wichtig ist dabei, dass dieses über alle Hierarchiestufen hinaus gilt und alle Beteiligten mitwirken (vgl. ebenda). Nach Belyova und Banse meint Sicherheitskultur nicht nur den einen Idealzustand, sondern einen sich ständig an neue Anforderungen anpassende und fortlaufenden Prozess, wie der PDCA-Zyklus nach E. Deming.

Dieser PDCA-Zyklus (auch Qualitätskreislauf oder Deming-Rad genannt) steht für die englischen Begriffe Plan, Do, Check und Act (vgl. Farin-Glattacker 2012: 11 ff.).

Plan: Der momentane Zustand wird ermittelt, es wird ein Plan erstellt und die Ziele werden definiert.

Do: Das erstellte Konzept wird realisiert.

Check: Der Erfolg und die Wirksamkeit der Maßnahmen werden überprüft und gemessen.

Act: Es können nun Konsequenzen gezogen, daraus gelernt und der Plan optimiert werden (vgl. ebenda).

Der Ablauf ist als Zyklus zu verstehen. Es erfolgt ein erneuter PDCA-Zyklus zur weiteren Verbesserung oder wenn das gewünschte Ziel unerreichbar blieb (vgl. ebenda). Somit entwickelt sich eine gelebte und effektive Sicherheitskultur schrittweise und fortlaufend weiter.

Es gibt verschiedene Modelle zur Entwicklung und Verbesserung einer Sicherheitskultur. Einige Modelle betonen Verhaltensaspekte, andere verfolgen Qualitätsmanagementansätze (vgl. Fahlbruch et al. 2008: 53). In dieser Arbeit sollen zwei Modelle zur Entwicklung einer Sicherheitskultur vorgestellt werden. Das Entwicklungsmodell der Sicherheitskultur der IAEA (Internationale Atomenergiebehörde) und das Reifegradmodell der Sicherheitskultur.

2.1 Entwicklungsmodell der Sicherheitskultur der Internationalen Atomenergiebehörde (IAEA)

Die Sicherheitskultur wird von der IAEA als ein ganzheitliches Phänomen angesehen, welches alle Organisationsmitglieder einbezieht (vgl. Badke-Schaub et al. 2012: 31). Im Konzept werden beobachtbare und psychologische Merkmale abgebildet. In weiteren Veröffentlichungen der IAEA aus den Jahren 2002 und 2005 werden u.a. Konzepte wie die „lernende Organisation“, die konservative Entscheidungsfindung, der Aufbau einer Berichtskultur und die individuellen (Sicherheits-)-Werte der Organisationsmitglieder integriert (vgl. ebenda).

Sicherheitskultur stellt, nach der Definition der INSAG (Beratergruppe der IAEA), eine Teilmenge der gesamten Organisationskultur dar. Der Mix aus geteilten Werten, Einstellungen und Verhaltensmustern macht den speziellen Charakter dieser Organisationskultur aus (vgl. Fahlbruch, Förster 2010: 19).

Die IAEA skizziert drei Entwicklungsstufen zur Entstehung einer Sicherheitskultur in Unternehmen.

„Erstes Entwicklungsstadium: Sicherheit basiert vornehmlich auf der Befolgung von Vorschriften“ (Fahlbruch et al. 2008: 53)

Hier herrscht wenig Kommunikation und Kooperation, die Organisation hängt überwiegend von Regeln ab. Fehlerursachen werden bei Mitarbeitern gesucht, Konflikte werden nicht gelöst und insgesamt gibt es eher feindliche Beziehungen zwischen Mitarbeitern, Kunden und Vorgesetzten (vgl. ebenda 53 f.)

„Zweites Entwicklungsstadium: Sicherheitsgerichtetes Verhalten wird als organisationales Ziel wahrgenommen“ (Fahlbruch et al. 2008: 54)

Sicherheitsgerichtetes Verhalten wird als Organisationsziel wahrgenommen, jedoch fehlen die wesentlichen Methoden dafür. Das Management fungiert als Team, die Beziehung zwischen Mitarbeiter und Management ist jedoch schlecht (vgl. ebenda 54 f.).

„Drittes Entwicklungsstadium: Sicherheit als kontinuierlicher Verbesserungsprozess“ (Fahlbruch et al. 2008: 55)

Jeder kann in der Organisation am Verbesserungsprozess teilhaben. Den Mitgliedern ist bewusst, dass sie mit ihrem Verhalten zur Sicherheit beitragen. Das Konzept der „lernenden Organisation“ wird gelebt und der Umgang zwischen den Ebenen ist respektvoll (vgl. ebenda 55 f.).

2.2 Das Reifegradmodell der Sicherheitskultur

Das Reifegradmodell nach Hudson umfasst insgesamt fünf Entwicklungsstufen. Dieses Modell berücksichtigt besonders die Mitarbeiterperspektive (vgl. Fahlbruch et al. 2008: 57) und den Umgang mit sicherheitsrelevanten Informationen (vgl. St. Pierre et al. 2011: 251). Daher eignet sich dieses Konzept zur Bewertung der Sicherheitskultur im Unternehmen. In Tabelle 1 werden, aufgrund des großen Umfangs, nur die wichtigsten Kriterien des Modells aufgeführt.

Tabelle 1: Reifegradmodell der Sicherheitskultur (eigene Darstellung, vgl. St. Pierre et al. 2011: 252 f.)

Abbildung in dieser Leseprobe nicht enthalten

3. Sicherheitskulturmodell nach Reason

In vielen Veröffentlichungen zum Thema Patientensicherheit wird Bezug genommen auf die „Fehlertheorie“ des engl. Psychologen James Reason. Seine ursprünglich u.a. für die Kernenergie, Luft,- und Großschiffahrt entwickelte Theorie gewinnt im medizinischen Bereich zunehmend an Bedeutung (vgl. Holzer et al. 2005: 14). Die klassische Fehlerforschung sucht nach falschen Handlungen und der verursachenden Person. Dieser sogenannte Personenansatz soll durch „naming, blaming und shaming“ eine Bloßstellung und Belehrung der verantwortlichen Person herbeiführen (vgl. St. Pierre et. al. 2011: 41). Nach St. Pierre und Badke-Schaub et al. ist dies besonders in der Medizin auch heutzutage die „normale“ Haltung (vgl. St. Pierre et al. 2011: 41; Badke-Schaub et al. 2012: 43). Eine systemische Perspektive der Fehler wurde von James Reason publiziert. Ein Fehler wird nicht mehr als falsche Handlung, sondern als ein unerwünschtes Ereignis, einen Zwischenfall oder Unfall im soziotechnischen System betrachtet. Es werden zuerst die Vorbedingungen auf allen Systemebenen untersucht, denn letztlich gelten die Handlungen und Ereignisse auf vielen Ebenen als Faktoren für unerwünschte Ereignisse (vgl. Badke-Schaub et al. 2012: 43).

Reason klassifiziert Fehler in „unsichere Handlungen“ mit der Unterteilung in „unbeabsichtigte Handlungen“ und „beabsichtigte Handlungen“. Die unsicheren Handlungen lassen sich nur in Relation zum Vorhandensein einer bestimmten Gefahr definieren (vgl. Reason 1994: 254). „Der Tatsache, daß man keinen Sicherheitshelm oder keine Rettungsweste trägt, wohnt nicht von Natur aus etwas Unsicheres inne.“ (Reason 1994: 254) Die Tatsache, keinen Sicherheitshelm zu tragen, stellt somit nur eine unsichere Handlung dar, auch wenn eine potentiell gefährliche Situation, wie ein herunterfallender Stein, auftritt. Daran angelehnt ordnet Reason den unbeabsichtigten Handlungen die Fehlertypen Patzer (Aufmerksamkeitsfehler) und Schnitzer (Gedächtnisfehler) zu. Den beabsichtigten Handlungen ordnet er Fehler (mit der Unterteilung in regelbasierte und wissensbasierte Fehler) und Verstöße zu (vgl. Reason 1994: 255).

Abbildung 1: Fehlerklassifikation (mod. nach Reason 1990; vgl. St. Pierre et al. 2011: 43)

Abbildung in dieser Leseprobe nicht enthalten

Reason macht eine weitere Unterscheidung zwischen zwei Fehlervarianten. Aktive Fehler, deren Auswirkungen meist unmittelbar spürbar sind und latente Fehler bzw. Bedingungen, deren Konsequenzen lange Zeit im Verborgenen liegen (vgl. Reason 1994: 216). Das Modell der Entstehung von Fehlern nach Reason erklärt damit die Verkettung von Fehlern. Latente Fehler ermöglichen es, dass aktive Fehler zu Unfällen führen (vgl. Badke-Schaub et al. 2012: 44). Fehlertypen, die sich in stochastischer Weise übertragen, zeigen, wie wenig sinnvoll es ist, sich auf einzelne Maßnahmen zu konzentrieren, um ganz bestimmte unsichere Handlungen zu unterbinden. Vielmehr müssen die Vorläufer ausgeschaltet werden (vgl. Reason 1994: 253). Im Modell zur Fehlerentstehung (auch „Schweizer-Käse-Modell“ genannt) wird deutlich, dass Löcher durch aktives und latentes Versagen entstehen. Diese werden durch weitere Faktoren beeinflusst. Unerwünschte Ereignisse oder Unfälle haben nach diesem Modell stets mehrere Ursachen auf verschiedensten Ebenen. Somit ist die Suche nach der einen Ursache keine Lösung, um weitere Unfälle zu vermeiden (vgl. St. Pierre et al. 2011: 51 f.). Beispielsweise stellt sich die mangelnde Ausbildung von Mitarbeitern als latenter Fehler (latentes Versagen) dar. Die Auswirkung tritt zeitverzögert auf, wenn sich eine Wissenslücke zeigt (vgl. Rall et al. 2001: 325).

Abbildung 2: Modell der Fehlerentstehung nach Reason (vgl. Patientensicherheit-online.de 2014)

Abbildung in dieser Leseprobe nicht enthalten

Vier kulturelle Merkmale einer organisationalen Sicherheitskultur oder auch „informierten Kultur“ prägen das Konzept (vgl. St. Pierre et al. 2011: 254).

Reporting Culture (Berichtskultur)

Just Culture (Gerechtigkeitskultur)

Flexible Culture (Flexibilitätskultur)

Learning Culture (Lernkultur) (vgl. Löber 2012: 210)

Die Reporting-Kultur (auch Berichtskultur) fördert den vertrauensvollen Umgang, ohne Angst vor Sanktionen für die Mitarbeiter und Mitarbeiterinnen, mit Fehlhandlungen und sicherheitsrelevanten Vorfällen umzugehen (vgl. Bamberg et al. 2012: 107). Bei gleichem Informationsstand soll ein organisationsweiter Diskurs über Fehler, Unfälle oder Beinahe-Zwischenfälle entstehen (vgl. Löber 2012: 210). Zur effektiv funktionierenden Berichtskultur muss eine gerechte Vertrauenskultur bzw. Gerechtigkeitskultur vorherrschen, in der klar geregelt ist, welche Handlungen sanktioniert werden und welche nicht. Die dritte Komponente, die Flexibilitäts-Kultur, umfasst die Fähigkeit des Systems, in sicherheitskritischen Situationen schnell und flexibel reagieren zu können (vgl. Bamberg et al. 2012: 107 f).

In hoch-komplexen Organisationen (High Reliability Organisationen), wie beispielsweise Krankenhäusern, stellt Flexibilität eine Kernkompetenz zur Vermeidung von Fehlern und Unfällen dar (vgl. Löber 2012: 211). Das Merkmal der Lernkultur umfasst die Bereitschaft, aus sicherheitskritischen Ereignissen zu lernen und sich damit weiterzuentwickeln (vgl. Bamberg et al. 2012: 108). Dieses Konzept stellt für Organisationen eine gute Möglichkeit dar, eine Sicherheitskommunikation zu entwickeln und zu stabilisieren (vgl. Badke-Schaub et al. 2012: 178). Löber schreibt dazu, je stärker die einzelnen Komponenten der Sicherheitskultur ausgeprägt sind und je höher der Verknüpfungsgrad untereinander ist, umso stärker ist die Sicherheitskultur in einer Organisation ausgeprägt (vgl. Löber 2012: 215).

In vielen Publikationen und Konzepten trifft man auf die Aspekte Reasons. Er erklärt verschiedenste Phänomene relativ einfach und anschaulich, zusätzlich bieten seine Klassifizierungen eine Orientierung.

4. Fehlerquellen im Krankenhaus

In hierarchisch organisierten Systemen (wie z.B. Krankenhäusern) steigt das Risiko für Fehler und Irrtümer exponentiell mit zunehmender Problemkomplexität (vgl. Osten 2006: 36). Gaba et al. beschreiben Dynamik, Zeitdruck, Intensität, Komplexität, Unsicherheit und Risiko als dominierende Aspekte in der Arbeit von Anästhesisten (vgl. Gaba et al. 1998: 4). Nachfolgend werden diese Merkmale komplexer Systeme beschrieben. Des Weiteren geht es um die auslösenden Ereignisse für Fehlhandlungen, Human Factors und die Hierarchie, sowie das Führungsverhalten in Krankenhäusern und darum welchen Einfluss diese Faktoren auf die Sicherheitskultur haben.

4.1 Merkmale komplexer Systeme

Komplexität stellt hohe Anforderungen an die Fähigkeiten der Akteure (vgl. Dörner 2008: 60). Es werden in dieser Arbeit fünf Situationsmerkmale aufgezeigt, welche die Eigenschaften von komplexen Systemen beschreiben. Des Weiteren werden sieben Handlungsanforderungen erläutert, also Handlungen, die für ein erfolgreiches Handeln nötig sind (vgl. St. Pierre et al. 2011: 25 ff.).

Tabelle 2: Merkmale von Komplexität (eigene Darstellung, vgl. St. Pierre et al. 2011: 26)

Abbildung in dieser Leseprobe nicht enthalten

[...]


Ende der Leseprobe aus 57 Seiten

Details

Titel
(Endlich) Aus Fehlern lernen. Der Wunsch nach einer neuen Sicherheitskultur in der Patientenversorgung
Hochschule
Hamburger Fern-Hochschule
Note
1,5
Autor
Jahr
2015
Seiten
57
Katalognummer
V300084
ISBN (eBook)
9783656972556
ISBN (Buch)
9783656972563
Dateigröße
1187 KB
Sprache
Deutsch
Schlagworte
endlich, fehlern, wunsch, sicherheitskultur, patientenversorgung
Arbeit zitieren
Katharina Auf dem Brinke (Autor:in), 2015, (Endlich) Aus Fehlern lernen. Der Wunsch nach einer neuen Sicherheitskultur in der Patientenversorgung, München, GRIN Verlag, https://www.grin.com/document/300084

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: (Endlich) Aus Fehlern lernen. Der Wunsch nach einer neuen Sicherheitskultur in der Patientenversorgung



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden