Grin logo
de en es fr
Shop
GRIN Website
Publish your texts - enjoy our full service for authors
Go to shop › Business economics - Miscellaneous

Das Incident Reporting System

Instrument zum organisationalen Lernen und zur Erhöhung der Sicherheitskultur in kritischen Infrastrukturen

Title: Das Incident Reporting System

Master's Thesis , 2013 , 107 Pages , Grade: 1.0

Autor:in: Marten Bajinski (Author)

Business economics - Miscellaneous
Excerpt & Details   Look inside the ebook
Summary Excerpt Details

Die vorliegende Arbeit betrachtet den Einfluss des Incident Reporting Systems (IRS) auf das organisationale Lernen und die Sicherheitskultur unter Beachtung der menschlichen Faktoren. Besonderer Fokus wird dabei auf Organisationen der Kritischen Infrastrukturen gelegt, die die Lebensadern moderner Gesellschaften sind und deren Sicherheit maßgeblich von einer gelebten Sicherheitskultur und vom organisationalen Lernen abhängt. Das IRS bietet dem Individuum die Möglichkeit, Fehler im System aufzuzeigen, noch bevor Schäden eingetreten sind. Durch eine umfassende Litertaturrecherche und der Validierung der Erkenntnisse durch Datenbefunde sowie Expertenaussagen aus dem Gesundheitswesen zeigte sich, dass der systemorientierte Ansatz des Incident Reporting Systems der zentralen Schlüsselrolle des Menschen in komplexen Arbeitswelten gerecht wird. Indem dessen individuelle Erfahrungen in das Organisationbewusstsein gehoben werden, erfolgt organisationales Lernen. Das Incident Reporting System übt zudem positiven Einfluss auf die Sicherheitskultur aus, indem Fehler nicht mehr nur als Sicherheitsrisiko sondern auch als Lernchance angesehen werden. +++ The following work is taking a closer look at the influence of the Incident Reporting System on organizational learning and on safety as well as security culture under consideration of various human factors. Special focus is placed on critical infrastructures which are vital to modern societies and whose security is mainly depending on a cultural and organizational learning process. An incident reporting system enables an individual to identify errors within a system before damages occur. Research, as well as the validation of existing data and opinions of health care experts, has shown that a system oriented approach of an Incident Reporting System is very close in line with the key role of humans interacting in a complex work environment - organizational learning by implementing an individual’s experience into a stage of awareness. The Incident Reporting System is therefore, positively, influencing the security culture by identifying mistakes not only as a safety or security risk but as an opportunity to learn from.

Excerpt


Inhaltsverzeichnis

1. Einleitung

1.1. Problemstellung

1.2. Forschungs- und Erkenntnisinteresse

1.3. Forschungsstand

1.4. Methodik

2. Kritische Infrastrukturen

2.1. Begriffsbestimmung

2.2. Sektoreneinteilung

2.3. Besondere Eigenschaften

2.4. Kritische Infrastrukturen als soziotechnische Systeme

3. Die menschlichen Faktoren (Human Factors)

3.1. Soziotechnische Systeme

3.2. Geschichte der Human-Factors-Forschung

3.2.1. Scientific Management

3.2.2. Soziale Systemgestaltung: die Human-Relation-Bewegung

3.2.3. Soziotechnische Systemgestaltung

3.3. Ziele und Grundlagen der Human Factors

3.4. SHELL – Konzeptionelles Human Factors Modell

3.5. Aktuelle Strömungen

4. Theorie der Hochzuverlässigkeitsorganisationen

4.1. Die fünf Merkmale der Hochzuverlässigkeitsorganisationen

4.2. Zusammenfassung

5. Sicherheitskultur in Organisationen

5.1. Sicherheit, Safety- und Security-Kultur

5.2. Sicherheitskulturkonzepte

5.2.1. Organisationskultur

5.2.2. Sicherheitskulturkonzept der INSAG

5.2.3. Kompetenzförderliche Sicherheitskultur

5.2.4. Indikatorenmodelle zur Sicherheitskultur

5.3. Messbarkeit von Sicherheitskultur

5.4. Positive Beeinflussung von Sicherheitskultur

5.5. Zusammenfassung

6. Das Organisationale Lernen

6.1. Individuelles Lernen

6.2. Organisationales Lernen

6.2.1. Adaptives Lernen (Single Loop Learning)

6.2.2. Generatives Lernen (Double Loop Learning)

6.2.3. Lernen durch doppelte Reflexion (Deutero Learning)

6.2.4. Lernen aus Betriebserfahrung

7. Fehler, Zwischenfälle und Unfälle

7.1. Bestimmung des Fehlerbegriffs

7.2. Fehler und Unfälle

7.3. Unsichere Handlungen

7.4. Zusammenhang zwischen Fehlern, Zwischenfällen, Unfällen

7.5. Ursachen menschlicher Fehler

7.5.1. „Dirty Dozen“-Modell von Dupont (1994)

7.5.2. Nicht-technische Fähigkeiten als Unfallursache

7.6. Zusammenfassung

8. Das Incident Reporting System

8.1. Ursprung des Incident Reporting System

8.2. IRS Anwendungsbereiche

8.2.1. Incident Reporting Systeme in der Luftfahrt

8.2.2. Incident Reporting Systeme in der Kernenergie

8.2.3. Incident Reporting Systeme im Gesundheitswesen

8.3. Incident Reporting Analyse

8.4. Zusammenfassung

9. Rahmenbedingungen und Grundsätze des IRS

9.1. Fehlerkultur

9.2. Grundsätze bei der Gestaltung

9.3. Charakteristika erfolgreicher IRS

9.4. Grenzen des IRS

9.5. Incident Reporting Systeme und Whistleblowing

10. Empirische Untersuchung

10.1. Zielsetzung

10.2. Auswahl der Untersuchungsmethoden

10.3. Das leitfadengestützte Experteninterview

10.3.1. Methodische Vorgehensweise

10.3.2. Aufbau und Inhalt des Interviewleitfadens

10.3.3. Vorbereitung und Durchführung des Interviews

10.3.4. Kernaussagen des Interviews

10.4. Datenbefunde zum IRS aus dem Gesundheitswesen

10.4.1. Medizinische Hochschule Hannover

10.4.2. Kantonsspital St. Gallen (Schweiz)

11. Zusammenfassende Auswertung

11.1. Sicherheit und Sicherheitskultur

11.1.1. Fehlerkultur als Voraussetzung

11.2. Charakteristika als kritische Erfolgsfaktoren

11.3. Organisationales Lernen und Sicherheitskultur

12. Schlussbetrachtung

12.1. Ergebnisse

12.2. Ausblick

Zielsetzung & Themen

Die vorliegende Arbeit untersucht das Potenzial von Incident Reporting Systemen (IRS) als proaktives Instrument zur Verbesserung der Sicherheitskultur und zur Förderung organisationalen Lernens innerhalb kritischer Infrastrukturen, wobei ein besonderer Fokus auf den Sektoren Luftfahrt, Kernenergie und Gesundheitswesen liegt.

  • Grundlagen der Sicherheitskultur und soziotechnischer Systeme
  • Die Rolle der Human Factors bei der Entstehung von Zwischenfällen
  • Methodische Aspekte der Fehleranalyse und des organisationalen Lernens
  • Praktische Implementierung von IRS im Gesundheitswesen mittels Expertenbefragung

Auszug aus dem Buch

3.4. SHELL – Konzeptionelles Human Factors Modell

Das vereinfachte Konzeptmodell nach Edwards in der weiterentwickelten Form von Hawkins (2008) eignet sich besonders, um die Forschungsdisziplin der Human Factors zu visualisieren und die Komponenten darzustellen, mit denen der Mensch im soziotechnischen System interagiert (Abbildung 2). Im Zentrum des Modells befindet sich das Individuum (Liveware). Dieses interagiert mit allen anderen sich aus dem Arbeitsumfeld ergebenden Komponenten.

Interaktion Software und Liveware: Unter diesem Aspekt sind die kognitiven Anforderungen an die Liveware gemeint, die aus den Arbeitsmitteln hervorgehen. Darunter zählen alle nicht physikalischen Aspekte wie Regeln, Bedienungsanleitungen, Verfahren und Symbole hinsichtlich ihrer Verständlichkeit und hinreichenden Klarheit aber auch die Gebrauchstauglichkeit von tatsächlicher Computersoftware.

Interaktion Environment und Liveware: Unter diesem Punkt ist die Interaktion des menschlichen Akteurs mit den internen und externen Umgebungsvariablen gemeint. Besonders in der Luftfahrt wurde dieser Aspekt vorangetrieben, indem beispielsweise spezielle Anzüge und Helme Schutz gegen Kälte, Lärm, Höhenluft oder auch Beschleunigungskräfte bieten.

Zusammenfassung der Kapitel

1. Einleitung: Die Einleitung beleuchtet die Relevanz kritischer Infrastrukturen und führt in die Thematik der Human Factors sowie des Incident Reporting Systems (IRS) ein.

2. Kritische Infrastrukturen: Dieses Kapitel definiert kritische Infrastrukturen und betrachtet deren besondere Eigenschaften sowie ihre Abhängigkeiten als soziotechnische Systeme.

3. Die menschlichen Faktoren (Human Factors): Hier wird die interdisziplinäre Wissenschaft der Human Factors analysiert, inklusive ihrer geschichtlichen Entwicklung und verschiedener Modellansätze wie dem SHELL-Modell.

4. Theorie der Hochzuverlässigkeitsorganisationen: Das Kapitel stellt die "high reliability theory" vor und erläutert die Prinzipien der Achtsamkeit in Organisationen, die weit unter der durchschnittlichen Unfallrate operieren.

5. Sicherheitskultur in Organisationen: Diese Einheit befasst sich mit der Definition und Messbarkeit von Sicherheitskultur sowie verschiedenen Konzepten zu ihrer positiven Beeinflussung.

6. Das Organisationale Lernen: Hier werden Theorien des individuellen und organisationalen Lernens, insbesondere Single Loop und Double Loop Learning, im Kontext betrieblicher Erfahrung dargestellt.

7. Fehler, Zwischenfälle und Unfälle: Dieses Kapitel widmet sich der Fehlerforschung, der Differenzierung von Unfallursachen und der Klassifikation menschlicher Fehler.

8. Das Incident Reporting System: Hier steht die methodische Basis und der Ursprung des IRS sowie dessen Anwendungsgebiete in verschiedenen Hochrisikobranchen im Mittelpunkt.

9. Rahmenbedingungen und Grundsätze des IRS: Dieses Kapitel beschreibt die essenziellen Voraussetzungen für ein funktionierendes Berichtswesen, wie eine gelebte Fehlerkultur und notwendige Gestaltungsgrundsätze.

10. Empirische Untersuchung: Dieser Teil beschreibt die methodische Vorgehensweise sowie die Erkenntnisse aus der praktischen Anwendung des IRS im Gesundheitswesen.

11. Zusammenfassende Auswertung: Das Kapitel führt die theoretischen Erkenntnisse mit den Ergebnissen der empirischen Untersuchung zusammen und validiert den Nutzen des IRS.

12. Schlussbetrachtung: Die Arbeit schließt mit einer Zusammenfassung der zentralen Ergebnisse und einem Ausblick auf die zukünftige Bedeutung der Sicherheitskultur.

Schlüsselwörter

Incident Reporting System, Sicherheitskultur, Human Factors, Organisationales Lernen, Kritische Infrastrukturen, Fehlerkultur, Hochzuverlässigkeitsorganisationen, Patientensicherheit, Risikoanalyse, Soziotechnische Systeme, Fehlerprävention, Berichtsmanagement, Qualitätsmanagement, Fehlermanagement, Organisationspsychologie

Häufig gestellte Fragen

Worum geht es in dieser Master-Thesis grundlegend?

Die Arbeit untersucht, wie Incident Reporting Systeme (IRS) als Instrumente eingesetzt werden können, um sicherheitsrelevante Ereignisse ohne Schadenseintritt systematisch zu erfassen und daraus zu lernen, um letztlich die Sicherheitskultur in kritischen Infrastrukturen zu stärken.

Welche zentralen Themenfelder werden abgedeckt?

Zu den zentralen Themen gehören die theoretischen Grundlagen der Human Factors, Theorien zu Hochzuverlässigkeitsorganisationen, Konzepte der Sicherheitskultur sowie Methoden des organisationalen Lernens und der Fehleranalyse.

Was ist das primäre Ziel oder die Forschungsfrage der Arbeit?

Die Forschungsfrage lautet: Welchen Beitrag leistet ein Incident Reporting System zum organisationalen Lernen und zur Erhöhung der Sicherheitskultur in einer Organisation der kritischen Infrastrukturen?

Welche wissenschaftliche Methode wird verwendet?

Die Arbeit nutzt eine Kombination aus einer umfassenden Literaturrecherche in verschiedenen Disziplinen (Human Factors, Organisationsentwicklung) und einer empirischen Untersuchung in Form eines leitfadengestützten Experteninterviews mit einem Geschäftsführer einer Unternehmensberatung im Gesundheitswesen.

Was wird im Hauptteil der Arbeit behandelt?

Der Hauptteil gliedert sich in theoretische Exkurse zu Systemen, Fehlern und Sicherheitskultur sowie eine empirische Untersuchung, in der Datenbefunde und Expertenwissen insbesondere aus dem Gesundheitswesen analysiert werden.

Welche Schlüsselwörter charakterisieren die Arbeit?

Die Arbeit lässt sich durch Begriffe wie Incident Reporting System, Sicherheitskultur, Human Factors, Organisationales Lernen, Fehlerkultur und kritische Infrastrukturen charakterisieren.

Was sind die wesentlichen Erkenntnisse bezüglich der Fehlerkultur?

Die Arbeit verdeutlicht, dass eine destruktive "Blame Culture" (Schuldkultur) die Nutzung von IRS behindert. Eine konstruktive Fehlerkultur, die auf Vertrauen und Sanktionsfreiheit basiert, ist die zwingende Voraussetzung für den Erfolg eines Berichtssystems.

Welche Rolle spielt die Anonymität bei Incident Reporting Systemen?

Anonymität wird als kritischer Erfolgsfaktor eingestuft, um die Angst der Mitarbeiter vor Sanktionen zu mindern. Dennoch zeigt die Praxis, dass mit zunehmendem Vertrauen in die Organisation auch nicht-anonyme Meldungen als Indikator für eine gelebte Sicherheitskultur fungieren können.

Wie unterscheidet sich das "Dirty Dozen"-Modell von anderen Ansätzen?

Das "Dirty Dozen"-Modell dient der praktischen Klassifikation von menschlichen Fehlerursachen und hilft dabei, Fehlhandlungen in organisatorische, kollektive und individuelle Verantwortungsebenen einzuordnen, um gezielte Verbesserungsmaßnahmen abzuleiten.

Excerpt out of 107 pages  - scroll top

Details

Title
Das Incident Reporting System
Subtitle
Instrument zum organisationalen Lernen und zur Erhöhung der Sicherheitskultur in kritischen Infrastrukturen
Course
Sicherheitswirtschaft und Unternehmenssicherheit
Grade
1.0
Author
Marten Bajinski (Author)
Publication Year
2013
Pages
107
Catalog Number
V230021
ISBN (eBook)
9783656453383
ISBN (Book)
9783656453802
Language
German
Tags
incident reporting system instrument lernen erhöhung sicherheitskultur infrastrukturen
Product Safety
GRIN Publishing GmbH
Quote paper
Marten Bajinski (Author), 2013, Das Incident Reporting System, Munich, GRIN Verlag, https://www.grin.com/document/230021
Look inside the ebook
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
Excerpt from  107  pages
Grin logo
  • Grin.com
  • Shipping
  • Contact
  • Privacy
  • Terms
  • Imprint