© Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Ergonomie und Mensch-Maschine-Systeme (Arbeitswissenschaft II)
Lehreinheit 8 Cognitive Engineering II Sommersemester 2017
Dr.-Ing. Dr. rer. medic. Dipl.-Inform. Alexander Mertens
Lehrstuhl und Institut für Arbeitswissenschaft RWTH Aachen Bergdriesch 27 52062 Aachen
Tel.: 0241 80 99 494 E-Mail: [email protected]
8 - 2 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Lernziele Ziel dieser Lehrveranstaltung ist es: Das Phänomen „menschliche Fehler“ systematisch zu erschließen, Menschliches Fehlverhalten zu analysieren, klassifizieren und zu bewerten, mit
dem Ziel Gestaltungshinweise zur Systemoptimierung zu geben, Ursachen menschlicher Fehler kennenzulernen,
Einblick in verschiedene Klassifizierungsansätze menschlichen Fehlverhaltens zu
bekommen,
Kriterien zur Steigerung der menschlichen Zuverlässigkeit kennenzulernen.
8 - 3 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Definitionen Menschliche Fehler:
„Menschliche Fehler“ können formal definiert werden als „menschliches Versagen“ bei einer definierten Arbeitsaufgabe (oder Ausführung einer verbotenen Aufgabe) innerhalb einer spezifizierten Ausführungsgenauigkeit, Reihenfolge oder Zeit, welche in einer Beschädigung von Material und Besitz oder Störung geplanter Abläufe münden kann [Hagen / Mays, 1981]. Ein menschlicher Fehler kann nach VDI 4006 Bl. 2 in eine der folgenden beiden Kategorien eingeordnet werden: Unterlassungsfehler: Etwas wurde unterlassen Etwas ist unterblieben Ausführungfehler Etwas ist falsch (ausgewählt) Etwas ist fehlerhaft (eingestellt)
Menschliche Zuverlässigkeit:
„Zuverlässigkeit“ ist die Antithese zur Fehlerwahrscheinlichkeit. Menschliche Zuverlässigkeit ist somit als Wahrscheinlichkeit definiert, dass ein Mensch eine Aufgabe über eine gewisse Zeitdauer fehlerfrei ausführt. [Park, 1997]
8 - 4 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Urs
ache
n
Aus
wirk
unge
n (S
ympt
ome)
Kontext
Unfallanalyse (retrospektiv)
Zuverlässigkeitsvorhersage (prospektiv)
[Hollnagel, 1993]
Ursachen und Wirkungen menschlicher Fehler
8 - 5 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Prozentuale Verteilung der Unfallursachen
Technische Fehler
Organisatorische Fehler
Menschliche Fehler
Nicht-Können
Nicht-Wissen
Nicht-Wollen
Unfallursachen Ursachen menschlicher Fehler
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
100%
90% 80% 70% 60% 50% 40% 30% 20% 10%
8 - 6 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen [Bubb, 1992]
Klassifizierung der menschlichen Arbeitsfehler Auftretensorientierte Klassifizierung (Was? Wo? Wie? Wann?)
Rigby,1970 Meister,1977 Swain,1980
Basis: Unfallstatistiken, etc.
Ursachenorientierte Klassifizierung (zusätzlich: Warum?) Klassifizierung unter Berücksichtigung relevanter Informationen
[Hacker,1987] Klassifizierung unter Berücksichtigung von Informationsverarbeitung
[Norman,1986] Klassifizierung unter Berücksichtigung von Einflussfaktoren auf die Arbeit
[Zimolong,1990] Basis: Einzelfallanalysen von Flugzeugabstürzen, Reaktorunfällen, etc.
Kombinierte Klassifizierungsansätze Multi-Aspekt-Taxonomie [Rasmussen,1987] Generic Error Modeling System (GEMS) [Reason,1991] Zweistufiges Klassifizierungsschema [Rouse / Rouse,1983]
8 - 7 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Arten von Fehlhandlungen:
Sporadische Fehlhandlungen Zufällige Fehlhandlungen
Systematische Fehlhandlungen
[Bubb, 1992]
Klassifizierungsansatz von Rigby
8 - 8 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Klassifizierung unter Berücksichtigung relevanter Informationen nach Hacker
Informationsmangel
Objektives Fehlen erforderlicher Informationen
Nutzungsmängel objektiv vorhandender Informationen
Fehlende Nutzung Falsche Nutzung
Übersehen Vergessen/ Versäumen Übergehen Informations- reduzierung Verarbeitungsdefizite
Falsches Orientieren Falsche Nutzung im Zielstellen Entwerfen fehlerhafter Programme Falsches situatives Einpassen von Programmen
8 - 9 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
1.2 Beanspruchung
Stress Skilled NoviceVery low x 2 x 2Optimum x 1 x 1Moderately High x 2 x 4Extremely high x 5 x 10
Increase in Error Probability
[Miller / Swain, 1986]
Ausgewählte Faktoren im Hinblick auf menschliche Fehler (I)
2. Situative Faktoren
1. Leistungsbeeinflussende Faktoren 1.1 Ziele und Absichten
Subjektive Ziele und Absichten stehen in einem Konflikt zu der auszuführenden Aufgabe, wodurch Fehler verursacht werden.
2.1 Physikalische Arbeitsumgebung
Einflüsse, die von außen auf den Menschen Einwirken, wie z.B. Lärm, Temperatur, Gerüche, etc.
50
60
70
80
90
100
100 200 300 400 500 600
Rückgang der Fehler in
%
Beleuchtungsstärke in Lux als Intensitätsvariable der Beleuchtung
Stanzen
Bohren
Abisolieren
Zuschneiden
Sägen
Wirkung der Beleuchtungsstärke auf die menschliche Zuverlässigkeit:
Quelle: Wirkung der Beleuchtungsstärke auf die menschliche Zuverlässigkeit bei industriellenTätigkeiten (aus GALL u. VÖLKER 1996)
8 - 10 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Ausgewählte Faktoren im Hinblick auf menschliche Fehler (II)
Aufgaben beanspruchen unterschiedlich stark mentale Ressourcen. Die mentalen Ressourcen des Menschen unterliegen erheblichen kapazitiven Beschränkungen. Diese Beschränkung bewirkt, dass man bei der Ausführung von bestimmten Aufgaben mehr Fehler macht. Die deutliche Begrenzung der verfügbaren Kapazität des Arbeitsgedächtnisses (7±2 chunks) und die ungenaue Erinnerung aus dem Langzeitgedächtnis haben einen starken Einfluss auf die menschliche Zuverlässigkeit. Komplexe Folgen von Aufgabenelementen in einer speziellen Reihenfolge überbeanspruchen das menschliche Gedächtnis und führen zu Fehlverhalten [Park, 1997]. Aufgabencharakteristiken, die das Auftreten menschlicher Fehler begünstigen sind z.B.:
• Die Komplexität der Aufgabe • Die Zeitstruktur der Aufgabe • Die Vertrautheit mit der Aufgabe • …
2.2 Aufgabencharakteristik
8 - 11 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
[Rasmussen, 1987]
Leistungsbeeinflussende Faktoren •Ziele und Absichten •Beanspruchung •Ressourcen •Affektive Faktoren
Situative Faktoren •Physik. Arbeitsumgebung •Aufgabencharakteristik •Zeitl. Arbeitsorganisation
Personal / Aufgaben
•Komponentenauslegung •Erstellung von Handlungsanweisungen •Herstellung •Montage •Wartung •Instandhaltung •Verwaltung •Beschaffung •Management
Ursachen menschlichen Fehlverhaltens
•Externe Ereignisse (Ablenkung etc.)
•Überforderung, Unterforderung (Kraft, Zeit, Kenntnis etc.)
•Unzureichende Leistungs- voraussetzung
(Krankheit etc.) •Intrinsische Variabilität
Mechanismen menschlichen Fehlverhaltens Diskrimination • Stereotyp-Fixation • Spontanreaktion auf vertraute Muster • Stereotyp-Übernahme • Nichterkennen vertrauter Muster Eingangsinformationsverarbeitung • fehlende oder fehlerhafte Wahrnehmung • Fehlinterpretation • Annahmen Gedächtnisaktivität • Vergessen einer isolierten Handlung • falsche Wahlentscheidung • sonstige Gedächtnisfehler Interferenz • Bedingung oder Nebeneffekt missachtet Physische Koordination • Variabilität der Motorik • räumliche Fehlorientierung
Interne Form des Fehlverhaltens Erkennen Assoziieren Regelanwendung Identifizieren Entscheiden • Zielauswahl • Handlungsgegenstand Planen • Aufgabe • Prozedur • Kommunikation
Externe Form des Fehlverhaltens Auslassungsfehler Ausführungsfehler • Reihenfolge • Zeitpunkt
Klassifizierungsansatz von Rasmussen: Multi-Aspekt-Taxonomie menschlichen Fehlverhaltens
8 - 12 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Klassifizierungsansatz GEMS General Error Modeling System
fertigkeitsbasierte Ebene (Schnitzer und Patzer) Routinehandlung in einer vertrauten Umgebung
Aufmerksamkeits-Checks für den Handlungsfortgang
Zielzustand
regelbasierte Ebene (regelbasierte Fehler)
OK? OK? JA
JA
Beachte lokale Zustands- information
Problem
IST DAS MUSTER VERTRAUT?
Wende gespeicherte Regeln an.
WENN (Situation) DANN (Handlung)
NEIN IST DAS PROBLEM GELÖST?
Finde Analogie auf höherer Ebene
wissensbasierte Ebene (wissensbasierte Fehler)
Zurück zum mentalen Modell des Problemraums. Analysiere die abstrakteren Beziehungen zwischen Struktur und Funktion
Leite Diagnose ab und formuliere Korrekturhandlungen. Wende die Handlungen an. Betrachte das Ergebnis etc.
JA
NEIN
NEIN
wiederholte Versuche
KEINE GEFUNDEN
Unaufmerksamkeit Interferenz: Zwei simultane Pläne können zu einer Vermischung der ausgeführten Handlungen führen
Überaufmerksamkeit Versäumnis: Man glaubt, der Prozess sei schon weiter vorangeschritten, und lässt die Zwischenschritte aus
[Reason, 1994]
Probleme mit Kausalität: • Kausalitäten werden zu sehr vereinfacht • Unregelmäßigkeiten in der Zukunft werden unterschätzt • Verzerrungen durch die Repräsentativitäts- und
Verfügbarkeits-Heuristik (illusion of control; hindsight bias)
Fehlanwendung guter Regeln
Anwendung schlechter Regeln Enkodierdefizite: Merkmale einer bestimmten Situation werden entweder gar nicht oder im Wenn-Teil einer Regel falsch repräsentiert
erste Ausnahmen: Die erste Gelegenheit, bei der eine Ausnahme vom Regelfall auftritt, wird wahrscheinlich zum Fehler führen; dies gilt insbesondere, wenn die Regel in der Vergangenheit immer korrekt wirkte
8 - 13 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Klassifizierungsansatz GEMS General Error Modeling System
Zeic
hen
Sym
bole
(Signale)
Sensorischer Input Signale Handlungen
Ziele
Entscheiden Identifizieren Planen
Erkennen Assoziieren Regeln
Merkmals- funktion
Sensumotorische Muster
Unaufmerksamkeit • Patzer bei
Belastungssuperposition • Versäumnisse nach
Unterbrechung • verkürzte Intentionalität • Wahrnehmungsverwirrung • Interferenzfehler
Fehlanwendung guter Regeln • erste Ausnahmen • Gegenanzeigen / Nicht-Zeichen • Informationsüberlastung • Stärke der Regeln • allgemeine Regeln • Redundanz • Rigidität
Selektivität • Beschränkungen im mentalen Modell • Vergessen („aus den Augen, aus dem Sinn“) • Hang zur Bestätigung • übermäßiges Vertrauen • Beurteilungsfehler (Halo-Effekt) • Probleme mit Kausalität • Probleme mit Komplexität
Anwendung schlechter Regeln • Enkodierdefizite • Handlungsdefizite • falsche Regeln • nicht empfehlenswerte
Regeln
Überaufmerksamkeit • Versäumnis • Wiederholung • Aufhebung
[Reason, 1994]
8 - 14 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
[Reason, 1994]
Klassifizierungsansatz GEMS General Error Modeling System Beispiele für Fehlleistungen auf fertigkeitsbasierter Ebene:
„Ich nahm meinen Mantel, um das Haus zu verlassen, da klingelte das Telefon. Ich erledigte das Telefonat und ging dann ohne meinen Mantel zur Haustür hinaus.“ Versäumnis nach Unterbrechung
„Ich wollte das Fenster schließen, da es kalt war. Stattdessen machte ich die Schranktür zu.“ verkürzte Intentionalität
Beispiele für Fehlleistungen auf regelbasierter Ebene:
„Ein Freund wollte sich in den fließenden Verkehr einreihen. Er sah im Seitenspiegel, dass sich ein rotes Auto näherte. Dann sah er flüchtig im Rückspiegel ein rotes Auto, das noch ein Stück weit weg war. Er fuhr los und wurde von einem roten Auto beinahe angefahren. Es gab zwei von der Sorte. Er hatte jedoch angenommen, dass es sich um ein und dasselbe Fahrzeug handelt.“ Erste Ausnahmen
„Für eine Person, die nur einen Hammer besitzt, sieht jedes Problem wie ein Nagel aus.“ Rigidität
Beispiele für Fehlleistungen auf wissensbasierter Ebene:
Bei einem Kreditnehmer, der sauber und gepflegt ist und evtl. auch noch heiter und gelassen, wird der Bankangestellte eher weniger auf Formalitäten achten als bei einem ungepflegten, mürrischem Kunden. Halo-Effekt (Beurteilungsfehler, Wahrnehmungseffekt)
Eine Person schätzt vor der Wahl, dass die Partei X 30% der Stimmen erhalten wird. Tatsächlich gewinnt sie 50%. Nach der Wahl wird die Person gebeten,´sich zurück zu erinnern, wie ihre Schätzung war. Sie ist überzeugt, 40% geschätzt zu haben. Problem mit Kausalität, Hindsight bias (Rückschaufehler)
8 - 15 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Problemdefinition
Darstellung des Einflusses menschlicher Fehler auf das System
Quantifizierung der menschlichenFehlerwahrscheinlichkeit
Aufgabenanalyse
Ermittlung der potentiellenmenschlichen Fehler
Untersuchung der Bedeutungder ermittelten Fehler
Umsetzung und Überwachungder Maßnahmen
Dokumentation der Analyse
Quantifizierunggewünscht/erforderlich?
Menschl.Zuverlässigkeit
ausreichendhoch?nein [qual.]
ja
[nach Kirwan,1994]
Festlegen von Maßnahmenzur quantitativen Fehlerreduktion
Festlegen von Maßnahmenzur qualitativen Fehlerreduktion
nein [quant.]
ja
nein
Spezielle Verfahren zur quantitativen Human Reliability Analysis:• HCR-Modell• THERP
Verfahren zur Analyse und Bewertung menschlicher Zuverlässigkeit: Generelles Vorgehen
8 - 16 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Etwa 100 Mal am Tag...
[Bubb, 1992]
Datenquellen bzgl. menschlicher Fehler Datenerhebungsmethoden:
Simulatorstudien Laborexperimente Feldstudien Expertenschätzungen
Probleme: kein allgemeiner Konsens über Taxonomie der Daten große Vielfalt von Datenquellen Feldstudien im Anwendungsgebiet oft sehr schwierig bzw. unmöglich
Expertenschätzungen: am wenigsten valide Datenquelle oft einzige Möglichkeit
Schätzverfahren: eindimensionale hierarchische mehrdimensionale
8 - 17 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
[Park, 1997]
1. Bei ereignisdiskreten Aufgaben:
2. Bei kontinuierlichen Aufgaben / Prozessen:
Human Error ProbabilityAnzahl fehlerhaft durchgeführter Aufgaben des Typs
Anzahl aller durchgeführten Aufgaben des TypsiHEP(i)
i=
Schätzung der menschlichen Zuverlässigkeit (I)
[ ]( )zeitabhängige Fehlerrate ( )
Anzahl der Fehler in ,( )
t
E t t dtt
dt
λ
λ+
=
2.1
2.2
konstante FehlerrateAnzahl menschlicher Fehler
Akkumulierte Aufgabenausführungszeit
constλ
λ
=
=Aufgabenausführungszeit
8 - 18 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
1. Zuverlässigkeit (Reliability) der Aufgabe i:
2. bei n wiederholten, unabhängigen Aufgaben i:
3. bei zeitkontinuierlichen Aufgaben:
4. bei personeller Mehrfachbesetzung mit N Personen (Redundanz) der Zuverlässigkeit Rj:
Schätzung der menschlichen Zuverlässigkeit (II)
[Park, 1997]
( )( ) 1R i HEP i= −
( )( )( , ) 1-n
R i n HEP i= R(n)
2 1
1
1
( )
1 2 ( )( , )
( )
t
t
t t
t dt
e für constR t t
e für t
λ
λ
λ
λ
− −
−
== ∫
t2
( )1 21
( , ) 1 1N
jj
R t t R=
= − −∏R
8 - 19 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
• Analoganzeige falsch ablesen
• Graphen falsch ablesen
• Störanzeige übersehen
• Stellteil bei hohem Stress in die falsche Richtung bewegen
• Ventil nicht schließen
• Checkliste nicht benutzen
• Checkliste nicht in der richtigen Reihenfolge abarbeiten
~ 0,003
~ 0,01
~ 0,003
~ 0,5
~ 0,005
~ 0,01
~ 0,5
Kataloge von Fehlerwahrscheinlichkeiten (I) Beispiel: Tätigkeiten in Kernkraftwerken
[Swain / Guttman, 1983]
HEP Tätigkeit
8 - 20 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
• Einfache und häufig durchgeführte Aufgaben bei minimalem Stress
• Komplexere Aufgaben unter Zeitdruck, wobei eine gewisse Sorgfalt bei der Durchführung notwendig ist
• Komplexere, ungewohnte Aufgaben mit geringer Rückmeldung über den Erfolg und die Gefahr, Zerstörungen zu verursachen
• Hochkomplexe Aufgabe unter ziemlichem Stress und erheblichen
Zeitdruck • Unter extremem Stress durchgeführte Aufgaben, die aber sonst
nur selten bewältigt werden müssen
Aufgabenkategorie HEP
~ 0,001 ~ 0,01 ~ 0,1 ~ 0,3 ~ 1
[Bubb, 2000]
Kataloge von Fehlerwahrscheinlichkeiten (II) Beispiel: Abhängigkeit von der Belastungssituationen
8 - 21 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Handlungen HEP (Streuung) A/a: Operateur unterlässt die Durchführung der folgenden Handlungssequenz
A=0,01 (0,005 - 0,05) B/b: Operateur unterlässt die Kontrolle des Schalters B=0,01 (0,005 - 0,05) C/c: Operateur unterlässt die Kontrolle eines Ventils C=0,01 (0,005 - 0,05) D/d: Schichtleiter kann Fehler nicht erkennen D=0,09 (0,009 - 0,9) E/e: Operateur vergisst Endprüfung E=0,01 (0,005 - 0,05)
Erfolg Misserfolg
Misserfolg
Misserfolg
Misserfolg
d=0,91
0305 , 0 ) (
) ( ) (
) (
= ⋅ ⋅ ⋅ +
⋅ ⋅ ⋅ ⋅ + ⋅ ⋅ ⋅ +
⋅ + =
E c b a E d C b a
D C b a B a
A PGesamt-Misserfolg
Fehlerwahrscheinlichkeiten – Großbuchstaben Erfolgswahrscheinlichkeiten – Kleinbuchstaben
Technique for Human Error Rate Prediction (THERP) Ereignisablaufdiagramm und Fehlerwahrscheinlichkeiten
[Swain / Guttman, 1983]
8 - 22 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Zeit (normiert)
Wah
rsch
einl
ichk
eit f
ür n
icht
erf
olgr
eich
es R
eagi
eren
HCR Model
100
10-1
10-2
10-3
100 101
12ad
tT
( )P t≤τ
Human Cognitive Reliability (HCR) Model
Weibull-Wahrscheinlichkeits-verteilung mit Parametern:
12
itT iad
i
cc
R( t ) e
β
γ
η
−
− =
: Wahrscheinlichkeit, dass die Aufgabe innerhalb des Zeitfensters t nicht erfolgreich durchgeführt wird;
)1()1()1( 32121
21 KKKTT ad +⋅+⋅+⋅=
Korrigierter geschätzter Median der Reaktionszeit adT
21
Regulationsebene βi cγi cηi Fertigkeiten 1,13 0,72 0,388
Regeln 1,27 0,148 1,14 Wissen 0,795 0,389 0,969
Verteilungsparameter für Regulationsebene (Wissen, Regeln, Fertigkeiten) icc ii βηγ ,,
[Hannaman, Spurgin, Lukie, 1985]
Erfahrung K 1 : 1. Experte - 0,22 2. Durchschnittlich geübt 0,00 3. Anfänger 0,44
Erfahrung K 1 : 1. Experte - 0,22 2. Durchschnittlich geübt 0,00 3. Anfänger 0,44
Stress - Level K 2 : 1. Extrem 0,44 0,44 2. Hoch 0,28 3. normal 0,00 4. Gering 0,28
Stress - Level K 2 : 1. Extrem 0,44 0,44 2. Hoch 0,28 3. normal 0,00 4. Gering 0,28
Qualität des Cockpitdesigns K 3 : 1. Exzellent - 0,22 2. gut 0,00 3. Angemessen 0,44 4. Schlecht 0,78 5. Extrem schlecht 0,92
Qualität des Cockpitdesigns K 3 : 1. Exzellent - 0,22 2. gut 0,00 3. Angemessen 0,44 4. Schlecht 0,78 5. Extrem schlecht 0,92
( )P t≤τ
8 - 23 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
[Bubb, 1992]
Maßnahmen zur Erhöhung der menschlichen Zuverlässigkeit
1. Vermeidung systematischer Fehler durch Verbesserung des
Arbeitssystems Benutzerzentrierte (anthropometrische + informationstechnische) Gestaltung Minderung physikalischer Umwelteinflüsse Personelle und organisatorische Maßnahmen Berücksichtigung sozialer Einflüsse
2. Vermeidung zufälliger Fehler durch Gestaltung fehlertoleranter
Systeme
8 - 24 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Vermeidung zufälliger Fehler Beschränktes Versagen (fail-safe)
Kalkulation möglicher Schadensfälle, so dass das System bei Versagen in den sicheren Zustand geführt wird.
Abfangen von Überbeanspruchungen durch Sollbruchstellen / Sicherungen, wobei eine Vorrichtung den Schaden anzeigen muss
z.B.: Explosionsklappen, Hilfssysteme für Bremse oder Lenkung
Prinzip der Redundanz Funktionelle Redundanz: Mehrfachverwendung von Systemen mit gleicher Funktion.
Im Versagensfall übernimmt das zweite System die Funktion vollständig. z.B.: Fahrstuhl mit zwei Trageseilen, Rückleuchten am PKW Diversitäre Redundanz: Vermeidung von systematischen Fehlern durch Verwendung
verschiedener Wirkprinzipien; z.B.: elektrische und mechanische Bremse
8 - 25 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Redundante Systeme – diskrete Analyse Parallelsysteme (1-von-n-Systeme) befinden sich nur dann in einem Zustand der Nichtverfügbarkeit, wenn alle Subsysteme U1 bis Un Nichtverfügbarkeitszustände kennzeichnen.
U1
U2
...
Un
Wahrscheinlichkeit der Nichtverfügbarkeit (U) bei unabhängigen Fällen:
ei : Schadensereignis Subsystem i
Ui = P(ei) : Nichtverfügbarkeitswkt. Subsystem i
Vi = 1-Ui : Verfügbarkeitswkt. Subsystem i
U : Nichtverfügbarkeitswkt. Gesamtsystem
( ) ( )
( ) ( ) ( )nn
n
ii
n
ii
n
ii
eP...ePe...eP
eP-VUU
⋅⋅=∩∩
=== ∏∏∏===
11
111
1
U ( )U10log
iU
iUiU
iU
8 - 26 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Redundante Systeme – kontinuierliche Analyse (I)
Vorhersage der Lebensdauer einzelner Komponenten Ki Berechnung der Ausfallwahrscheinlichkeit Weibull-Verteilung (β: Formparameter, λ: Skalierungsparameter):
Mit (Rayleigh-Verteilung) und :
βλβλβλβ xexxWei −−⋅⋅= 1),,(
2=β 1=λ2
2)( xRayleigh exxf −⋅=
K1
K2
...
Kn
Lebensdauer
Weibull - Dichtefunktion für verschiedene Formparameter k Weibull - Dichtefunktion für verschiedene Formparameter k D
icht
efun
ktio
n
8 - 27 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
0 0.5 1 1.5 2 2.5 30
0.2
0.4
0.6
0.8
1
1.2
Redundante Systeme – kontinuierliche Analyse (II) Ausfallwkt. einer Komponente Ki bis zu einem bestimmten Zeitpunkt t für und :
Ausfallwkt. eines Systems aus n parallelen gleichwertigen Komponenten
bis zu einem bestimmten Zeitpunkt t:
Lebensdauer
τ: Zeit zwischen Ausfällen
2β = 1λ =
𝑃𝑃 𝜏𝜏 ≤ 𝑡𝑡 = 𝑃𝑃 𝜏𝜏1 ≤ 𝑡𝑡 ⋅ … ⋅ 𝑃𝑃 𝜏𝜏𝑛𝑛 ≤ 𝑡𝑡 = 1 − 𝑒𝑒−𝑡𝑡2𝑛𝑛
𝑃𝑃 𝜏𝜏 ≤ 𝑡𝑡 = � 2𝑥𝑥 ⋅ 𝑒𝑒−𝑥𝑥2𝑑𝑑𝑥𝑥𝑡𝑡
0= 1 − 𝑒𝑒−𝑡𝑡2
Dic
htef
unkt
ion
1-von-1-System 1-von-2-System 1-von-3-System 1-von-4-System
8 - 28 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Lernerfolgsfragen
Was sind die wichtigsten Einflussgrößen menschlicher Fehler?
Welche Klassifizierungsansätze für menschliche Fehler, orientieren sich an Fertigkeiten, Regeln und Wissen?
Welche Methoden zur Schätzung menschlicher Zuverlässigkeit kennen Sie?
Was sind die wichtigsten Maßnahmen zu Vermeidung menschlicher Fehler?
8 - 29 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Literaturverzeichnis Bubb, H.: http://www.lfe.mw.tu-muenchen.de, 2000 Bubb, H. (Hrsg.): Menschliche Zuverlässigkeit. ecomed, Landsberg/Lech, 1992 Gall, D., Völker, S. (1996) Nutzen einer besseren Beleuchtung, Abschlussbericht TU
Illmenau, zitiert nach licht wissen. Heft 05 „Industrie und Handwerk“ Hagen, E.; Mays, G.: Human Factors Engineering in the U.S. Nuclear Arena. Nuclear Sa-fety,
17(3), 315-326, 1981 Hannaman, G.; Spurgin, A.; Lukic, Y.: A Model for Assessing Human Cognitive Reliability in
PRA Studies. Proceedings IEEE Conference on Human Factors and Power Plants, Monterey, CA, New York,1985
Hollnagel, E.: Human Reliability Analysis: Context and Control. Academic Press, London, 1993
Kirwan, B.: A Guide to Practical Human Reliability Assessment. Taylor & Francis, London, 1994
Meister, D.: Human Factors: Theory and Practice. John Wiley, New York, 1971 Meister, D.: Human Error in Man Machine Systems. In: N.T. Brown (ed.), Human Aspects of
Man-Machine Systems, Open University Press, Miltore (UK), 1977 Miller, D.; Swain, A.: Human Error and Human Reliability. In: G. Salvendy (ed.), Handbook of
Human Factors/Ergonomics. John Wiley, New York, 1986 Norman, D.A.: Cognitive Engineering. In: D.A. Norman, S.W. Draper (eds.), User Centered
System Design. Lawrence Earlbaum Associates, 1986.
8 - 30 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen
Literaturverzeichnis Park, S.K.: Human Error. In: G. Salvendy (ed.), Handbook of Human Factors and
Ergonomics, New York: John Wiley, 1997 Rasmussen, J.: The Definition of Human Error and a Taxonomy for technical System Design.
In: J. Rasmussen et al. (eds.), New Technology an Human Error. John Wiley, New York, 1987 Reason, J.: Human Error. Cambridge University Press, Cambridge, 1990 Reason, J.: Identifying the Latent Causes of Aircraft Accidents Before and After the Event.
22nd Annual Seminar, The International Society of Air Safety Investigators, Canberra, 1991. Reason, J.: Menschliches Versagen : psychologische Risikofaktoren und moderne
Technologien. Aus dem Amerikan. Übers. von Joachim Grabowski. Spektrum Akad. Verl., Heidelberg, 1994
Rigby, L.: The Nature of Human Error. Annual technical conference transactions of the ASQC, 1970
Rouse, W.B.; Rouse, S.H.: Analysis and Classification of Human Errors. IEEE Transactions on Systems, Man and Cybernetics, Vol. SMC-13, No. 4, 1983
Schlick, C.; Bruder, R.; Luczak, H.: Arbeitswissenschaft. Springer, Berlin, 2010 Swain, A.D.; Guttman, H.E.: Handbook of Human Reliability Analysis with Emphasis on
Nuclear Power Plant Applications NUREG/CR-1278. Sandia Laboratories, Albuquerque, 1983 VDI-Richtlinie 4006 Blatt 2 (2003) Menschliche Zuverlässigkeit Methoden zur quantitativen
Bewertung menschlicher Zuverlässigkeit. VDI-Verlag, Düsseldorf Zimolong, B.: Fehler und Zuverlässigkeit. In: Ingenieurpsychologie, Enzyklopädie der
Psychologie, Band 2. Hogrefe, Göttingen, 1990
Top Related