Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma...

136
Virtuelles Qualitätsmanagement Strategien für den Aufbau abweichungsbetrachtender Simulationsmodelle und die Entwicklung virtueller Qualitätsmanagementtechniken Der Technischen Fakultät der Universität Erlangen-Nürnberg zur Erlangung des Grades D O K T O R - I N G E N I E U R vorgelegt von Dipl.-Ing. Martin Bookjans Erlangen – 2011

Transcript of Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma...

Page 1: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Virtuelles Qualitätsmanagement Strategien für den Aufbau abweichungsbetrachtender

Simulationsmodelle und die Entwicklung virtueller Qualitätsmanagementtechniken

Der Technischen Fakultät

der Universität Erlangen-Nürnberg

zur Erlangung des Grades

D O K T O R - I N G E N I E U R

vorgelegt von

Dipl.-Ing. Martin Bookjans

Erlangen – 2011

Page 2: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Als Dissertation genehmigt von

der Technischen Fakultät der

Universität Erlangen-Nürnberg

Tag der Einreichung: 21.01.2011

Tag der Promotion: 05.04.2011

Dekan: Prof. Dr.-Ing. Reinhard German

Berichterstatter: Prof. Dr.-Ing. Dr.-Ing. E.h. Dr. h.c. mult. Albert Weckenmann

Prof. Dr.-Ing. Ralf Woll

Page 3: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE
Page 4: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE
Page 5: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Zusammenfassung / Abstract

Zusammenfassung Simulationsgestützte Prozessplanung birgt derzeit noch ein hohes Einsatzpotential! Bisher herrscht die Praxis vor, Umwelteinflüsse und Unvollkommenheiten des Fertigungsprozesses bei der Modellbildung zu vernachlässigen, um die Komplexität der Modelle einzugrenzen. Dadurch erhält man zwar überschaubare Modelle, aber Aussagen über optimale Prozessparameter oder die Qualitätsfähigkeit des zu planenden Prozesses sind aufgrund der unzureichenden Modelldetaillierung unbrauchbar oder weisen zu große Unsicherheiten auf. Oftmals werden erst nach dem realen Aufbau der Fertigungslinie die entsprechenden Qualitätsmanagementtechniken „aufpfropfend“ eingesetzt, wenn eine Vielzahl von begrenzenden Faktoren unter wirtschaftlichen Gesichtspunkten bereits als unveränderbar hingenommen werden müssen.

Auf Basis der dargestellten Situation liegt das Ziel dieser Arbeit in der Bereitstellung einer Systematik, die mit dem Begriff „virtuelles Qualitätsmanagement“ betitelt wurde. Hierunter werden „aufeinander abgestimmte Vorgehensweisen zur effizienten Modellierung, Anpassung, Nutzung und Auswertung von Simulationen bezüglich Generieren von belastbarem Wissen und Auslegen von Qualitätstechniken für Produkte und Prozesse während der Planungsphase“ zusammengefasst. Der Ansatz besteht aus einer übergeordneten, allgemeingültigen Systematik für den Aufbau von abweichungsbetrachtenden Simulationsmodellen sowie aus einem Referenzmodell zur Entwicklung und Implementierung virtueller Qualitätsmanagementtechniken. Im Rahmen einer ausführlichen Erprobung wurden drei Simulationsmodelle unterschiedlicher Fachdomänen aufgebaut und mit den neu entwickelten Werkzeugen der virtuellen statistischen Prozessregelung erfolgreich untersucht.

Abstract The potential of simulation-based process planning is not fully tapped by far! Impacts caused by the environment and the imperfection of manufacturing processes are often disregarded within simulation models in order to reduce their complexity. Thus manageable models are available, but conclusions concerning optimal process parameters or the quality capability of the new process chain are useless in most cases, by the reason of inadequate detailing of the model, or bear large ranges of uncertainty. Not before the real production line was set up, quality management techniques are getting realized in the ramp-up phase or in the beginning of the series production, when many operational determinations have already been made so far and many basic conditions have to be accepted as unchangeable in the economic view.

Basing on that situation, the aim of this work is the development of a methodology called “virtual Quality Management”. It contains “coordinated approaches to the efficient modelling, adaptation, utilization and analysis of simulation studies for generating resilient knowledge and dimensioning quality techniques for products and processes during the planning stage”. The approach consists of a superordinate, universal methodology for the set up of deviation-concerning simulation models as well as of a reference model for the development and implementation of virtual quality management techniques. As part of an extensive evaluation, three simulation models from varying manufacturing sectors were set up and successfully examined by the use of the newly developed tools of the virtual statistic process control.

Page 6: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE
Page 7: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE
Page 8: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE
Page 9: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Abkürzungsverzeichnis

Abkürzungsverzeichnis

α Fehler erster Art (Falscher Alarm, Lieferantenrisiko)

AIAG Automotive Industry Action Group

ANOVA Varianzanalyse (Analysis of Variance)

ARL Average Runtime Length

ARIS Architektur integrierter Informationssysteme

AP Ausgabeparameter

AQL Acceptable Quality Limits

β Fehler zweiter Art (Unterlassener Alarm, Kundenrisiko)

BI Bias

CAD Computer Aided Design

CDOV Akronym für die 4 Phasen des Design for Six Sixma Kernprozesses „Concept”, „Design“, „Optimize“ und „Verify“

cg Potential des Messsystems

cgk Kritisches Potential des Messsystems

CI Computational Intelligence

cm Maschinenfähigkeit

cmk Kritische Maschinenfähigkeit

cp Prozessfähigkeit

cgk Kritische Prozessfähigkeit

CUSUM Cumulative Sum

CTQ Critical to Quality

d Vielfaches der Prozessstreuung

DCCDI Akronym für die 5 Phasen des Design for Six Sixma Kernprozesses „Define”, „Customer Analysis“, „Conceptual Design“, „Design“ und „Implement“

DDOV Akronym für die 4 Phasen des Design for Six Sixma Kernprozesses „Define”, „Design“, „Optimize“ und „Verify“

DfSS Design for Six Sigma

DMADOV Akronym für die 6 Phasen des Design for Six Sixma Kernprozesses „Define”, „Measure“, „Analyze“, „Design“, „Optimize“ und „Verify“

DMADV Akronym für die 5 Phasen des Design for Six Sixma Kernprozesses „Define”, „Measure“, „Analyze“, „Design“ und „Verify“

DMEDI Akronym für die 5 Phasen des Design for Six Sixma Kernprozesses „Define”, „Measure“, „Explore“, „Develop“ und „Implement“

Page 10: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“

DoE Design of Experiments

DovE Design of virtual Experiments

e Eingangsgröße

EP Eingabeparameter

ERM Entity-Relationship-Model

F Funktion

FEM Finite-Element(e)-Methode

FlussSt Flusssteuerung

FMEA Fehlermöglichkeits- und Einflussanalyse

5M „Mensch“, „Maschine“, „Methode“, „Material“ und „Mitwelt“

G Gewichtungsfaktor

GA Genetischer Algorithmus

Gen. Alg. Genetischer Algorithmus

G(P) Gütefunktion eines statistischen Tests in Abhängigkeit vom Ausschussanteil P

GUI Graphische Benutzeroberfläche (Graphical User Interface)

HTML Hypertext Markup Language

ICOV Akronym für die 4 Phasen des Design for Six Sixma Kernprozesses „Identify”, „Characterize“, „Optimize“ und „Verify“

IDEF Integrated Definition

IDOV Akronym für die 4 Phasen des Design for Six Sixma Kernprozesses „Identify”, „Design“ „Optimize“ und „Verify“

IT Informationstechnik

K Korrelation

kp Vertrauensfaktor

KPI Key Performance Indicator

M Methode

MessFU Messgerätefähigkeitsuntersuchung

MFU Maschinenfähigkeitsuntersuchung

MK Modellkomponente

MKD Modelling Key Document

MOSUM Moving Sum

MP Mission Profile

MSA Measurement System Analysis

MTBF Mean Time Between Failures

Page 11: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Abkürzungsverzeichnis

NF Nebenfunktion

µ Mittelwert, bzw. im Zusammenhang mit der Fuzzy-Set-Theorie: Zugehörigkeitsfunktion

OEG Obere Eingriffsgrenze

OGW Oberer Grenzwert

OSG Obere Spezifikationsgrenze

OWG Obere Warngrenze

P Ausschussanteil, bzw. bei Genetischen Algorithmen: Parameter

PDCA Deming-Zyklus („Plan“, „Do“, „Check“, „Act“)

pp Vorläufige Prozessfähigkeit

ppk Vorläufige kritische Prozessfähigkeit

PEP Produktentstehungsprozess

PFU Prozessfähigkeitsuntersuchung

PI Performance Indikator

Q Qualität

QFD Quality Function Deployment

QG Quality Gate

QM Qualitätsmanagement

Q7 Die sieben klassischen Qualitätswerkzeuge (Fehlersammelliste, Histogramm, Qualitätsregelkarte, Pareto-Diagramm, Korrelationsdiagramm, Brainstorming, Ursache- Wirkungs-Diagramm)

r Störgröße

RCI Akronym für die 3 Phasen des Design for Six Sixma Kernprozesses „Requirements”, „Concepts“ und „Improvements“

S Schwierigkeit der Implementierung

σ Sigma, Streuung

s Steuergröße, Streuung

6σ Six Sigma

sges Gesamtstreuung

SIPOC Diagramm mit den fünf Spalten „Supplier“, „Input“, „Process“, „Output“ und „Customer“

SP Stichprobe

SPC Statistische Prozesslenkung

STL Surface tesselation language

T Toleranz, bzw. bei Ablaufplänen: Task, bzw. im Rahmen der Programmierung: Tabelle

U Unsicherheit

UEG Untere Eingriffsgrenze

UGW Unterer Grenzwert

Page 12: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

USG Untere Spezifikationsgrenze

UWG Untere Warngrenze

U/W-Matrix Ursache-Wirkungs-Matrix

UOB Unit of behaviour

vKPI Virtueller Key Performance Indicator

VoC Voice of the Customer

vPI Virtueller Performance Indicator

vQM Virtuelles Qualitätsmanagement

VR Virtual Reality

W Wichtigkeit für den Prozesseigner

we Wirkung der Eingangsgrößen

wr Wirkung der Störgrößen

ws Wirkung der Steuergrößen

WW Wechselwirkung

WZ Werkzeug

x Mittelwert

x Mittelwert mehrerer Mittelwerte

XOR Exklusives Oder

Y Systemantwort / Zielgröße

yNenn Nennwert des als Systemantwort deklarierten Parameters

yReal Am realen Versuchsaufbau aufgenommene Systemantwort

ySim Am Simulationsmodell aufgenommene Systemantwort

Indices i, j, k, l sind Zählvariablen.

Page 13: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE
Page 14: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE
Page 15: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Inhaltsverzeichnis I

1 Einleitung ...................................................................................................1 2 Grundlagen ...............................................................................................3

2.1 Simulation ...............................................................................................................................3 2.1.1 Überblick Anwendungsbereiche und Simulationsarten ..............................................................4 2.1.2 Simulationstypen ........................................................................................................................5 2.1.3 Ansätze zur systematischen Modell-Bildung ..............................................................................6 2.1.4 Ansätze zur Erfassung der notwendigen Informationen .............................................................9 2.1.5 Modellierungssprachen .............................................................................................................10

2.2 Computational Intelligence ....................................................................................................11 2.2.1 Künstliche Immunsysteme ........................................................................................................11 2.2.2 Neuronale Netze .......................................................................................................................12 2.2.3 Schwarmintelligenz ...................................................................................................................12 2.2.4 Fuzzy-Logik ..............................................................................................................................13 2.2.5 Reinforcement Learning .........................................................................................................14 2.2.6 Evolutionäre Algorithmen .........................................................................................................15

2.3 Referenzmodelle ...................................................................................................................16 2.3.1 Begriffsdefinition .......................................................................................................................17 2.3.2 Methoden der Referenzmodellierung .......................................................................................18 2.3.3 Systemarchitekturen im Rahmen von Referenzmodellen ........................................................19 2.3.4 Einführung in die Systemarchitektur ARIS ................................................................................20

2.4 Qualitätstechniken ..................................................................................................................21 2.4.1 Verfahren zur Prüfprozess-, Maschinen- und Prozessqualifikation ..........................................22 2.4.2 Einsatz von Qualitätsregelkarten bei der Prozessregelung und deren Auslegung ...................24 2.4.3 Six Sigma .................................................................................................................................27 2.4.4 Design for Six Sigma ................................................................................................................29 3 Defizite, Zielsetzung und wissenschaftlicher Ansatz ..........................31

3.1 Defizite industrieller Anwendung und aktueller Forschungsansätze ................................31

3.2 Zielsetzung und Nutzen der Arbeit .......................................................................................34 3.2.1 Zielsetzung dieser Arbeit .........................................................................................................34 3.2.2 Beitrag und Nutzen der Arbeit ..................................................................................................35

3.3 Wissenschaftlicher Ansatz ....................................................................................................37 4 Leitfaden zum Aufbau abweichungsbetrachtender

Simulationsmodelle ...............................................................................38

4.1 Eingruppierung in den allgemeinen vQM-Ansatz ...............................................................38

4.2 Anforderungen an den Leitfaden ..........................................................................................40

4.3 Standardanwendungsfälle .....................................................................................................40 4.3.1 Anwendung beim Re-Design ....................................................................................................40 4.3.2 Anwendung beim Neu-Design ..................................................................................................41 4.4 Auswahl einer zugrundeliegenden Basis-Systematik .........................................................42

4.5 Allgemeiner Überblick über die erforschte Vorgehensweise..............................................44

Page 16: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

II Inhaltsverzeichnis

4.6 Detaillierte Beschreibung der einzelnen Phasen ....................................................................46 4.6.1 Define-Phase ……....................................................................................................................46 4.6.2 Measure-Phase ........................................................................................................................49 4.6.3 Analyse-Phase .........................................................................................................................52 4.6.4 Design-Phase ...........................................................................................................................55 4.6.5 Verify-Phase .............................................................................................................................57 5 Referenzmodell zum Aufbau virtueller QM-Techniken ........................61

5.1 Referenzarchitektur virtueller Qualitätsmanagementwerkzeuge .......................................61 5.1.1 Organisationssicht ...................................................................................................................62 5.1.2 Datensicht .................................................................................................................................63 5.1.3 Funktionssicht ...........................................................................................................................64 5.1.4 Sicht der Computational Intelligence ........................................................................................65 5.1.5 Steuerungssicht ........................................................................................................................66

5.2 Adaptionsstrategie .................................................................................................................67 5.2.1 Vorgehensweise zur Adaption von Qualitätsmanagementtechniken .......................................67 5.2.2 Entwickelte Werkzeuge zur Unterstützung des Anwenders .....................................................70 6 Anwendung des Leitfadens ...................................................................72

6.1 Aufbau des Prozessmodells „Stereolithographie“ .............................................................72 6.1.1 Allgemeine Einführung in das Fertigungsverfahren ..................................................................72 6.1.2 Define-Phase ............................................................................................................................73 6.1.3 Measure-Phase ………………………………………………………………………………………..75 6.1.4 Analyse-Phase ………...............................................................................................................77 6.1.5 Quality Gate I ............................................................................................................................79 6.1.6 Design-Phase ...........................................................................................................................79 6.1.7 Verify-Phase .............................................................................................................................80 6.1.8 Quality Gate II ...........................................................................................................................81

6.2 Aufbau des Prozessmodells „Kunststoffspritzguss“ .........................................................82

6.3 Aufbau des Prozessmodells „Schablonendruck“ ...............................................................83 7 Aufbau und Anwendung der vQM-Funktionsmodule ..........................84

7.1 Prüfprozesseignung ...............................................................................................................86

7.2 Maschinen- und -Prozessfähigkeitsuntersuchung .............................................................88

7.3 Kennzahlen-Cockpit ...............................................................................................................91

7.4 SPC-Modul ..............................................................................................................................93 7.4.1 Organisationssicht ...................................................................................................................93 7.4.2 Datensicht .................................................................................................................................94 7.4.3 Funktionssicht ...........................................................................................................................95 7.4.4 CI-Sicht .....................................................................................................................................96 7.4.5 Steuerungssicht ........................................................................................................................97

7.5 Anwendungsbeispiel Stereolithographieprozess ................................................................99 8 Zusammenfassung und Ausblick .......................................................101

Page 17: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Inhaltsverzeichnis III

9 Literaturverzeichnis .............................................................................103 10 Abbildungsverzeichnis .......................................................................114

Page 18: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE
Page 19: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 1 Einleitung 1

1 Einführung Alle Modelle sind falsch, aber einige sind nützlich.

George Edward Pelham Box (*1919)

Simulationswerkzeuge sind aus dem aktuellen industriellen Alltag kaum mehr wegzudenken. Im Allgemeinen wird Simulation definiert als „[...] ein Verfahren zur Nachbildung eines Systems mit seinen dynamischen Prozessen in einem experimentierbaren Modell, um zu Erkenntnissen zu gelangen, die auf die Wirklichkeit übertragbar sind“ [VDI 3633-1:2]. Neben analogen Modellen haben vor allem computerbasierte Varianten in den vergangenen zehn Jahren einen enormen Aufschwung erlebt, wobei die Anzahl abgesetzter Lizenzen für Simulationsprogramme pro Jahr branchenweit um über 20 Prozent ansteigt [TECHNOMATIX 2006].

Die digitalen Simulationswerkzeuge leisten durch ihre Möglichkeiten der Effizienzsteigerung im Rahmen von Produkt- und Prozessplanungsaktivitäten einen wichtigen Beitrag bei der Verkürzung der Produktentstehungszeit und sorgen somit unter anderem für die nachhaltige wirtschaftliche Attraktivität eines Hochlohnstandortes wie Deutschland. So, wie seit Langem bereits Patente als eine der wichtigsten Existenzgrundlagen eines produzierenden Industrieunternehmens angesehen werden, erhalten die firmeninternen Simulationsmodelle immer häufiger den Status eines elementaren Eckpfeilers des wirtschaftlichen Erfolges.

Umso verwunderlicher ist es, dass die simulationsgestützte Prozessplanung derzeit noch ein so hohes, ungenutztes Einsatzpotential birgt: Bisher herrscht die Praxis vor, zufallsbedingte Faktoren und deren vielschichtige Einflüsse auf die Zielgrößen, wie zum Beispiel von Umwelteinflüssen und Unvollkommenheiten des Fertigungsprozesses bei der Modellbildung weitgehend zu vernachlässigen. Aktuelle Ansätze der Modellierung, z.B. nach [VDI 3633] oder [RABE 2008], können die Forderungen an eine übergreifende, ganzheitliche Systematik zur Modellbildung systematischer und zufälliger Wirkzusammenhänge sowie an die Abbildungsgenauigkeit der daraus resultierenden virtuellen Repräsentanz allerdings nur bedingt erfüllen. Dies ist darauf zurückzuführen, dass die Modellbildung weniger als eigenständiges Projekt betrachtet wird, sondern vielmehr als Teil einer durchzuführenden Simulationsstudie. Dies gestattet zwar eine konsequente Fokussierung auf das Endziel einer virtuellen Versuchsreihe, jedoch tragen diese Ansätze kaum dem Umstand Rechnung, dass Datensammlung und Modellerstellung die Schlüsselaktivitäten einer Simulationsstudie darstellen.

Darüber hinaus werden Prozessingenieure und Simulationsanwender über weite Strecken „allein gelassen“, bei der systematischen Erfassung von Informationen und der Übertragung in eine virtuelle Repräsentanz. Dies führt häufig zu Vernachlässigungen von Umwelteinflüssen, Alterungsprozessen, Bedienerwechseln etc., welche sowohl aus Zeit- und Kostengründen wissentlich in Kauf genommen werden müssen als auch teilweise unbewusst erfolgen, da die Ursache-Wirkungs-Beziehungen im Rahmen der unsystematischen Datenakquisition nicht entdeckt wurden. Dadurch erhält man überschaubare Modelle, jedoch sind Aussagen über optimale Prozessparameter des zu planenden Prozesses unter realen Einsatzbedingungen aufgrund der unzureichenden Modelldetaillierung unbrauchbar oder weisen häufig zu große Abweichungen auf. Deswegen ist der eingangs zitierte Ausspruch des britischen Statistikers George Edward Pelham Box auch so treffend, da zwar das perfekte Modell nie Realität werden wird, aber dennoch die Nützlichkeit von Modellen durch ihre gezielte Erweiterung ein erstrebenswertes und erreichbares Ziel darstellt.

Page 20: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

2 Einleitung Kapitel 1

Darüber hinaus sind die bekannten Methoden zur quantifizierten Bewertung der Abbildungsgenauigkeit von Simulationsmodellen in weiten Teilen unzureichend: Analog zur Erkenntnis, dass Messergebnisse nur als Gerüchte zu betrachten sind, solange keine Informationen über ihr Zustandekommen vorliegen [WECKENMANN 1999], sind auch Simulationsergebnisse weitestgehend nutzlos, wenn keine Aussagen über die Qualität des zugrundeliegenden Simulationsmodells – repräsentiert durch die quantifizierte Abbildungsgenauigkeit – getroffen werden können.

Aus diesen Gründen können Simulationsmodelle auch nur sehr begrenzt bei der Prognose qualitätsbezogener Kenngrößen eingesetzt werden, wie zum Beispiel im Rahmen einer Maschinen- und Prozessfähigkeitsanalyse. Denn bei diesen Studien sollen vorrangig diejenigen Parameter mit ihren Auswirkungen auf den Prozess bewertet werden, die bisher in zu großem Umfang vernachlässigt wurden. Dies hat zur Folge, dass Qualitätsmanagementtechniken oftmals erst nach dem realen Aufbau der Fertigungslinie, zum Beispiel während der Hochlaufphase, „aufpfropfend“ realisiert werden, wenn eine Vielzahl von begrenzenden Faktoren unter wirtschaftlichen Gesichtspunkten bereits als unveränderbar hingenommen werden muss.

In logischer Konsequenz sind die in Industrie und Wissenschaft vorhandenen Ansätze zur qualitätsorientierten Auswertung von Prozesssimulationsstudien nicht oder nur unzureichend implementiert. Als – nach aktuellem Kenntnisstand – einzigen kommerziell angebotenen Vertreter lässt sich hier die Simulationsumgebung iGrafX mit dem Zusatzmodul „Process for Six Sigma“ anführen [COREL 2009], in welchem jedoch die implementierten Qualitätsmanagementtechniken nicht die erforderlichen weitreichenden Anpassungen an die Randbedingungen der virtuellen Welt erfahren haben.

Auch Modellarchitekturen und Handlungsanweisungen zum zielgerichteten Aufbau von virtuellen Qualitätsmanagementwerkzeugen sind nicht bekannt, obwohl deren Anwendung hoch effizient und von wirtschaftlichem Interesse wäre. Einzig die vielfältigen, zum Aufbau von Informationssystemen entwickelten Referenzmodelle geben erste Anhaltspunkte, wie bei einem solchen Vorhaben vorzugehen ist, ohne jedoch speziell auf die individuellen Anforderungen simulationsbasierter Qualitätsmanagementwerkzeuge einzugehen.

Auf der Basis der dargestellten Situation besteht das Ziel dieser Arbeit in der Bereitstellung einer übergeordneten, allgemeingültigen Systematik für den Aufbau von abweichungsbetrachtenden Simulationsmodellen sowie deren Einsatz bei der virtuellen Qualitätsbewertung und -planung. Unter dieser – mit dem Begriff „virtuelles Qualitätsmanagement“ betitelten – Systematik, werden „aufeinander abgestimmte Vorgehensweisen zur effizienten Modellierung, Anpassung, Nutzung und Auswertung von Simulationen bezüglich Generieren von belastbarem Wissen und Auslegen von Qualitätstechniken für Produkte und Prozesse während der Planungsphase“ [WECKENMANN 2008-1] zusammengefasst.

Zur Erreichung dieses Ziels werden in dieser Arbeit zwei getrennte Ansätze verfolgt und unter dem Dach des virtuellen Qualitätsmanagements vereint: Zum Einen wurden Strategien zum systematischen Aufbau abweichungsberücksichtigender Simulationsmodelle auf der Basis der Design-for-Six-Sigma-Methodik DMADV erforscht (Kapitel 4) und validiert (Kapitel 6). Zum Anderen wurde ein Referenzmodell bestehend aus Referenzarchitektur und Adaptionsstrategie erarbeitet (Kapitel 5), welches den Anwender bei der strukturierten Konzeptionierung und Entwicklung virtueller Qualitätsmanagementtechniken effektiv unterstützt. Dieses Referenzmodell wurde vielfach bei der Entwicklung eines simulationsbasierten Methoden-Satzes für die virtuelle Fähigkeitsbewertung von Messgeräten, Maschinen und Prozessen sowie weiteren Werkzeugen erprobt (Kapitel 7).

Page 21: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 3

2 Grundlagen

Im nachfolgenden Kapitel werden Einführungen in verschiedene Fachdisziplinen gegeben, die im weiteren Verlauf dieser Arbeit von Bedeutung sind: Abschnitt 2.1 gibt einen Überblick über allgemeine simulationstheoretische Grundlagen, da die entwickelten Modelle, Leitfäden und Werkzeuge für die Anwendung in der Virtual Reality optimiert wurden. Des Weiteren werden in diesem Abschnitt Ansätze der strukturierten Modellbildung behandelt, die in den in Kapitel 4 aufgezeigten Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle einfließen.

Der Themenbereich „Computational Intelligence“ (Abschnitt 2.2) gibt eine kurze Zusammenfassung gängiger Algorithmen der künstlichen Intelligenz, die im Zuge der vorgestellten Referenzarchitektur (Abschnitt 5.1) bei der Entwicklung virtueller Qualitätsmanagementwerkzeuge eingesetzt werden können. Ein Beispiel einer gelungenen Implementierung folgt in Abschnitt 7.4.

Die in Abschnitt 2.3 vorgestellten Referenzmodelle bilden die Grundlage für das in Kapitel 5 dargelegte vQM-Referenzmodell zum Aufbau virtueller Qualitätsmanagementtechniken. Vor allem das ARIS-Referenzmodell wird eingehender betrachtet, da es als Ausgangsbasis des neuen Ansatzes diente.

Qualitätstechniken kommen im Rahmen dieser Arbeit auf zweierlei Weise zum Tragen: Zum einen werden ausgewählte Werkzeuge für den Einsatz in der Virtual Reality adaptiert, um die Leistungsfähigkeit der erforschten Ansätze zu unterstreichen (Abschnitte 2.4.1 und 2.4.2), und zum anderen unterstützt die Anwendung solcher Techniken bei der strukturierten Abarbeitung der Simulationsprojekte (Abschnitte 2.4.3 und 2.4.4).

2.1 Simulation Die Grundlage für rechnergestützte Simulationen sind mathematische Modelle, wobei die meisten die Realität idealisiert abbilden und auf Eingangsdaten angewiesen sind, welche häufig in die Kategorien „Material“, „Energie“ und „Information“ untergliedert werden können. Hinzu kommen Effekte auf das System durch beeinflussbare und nicht-beeinflussbare Größen. Die Kenntnis der jeweiligen Zusammenhänge zwischen Eingangs-, Steuer bzw. Stör-Größen und den Ziel- oder Ausgangsparametern mündet in die Formulierung des mathematischen Modells (Bild 2.01)

Bild 2.01: Darstellung eines Prozesses

∑∑∑ ⋅+⋅+⋅= rllskkejji wrwsweY

nicht-beeinflussbare Größen (Störgrößen) r

beeinflussbare Größen (Steuergrößen) s

MaterialEnergie

Information

MaterialEnergie

Information

Eingang e Ausgang YProzessmodell

∑∑∑ ⋅+⋅+⋅= rllskkejj wrwsweY

Page 22: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

4 Grundlagen Kapitel 2

Unabhängig vom Anwendungsfall ist das Prinzip des Einsatzes von Simulationen stets identisch: Ein reales bzw. geplantes System wird abstrahiert und in ein Simulationsmodell überführt. Nur durch die Vereinfachung der Realität ist es möglich, Systeme in der virtuellen Welt abzubilden, wobei jedoch der Vereinfachungs- bzw. Abstraktionsgrad stark variiert, da er maßgeblich von den vielschichtigen Anforderungen an das Simulationsergebnis abhängt.

An dem oben beschriebenen Modell lassen sich diverse Experimente durchführen, welche zu formalen, simulationsbezogenen Ergebnissen führen. Zur Ableitung von Schlussfolgerungen für das reale bzw. geplante System müssen die Simulationsergebnisse unter Berücksichtigung der Restriktionen realer Umgebungsbedingungen kritisch bewertet und gegebenenfalls angepasst werden. Basierend auf den Simulationsergebnissen können die Eingangsparameter oder gar die Simulationsmodelle selbst modifiziert werden, um somit durch eine Iterationsschleife zusätzliche Informationen zu generieren.

Nach der Validierung der Simulationsergebnisse erfolgt die Umsetzung der virtuell ermittelten Lösungsstrategien im realen bzw. geplanten System. Der Grad der Verwertbarkeit erarbeiteter Erkenntnisse hängt dabei empfindlich von der Abbildungsgenauigkeit des zugrundeliegenden Modells und des jeweiligen Anwendungsfalls ab. Bild 2.02 verdeutlicht die Verknüpfung der beschriebenen Phasen [HRDLICZKA 1997].

Bild 2.02: Ablauf einer Simulationsstudie

2.1.1 Überblick Anwendungsbereiche und Simulationsarten

Die Einsatzbereiche der Simulationstechnik sind sehr vielfältig und können je nach Anwendungsfall unterschieden werden: Das Portfolio reicht hierbei von der abstrakten Planung des Gesamtunternehmens bis hin zur detaillierten Simulation einzelner Komponenten und ihrer spezifischen Funktionen. Je nach Planungsebene kommen unterschiedliche Simulationsarten und -programme zur Anwendung:

Graphiksimulationen kommen verstärkt dann zum Einsatz, wenn vorrangig ein realitätsnaher, optischer Eindruck, z.B. eines neuen Produkts, vermittelt werden soll. Ebenso finden sie häufig in der Visualisierung von Produktionsabläufen Verwendung, um beispielsweise potenzielle Kollisionen kombinierter Handlingsysteme bereits auf der Planungsebene vorherzusehen. Ein Vertreter dieser Softwaregattung ist das Programmpaket EASY-ROB [EASY-ROB 2010].

Die Finite-Element(e)-Methode, kurz FEM, ist ein Näherungsverfahren zur Lösung von Differentialgleichungen. Mit diesen Gleichungen kann das Verhalten von statischen Fachwerken bis

Modellierung und Abstraktion

Übertragung und Interpretation

Ex-peri-

menteUm-set-zung

Virtuelle WeltReale Welt

Reales / geplantes System

Simulations-modell

Folgerung für das reale / geplante

System

Formale Ergebnisse

Page 23: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 5

hin zu elektromagnetischen Feldberechnungen beschrieben werden, wobei das Berechnungsgebiet zunächst in eine beliebig große Anzahl begrenzter, d.h. finiter, Elemente unterteilt wird [MÜLLER 2009]. Die Größe des zu lösenden Gleichungssystems hängt maßgeblich von der Anzahl der finiten Elemente ab. Ein aktuelles Beispiel für eine zugehörige Software ist Abaqus FEA.

Mehrkörpersysteme beschreiben Systeme aus verschiedenen massebehafteten, starren oder elastischen Körpern, die untereinander durch Verbindungen gekoppelt sind. Mehrkörpersimulations-programme finden heute in sehr unterschiedlichen Branchen breite Anwendung, wie zum Beispiel in der Luft- und Raumfahrttechnik, bei der Simulation von Straßen- und Schienenfahrzeugen, aber auch bei der detaillierten Schwingungsberechnung von Antriebssträngen in PKW. Eine Mehrkörper-simulation prognostiziert unter Vorgabe von Anfangs- und Randbedingungen die Bewegungs-abläufe und die dabei an den betrachteten Körpern wirkenden Kräfte und Momente [ULBRICH 2010]. Ein Vertreter dieser Softwaregattung ist das Programmpaket SIMPACK [SIMPACK 2010].

„Ein Geschäftsprozess ist ein spezieller Prozess, welcher der Erfüllung der obersten Ziele der Unternehmungen (Geschäftsziele) dient und das zentrale Geschäftsfeld beschreibt.“ [GRONAU 2006]. Die Geschäftsprozesssimulation beschäftigt sich dementsprechend mit der unternehmensweiten Abbildung und Simulation von Informationsflüssen und Aufträgen auf der Managementebene. Ein aktuelles Beispiel für eine zugehörige Software ist das Paket Corel iGrafx Enterprise Modeler 2009 [COREL 2010]. Aufgabe der Prozessablaufsimulation ist es – je nach Detaillierungsgrad – einzelne Fertigungszellen bis hin zu verketteten Produktionsstraßen abzubilden, um hieraus vielfältige Informationen zu Materialflüssen, Maschinenkapazitäten, Engpässen (sog. Bottle Necks) und vielem mehr zu erhalten. Hierbei wird ein Prozess verstanden als ein „Satz von in Wechselbeziehung oder Wechselwirkung stehenden Tätigkeiten, der Eingaben in Ergebnisse umwandelt“ [ISO 9000:23]. Hierzu gibt es vielfältige Programme, welche von der Simulation, zum Beispiel einzelner Roboter mit der Stäubli Robotics Suite [STÄUBLI 2010], bis hin zur Simulation von komplexen Fertigungslinien reichen. Bei der Bearbeitung derartiger Aufgaben ist das Programm Plant Simulation weit verbreitet [BANGSOW 2008].

Zur Simulation zufälliger Einflüsse hat sich die Monte-Carlo-Simulation fest im Umfeld der verschiedenen Simulationsansätze etabliert. Hierbei werden – vereinfacht ausgedrückt – mit Hilfe von Zufallszahlengeneratoren zufällige Einflüsse in Simulationsmodellen abgebildet. In einer Abwandlung hiervon, zum Beispiel im Programm Plant Simulation werden mehrere Zufallszahlenströme bereitgestellt, welche als eine Art Pseudo-Zufallszahl zufällige Ereignisse abbilden, aber bei einer festen Ausgangskonfiguration reproduzierbar immer dieselben Zufallszahlen zur selben Zeit generieren [BANGSOW 2008]. Dies gewährleistet vor allem bei Vergleichsstudien die identischen Ausgangssituationen für die zu testenden Parameterkonstellationen ohne trotzdem zufällige Einflüsse darzustellen.

2.1.2 Simulationstypen

Kontinuierliche Simulationen betrachten Abläufe, deren Zielgrößen sich nicht in diskreten Zeitintervallen, sondern in Abhängigkeit von der Zeit stetig verändern (Bild 2.03 oben links). Ein Beispiel für ein derart kontinuierliches System wäre beispielsweise die Wettervorhersage. Die Schwierigkeit liegt dabei in der Tatsache, dass der reale Prozess nur sehr schwer erfassbar und somit auch schlecht simulierbar ist [ALLWEYER 2005]. Da es sich bei allen gängigen Simulations-systemen um digitale Lösungen handelt, welche sowohl in der Auflösung der Zeit- wie der Variablenachse nur diskrete Werte annehmen können, handelt es sich systembedingt stets um qua-si-kontinuierliche Ansätze, wie zum Beispiel im Programmpaket SIMULINK [LAW 2007], bei denen kontinuierliche Simulationen auf diskrete Zeitintervalle reduziert werden (Bild 2.03 oben rechts).

Page 24: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

6 Grundlagen Kapitel 2

Diskrete, ereignisorientierte Simulationen finden vor allem bei der Abbildung von Geschäfts- oder Fertigungsprozessen Anwendung. Hierbei wird vereinfachend von dem Umstand ausgegangen, dass das zu simulierende System nur diskrete, das heißt einzelne, zeitlich voneinander abgrenzbare Zustände annehmen kann. Zustandswechsel werden dabei durch Ereignisse ausgelöst und sind selbst zeitlos. Dieser Ansatz wird genutzt, um unabhängig von vordefinierten Zeitintervallen nur dann Berechnungskapazitäten zu binden, wenn eine Zustandsänderung ansteht (Bild 2.03 unten links). Ein Beispiel für ein ereignisdiskretes System ist eine Warteschlange [ALLWEYER 2005].

Bild 2.03: Simulationstypen

2.1.3 Ansätze zur systematischen Modellbildung und Simulation

In der einschlägigen Literatur finden sich diverse Ansätze zur Standardisierung der Durchführung von virtuellen Studien mit Hilfe der Prozesssimulation. Auf eine Auswahl wird im Folgenden kurz eingegangen:

Modellbildung und Simulation nach [SARGENT 1983] Einer der ersten veröffentlichten Ansätze zur Darstellung der komplexen Zusammenhänge im Zuge der Modellbildung und Simulation stammt von R. G. Sargent bereits aus dem Jahr 1983 [SARGENT 1983]. Dieser Ansatz besagt, dass das Wesen des Problems, das gedankliche (konzep-tionelle) Modell und das Simulationsmodell in wechselseitigen Beziehungen zueinander stehen und dass die Validität der zugrundeliegenden Daten als Kernelement vorauszusetzen ist (Bild 2.04).

Bild 2.04: Zusammenhänge zwischen Problem, Konzept und Modell im Zuge der Modellbildung

Abh

ängi

ge V

aria

ble

ZeitKontinuierliche Simulation

Diskrete ereignisorientierte Simulation Kombinierte Simulation

Kontinuierliche Simulation mitdiskreten Zeitintervallen

Abh

ängi

ge V

aria

ble

Zeit

Abh

ängi

ge V

aria

ble

Zeit

Abh

ängi

ge V

aria

ble

Zeit

Wesen des Problems

Simulations-modell

Konzeptionelles Modell

Validität des konzeptionellen

Modells

Verifikation des Simulationsmodells

Operationale Validität

Validität der

Daten

Programmierung

Page 25: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 7

Ansatz nach VDI 3633 Bei der Simulation von Produktions- und Logistikprozessen kommt der VDI-Richtlinie 3633 als einzigem norm-ähnlichen Standard dieses Themen-gebiets große Bedeutung zu [RABE 2008]. Die Vorgehensweise glie-dert sich in drei Phasen: „Vorbereitung“, „Durchführung“ und „Auswertung“ (Bild 2.05). Nach der Feststellung der Simulationswürdigkeit erfolgt die Aufgaben- und Zieldefinition mit einer Aufwandsabschätzung. Daran schließt sich der Aufbau einer Datenbasis an, welche in die nachfolgend aufgeführten Kategorien unterteilt werden kann:

Daten zur Beschreibung von Topologie und Struktur des Systems

Daten zur Beschreibung der Systemkomponenten

Daten zur Beschreibung der Zustandsveränderungen

Daten zur Systemlastbeschreibung

Durch Analyse und Abstraktion der vorhandenen Daten wird das Simula-tionsmodell erstellt. Nach Abschluss dieser Arbeiten ist die Vorbereitung einer Simulationsstudie abgeschlossen.

Es folgt der Simulationslauf, welcher direkt von den definierten Zielen abhängt, die im Rahmen der Simula-tionsstudie erreicht werden sollen.

Bild 2.05: Vorgehensweise bei der Simulation gemäß der VDI-Richtlinie 3633

Nach [VDI 3633-1] ist die Simulationsdurchführung „in den meisten Fällen ein systematisiertes Probieren, bei dem sich das folgende Experiment erst aus den Resultaten vorangegangener Experi-mente ergibt.“

Im Zuge der Interpretation der Simulationsdaten kommt dem Planer der Simulationsstudie erhebliche Bedeutung zu, da ihm weder die Simulation selbst, noch die sich anschließende Ergebnisaufbereitung das Ableiten von Maßnahmen abnehmen. Gegebenenfalls müssen iterativ Veränderungen an den Rahmenbedingungen oder am Modell selbst vorgenommen werden, um das eingangs definierte Ziel zu erreichen. Zur Aufbereitung der ermittelten Daten bietet die Richtlinie die drei Varianten an: „Statistik“, „Monitoring“ und „Animation“. Mit diesen Ansätzen werden die erhaltenen Rückmeldungen verdichtet, um dem Anwender problembezogene und zielsystemorientierte Entscheidungshilfen bereitzustellen.

- ermittelnDaten - aufbereiten

- abstimmen

Simulationswürdig?

Problemstellung ProblemanalyseKostenanalyse

Andere Methoden

Simulationsmodellerstellen

Simulationslauf

Aufgabe und Ziel formulieren

Aufwand abschätzen

Ergebnisse analysieren

Konvergenz m. Plan/Realität?

Zielergebnisse i.O.?

Neue Fragestellungen?

Ergebnisumsetzung

Aufgabeändern?

Alternativen entwickeln

Valid

ieru

ng (M

odel

lkor

rekt

ur)

Vorb

erei

tung

Dur

ch-

führ

ung

Ausw

ertu

ng

ja

nein

nein

nein

ja

ja

ja

nein

nein

ja

Page 26: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

8 Grundlagen Kapitel 2

Weiterentwicklung der Vorgehensweise nach VDI 3633 in [RABE 2008] Der seit 1993 gültige Ansatz der VDI-Richtlinie 3633 – Blatt 1 „Simulation von Logistik-, Materialfluß- und Produktionssystemen – Grundlagen“ [VDI 3633-1] wurde in [RABE 2008] konkretisiert und modernisiert (Bild 2.05). Das hieraus entstandene Modell betrachtet ausgehend von einer gegebenen Zielbeschreibung nur Aufgaben, die typischerweise nach der Beauftragung einer Simulationsstudie anfallen.

Gegenüber den bisher bestehenden und vorgestellten Ansätzen zeichnet sich diese Vorgehensweise durch die konsequente Einführung von Phasen-ergebnissen sowie die gesonderte Behandlung von Modell und Daten aus. Phasenergebnisse sind entweder Modelle oder Dokumente bzw. eine Kombination aus beidem. Nach [RABE 2008] sollten die Modelle selbst ebenfalls dokumentiert werden, um eine Nachvollziehbarkeit der Vor-gehensweise zu gewährleisten.

Bild 2.06: Weiterentwickelter Ansatz nach [RABE 2008]

Die Phasen „Datenbeschaffung“ und „Datenaufbereitung“ sind aus der Reihe der Modellierungs-schritte ausgegliedert, da sie inhaltlich, zeitlich und personell in gewissem Maße unabhängig sind. Dies bedeutet, dass Daten bereits vor der Erstellung eines Konzeptmodells gesammelt werden können und auch die Modellformalisierung nicht von dem Abschluss der Phase „Datenbeschaffung“ abhängig ist.

Im Gegensatz zu [VDI 3633-1] sieht das in diesem Abschnitt vorgestellte Vorgehensschema keine separate „End-of-Pipe“-Verifikation und -Validierung des Modells vor, da diese das frühzeitige Erkennen und Beheben von Fehlern nahezu unmöglich macht und deshalb von fragwürdiger wirtschaftlicher Sinnhaftigkeit ist. Vielmehr sind Verifikations- und Validierungsmaßnahmen phasenbegleitend entlang der gesamten Simulationsstudie durchzuführen. Diese Maßnahmen beziehen sich nach [WENZEL 2008] jeweils auf die Ergebnisse einer Phase und nicht auf die Durchführung der Phasen selbst. Auch sollte Verifikation und Validierung nicht ausschließlich am Ende einer Phase erfolgen, sondern sobald ein „sinnvoller, abgeschlossener Zwischenstand erreicht ist“ [RABE 2008:7]. Die aus den Verifikations- und Validierungsmaßnahmen entstehenden Berichte bilden eine wichtige Grundlage für die detaillierte Modell- oder Projektabnahme oder bei der Prüfung des entstandenen Modells auf Weiterverwendung in einem anderen Kontext.

Ziel-beschreibung

Systemanalyse

Modell-formalisierung

Implementierung

Aufgaben-definition

Experimente und Analyse

Ergebnis-umsetzung

Daten-beschaffung

Daten-aufbereitung

Aufgaben-spezifikation

Konzeptmodell

Rohdaten

Formales Modell

AufbereiteteDaten

Ausführbares Modell

Simulations-ergebnisse

Page 27: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 9

2.1.4 Ansätze zur Erfassung der notwendigen Informationen

Zum Aufbau eines Simulationsmodells ist es von grundlegender Bedeutung, Informationen über den zu analysierenden Prozess systematisch zusammenzutragen. Dabei ist zu beachten, dass Modelle fast immer mit Idealisierungen verknüpft sind, welche durch mathematische Formulierungen nur angenähert werden können [JARRE 2008]. Für den Modellaufbau existieren diverse Ansätze, von denen eine Auswahl nach [MEYER 2005] und [VDI 3633-1] nachfolgend vorgestellt wird:

IST-Analyse Der erste Schritt der Analyse eines existierenden Systems besteht darin, den aktuellen Zustand (die sog. Baseline) zu erfassen. Die vorhandenen Prozesse und Flüsse sowie deren Anordnung werden so modelliert, wie sie im Moment wahrgenommen werden.

Soll-Modell Durch eine Analyse und Optimierung des momentanen Zustands wird ein wünschenswertes Modell des Prozesses im SOLL-Modell ausgewiesen. Die Analyse kann aber auch als eigenständiger kreativer Schritt eingesetzt werden, um beispielsweise eine neue Produktionsanlage zu konzeptionieren.

Walk Through Die Produktionsprozesse werden entlang des Produktflusses vom Rohmaterial bis hin zum fertigen Endprodukt erfasst. Hilfsprozesse wie das Aufbereiten von Ressourcen oder die Entsorgung von Abfall werden - soweit erkennbar - mit in den schematischen Prozessablauf aufgenommen.

Walk Around Das System und die einzelnen Prozesse werden von allen Seiten betrachtet, um alle relevanten Schnittstellen zur Mitwelt zu identifizieren, wobei zwei Arten zu unterscheiden sind: „materielle Flüsse“, zum Beispiel Rohstoffe und Abfall, und „immaterielle Flüsse“ wie Informationen, Daten und Signale.

Top-down Die Analyse beginnt auf der obersten Ebene und differenziert sich in nachfolgenden Iterationen immer weiter aus. Normalerweise wird so vorgegangen, wenn das System völlig unbekannt und zunächst die Systemabgrenzung durchzuführen ist (Bild 2.07 links).

Bottom-up Die Analyse beginnt auf der untersten Ebene bei einer einzelnen Maschine oder einer Maschinenfunktion. Zunächst werden auf der Maschinenebene die Prozesse mit den dazugehörigen Schnittstellen modelliert und zusammengefasst, sodass eine umfassendere Sicht auf das Gesamtsystem entsteht (Bild 2.07 rechts).

Bild 2.07: Gegenüberstellung von Top-down- und Bottom-up-Ansatz

Diff

eren

zier

ung

Inte

grat

ion

Top-down-Ansatz Bottom-up-Ansatz

Page 28: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

10 Grundlagen Kapitel 2

2.1.5 Modellierungssprachen

„Die Modellierung umfasst bei der Simulation das Umsetzen eines existierenden oder gedachten Systems in ein experimentierbares Modell“ [VDI 3633]. Modelle werden mit formalen Sprachen beschrieben, welche mit unterschiedlichen, aber stets eingeschränkten Ausdrucksmitteln ausgestattet sind. Diesen entsprechend können Modellierungssprachen unterschieden werden in analytische, numerische und graphische Modelle [KRAMER 1998]:

Analytische Modelle Häufig werden Differentialgleichungen eingesetzt, wenn in der mathematischen Beschreibung von Prozessen Funktionen einer oder mehrerer veränderlicher Gleichungen auftreten, die außer den gesuchten Zusammenhängen auch deren Ableitungen nach den unabhängigen Variablen beinhalten. Hängen die gesuchten Funktionen von einer unabhängigen Veränderlichen ab, so spricht man von einer gewöhnlichen Differentialgleichung, welche linear (Gleichung 2.01) oder nicht-linear sein kann; hängen sie von mehreren unabhängigen Variablen ab, handelt es sich um partielle Differentialgleichungen.

)x(y)x(a)x(ya...)x(ya)x(y)x(f )n()n(

)n( ⋅+′⋅++⋅+= −− 01

11 (Gleichung 2.01)

Numerische Modelle Für die Simulationsdurchführung mit Hilfe von Datenverarbeitungssystemen ist die Überführung der analytischen Modelle in eine computergerechte Darstellung erforderlich. Dies liegt in der Tatsache begründet, dass die Berechnungen in Computern grundsätzlich nur zu diskreten Zeitpunkten für diskrete Ortskoordinaten durchgeführt und deren Ergebnisse ebenfalls wiederum nur in diskreten Zahlenwerten ausgedrückt werden können. Nach der Transformation analytischer Modelle liegen gewöhnliche Differentialgleichungen (Gleichung 2.02, Beispielhafte Transformation der Poisson-Gleichung unter Anwendung der finiten Differenzmethode) als Differenzengleichungen und partielle Differentialgleichungen als zellulare Systeme vor.

22

2

21

2

21 rδzδ

rδzδ)r,r(ρ += ( )j,ij,ij,ij,ij,ij,i ρazzzzz ⋅−+++= −+−+

211114

1 (Gleichung 2.02)

Graphische Modelle In aktuellen Simulationsumgebungen werden zur Simulation dynamischer Prozesse häufig graphischen Darstellungen verwendet, welche man im Rahmen einer daten- oder signal-flussorientierte Modellbildung interpretieren kann. Hierauf wird insbesondere bei der Verwendung objektorientierter Programmiersprachen zur Darstellung der einzelnen logischen Objekte zurückgegriffen. Die graphischen Ansätze werden eingeteilt in datenflussorientierte, kontrollfluss-orientierte und objektorientierte Sichtweisen [GADATASCH 2008]. Der bekannteste Vertreter des kontrollflussorientierten Ansatzes ist das Petri-Netz (Bild 2.08).

Bild 2.08: Petri-Netz - ein Vertreter des kontrollflussorientierten Ansatzes

Marke Transition

Vorgängerzustand Nachfolgerzustand

Page 29: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 11

Die IDEF-Beschreibungssprachen (IDEF: Integrated DEFinition) sind Vertreter des datenfluss-orientierten Ansatzes [GADATSCH 2008] und mittlerweile in sechzehn verschiedenen Varianten verfügbar, welche jeweils für die Beschreibung unterschiedlicher Fachbereiche optimiert wurden. Zwei der am weitest verbreiteten Varianten sind IDEF0 (Funktionsmodellierung) und IDEF3 (Prozessmodellierung). Während es bei IDEF0 nur zwei Elemente gibt, die „Aktivitäten“ und die „Kanten“ (Bild 2.09 links), ist die Beschreibungssprache IDEF3 wesentlich differenzierter, sodass Kataloge zur Erläuterung der einzelnen Elemente erforderlich werden. In Bild 2.09 (rechts) ist deshalb nur das zentrale Element, „unit of behaviour“ (UOB), abgebildet [GINGELE 2001].

Bild 2.09: Kernelemente von IDEF (links: IDEF0, rechts IDEF3)

2.2 Computational Intelligence Im Bereich der digitalen Informationsverarbeitung werden solche Systeme als intelligent bezeichnet, die in der Lage sind, mit Hilfe von Algorithmen menschenähnliche Leistungen zu vollbringen. Dazu zählen insbesondere die Lernfähigkeit und die Fähigkeit zur Anpassung an sich verändernde Umstände. Zu den wichtigsten Vertretern gehören nach [KRAMER 2009] die nachfolgend beschriebenen Ansätze.

2.2.1 Künstliche Immunsysteme

Natürliche Immunsysteme leisten bei ihrem Kampf gegen Krankheitserreger Mustererkennungs-, Optimierungs- und Klassifikationsaufgaben. Einige der Prinzipien lassen sich in sinnvoller Weise als Informationsverarbeitungs-Paradigmen auch IT-basiert zur Lösung von Simulationsaufgaben umsetzen. Mittlerweile existieren vielfältige Anwendungsbereiche für Immunsysteme, um fast jede Art von Lernaufgabe zu lösen, vor allem jedoch Mustererkennungsaufgaben wie die Erkennung von Ähnlichkeiten und Anomalien. Künstliche Immunsysteme greifen häufig auf andere Methoden der Computational Intelligence zurück und können daher als Framework für ein Agentensystem betrachtet werden, dessen intelligente Einzelsysteme kooperativ die Gesamtaufgabe lösen.

Populationsbasierte künstliche Immunsysteme mit negativer Selektion verändern die Menge der Antikörper (Individuen mit Suchmerkmalen) mit Hilfe der negativen Selektion. Gelöscht werden hierbei Elemente, die eine zu große Ähnlichkeit zu einer Menge von Repräsentanten (Musterdatensätze) haben. Diese Systeme dienen vor allem der Erkennung von Fehlern und Anomalien. Ein populationsbasiertes künstliches Immunsystem mit klonaler Selektion nutzt die Prinzipien der klonalen Expansion (gezieltes Kopieren wirkungsvoller Individuen) und der somatischen Hypermutation (strukturiertes, sanftes Mutieren effizienter Individuen) [CLERC 2004].

Bei kontinuierlichen Netzwerkmodellen erfolgt die Steuerung der Antikörper-Population über Differentialgleichungen. Diskrete Netzwerkmodelle basieren auf einer Menge von Anpassungsregeln zur Steuerung der Antikörperpopulation. Beide Netzwerkmodelle eignen sich vor allem für Steuerungs- und Regelungsaufgaben sowie für Optimierung und Datenanalyse [DE CASTRO 2002].

Aktivität (Verb)

Input(Substantiv)

Output(Substantiv)

Randbedingung(Substantiv)

Mechanismus(Substantiv)

Tätigkeits-bezeichnung

Knoten-nummer

IDEF-Nummer

Page 30: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

12 Grundlagen Kapitel 2

2.2.2 Neuronale Netze

Das menschliche Gehirn ist das Vorbild künstlicher neuronaler Netze [LIPPE 2007]. Sie bestehen – wie das Gehirn von Säugetieren – aus einer großen Anzahl kleiner Elemente, den Neuronen. Neuronale Netze zeichnen sich durch ihre Lernfähigkeit aus. Sie können eine Aufgabe anhand von Trainingsbeispielen erlernen, ohne explizit programmiert worden zu sein.

Bild 2.10: Aufbau eines einfachen neuronalen Netzes Auf der Eingabeebene werden die zu untersuchenden Parameter eingelesen. Diese Parameter werden von einer Zwischenschicht aufgenommen und mit Gewichtungsfaktoren multipliziert (Gleichung 2.03, Vektorfunktion eines Neurons der Zwischenschicht). Das Ergebnis dieser Multiplikationen stellt das Resultat der Ausgabeebene dar.

∑∑= =

⋅=m

i

n

jji GEP)G;EP(f

1 1 (Gleichung 2.03)

Besonders komplexe oder unbekannte Zusammenhänge lassen sich damit sehr einfach abbilden: Im Rahmen des „Lernvorgangs“ werden Eingabe- und Ausgabewerte extern ermittelt und in das neuronale Netz eingegeben. Aus diesen Informationen schließt das System auf die Zusammenhänge zwischen Eingangs- und Ausgangsgrößen und bildet diese Korrelationen in Form von Gewichtungsfaktoren ab. Im Nachgang kann aus einer bestimmten Konstellation an Eingangsparametern auf die zu erwartende Systemantwort geschlossen werden.

2.2.3 Schwarmintelligenz

„Das Ganze ist mehr als die Summe seiner Teile.“ [KRAMER 2009:8] Diese Aussage bewahrheitet sich insbesondere bei natürlichen Schwärmen, bei denen das Individuum keine große Bedeutung hat. Erst in seiner Interaktion mit der Masse weiterer, meist gleichartiger Individuen kommt es zu einem intelligenten und emergenten Zusammenspiel, das als „Schwarmintelligenz“ bekannt ist. Die sich hieran orientierende Partikelschwarmoptimierung eignet sich für die Approximation von Lösungen für Optimierungsprobleme, über die kaum Wissen zur Verfügung steht.

Die beiden fundamentalen Konzepte der Schwarmintelligenz sind „Stigmergie“ und „Emergenz“. Als „Stigmergie“ wird das Prinzip bezeichnet, dass die Individuen eines Schwarms über ihre Umwelt miteinander kommunizieren [BONABEAU 1999]. Mit „Emergenz“ wird das Phänomen betitelt, dass die Individuen eines Schwarms aufgrund des Zusammenspiels ihrer Fähigkeiten ein insgesamt intelligentes Verhalten vollbringen. Dabei übersteigen die Eigenschaften und Fähigkeiten des Gesamtsystems die bloße Summe der Fähigkeiten der Einzelindividuen bei weitem.

Eingabe-ebene

Ausgabe-ebene

Zwischen-schicht

EP1

EP2

EP3

EP4

G1

G2

G3

G4

G5

AP1

AP2

Eing

abep

aram

eter

Aus

gabe

para

met

er

Page 31: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 13

2.2.4 Fuzzy-Logik

Die klassische Welt der Datenverarbeitung ist binär: Das bedeutet, es gibt für jedes Bit als kleinste Dateneinheit nur die Möglichkeit, eine „1“ (high, richtig, hell) oder eine „0“ (low, falsch, dunkel) zu repräsentieren. Diese Sichtweise widerspricht häufig der menschlichen Eigenschaft, Sachverhalte differenzierter bzw. nicht derart strikt einzuordnen, z.B. in Form von Abstufungen zwischen null und eins in einer Art „Graubereich“. Die Fuzzy-Mengentheorie stellt den vorherrschen Ansatz schlechthin dar, um anzugeben, wie gut ein Objekt eine vage Beschreibung erfüllt und um konkrete Handlungsanweisungen aus vagen Regelstrategien hierfür abzuleiten [RUSSEL 2004], [GÖRZ 2003]. Fuzzy-Systeme sind ein Ansatz, unpräzise menschliche Ausdrücke und Regeln zu modellieren, indem eine Aussage nicht nur einem Zustand allein, sondern mehreren Zuständen bzw. Kategorien in Teilen angehören kann.

Bild 2.11: Übergang von der binären zur Fuzzy-Logik

Der zu modellierende Zustand wird auch als „linguistische Variable“ bezeichnet, deren Ausprägungen als „linguistische Terme“. Es muss eine Grundmenge vorliegen, die in der Regel aus numerischen Werten besteht. Mit Hilfe von Fuzzy-Mengen wird nun die Grundmenge in mehrere, meist überlappende Bereiche in der gewünschten Grobstruktur partitioniert. Jeder Fuzzy-Menge kann hierbei ein linguistischer Term, ein Name oder eine Eigenschaft, zugeordnet werden. Mit Hilfe der die Fuzzy-Menge beschreibenden Funktion wird das Maß für die Zugehörigkeit zur Menge und somit zum entsprechenden Begriff definiert. Fuzzy-Mengen werden über eine Zugehörigkeits-funktion μ definiert, die für jedes Element der Grundmenge den Grad der Zugehörigkeit zu den jeweiligen Fuzzy-Mengen angibt [KRAMER 2009].

Fuzzy-basierte Regler werden benötigt, wenn die Regeln nur in nicht-binärer Form vorliegen und diese nicht in eindeutige funktionale Zusammenhänge überführbar sind. Um die vorliegenden kausalen Zusammenhänge dennoch anwenden zu können, müssen die scharfen Messwerte transformiert (fuzzyfiziert) werden. Dies geschieht durch Zuordnung der Eingangsgröße zu einem oder mehreren linguistischen Termen (in Bild 2.12: A1, A2 und A3). Im zweiten Schritt, der Inferenz, wird der fuzzyfizierte Messwert gemäß der hinterlegten Regeln den Konklusionen (in Bild 2.12: B1, B2 und B3) zugeordnet. Die hieraus resultierende Ausgabe-Fuzzy-Menge wird zuletzt rücktransformiert, wobei die Schwerpunktmethode ein weit verbreitetes Verfahren zur Generierung eines scharfen Stellwerte aus Ausgangsgröße des Fuzzy-basierten Reglers darstellt.

Bild 2.12: Arbeitsweise eines Fuzzy-basierten Reglers

{ }1;0)( ∈xµ [ ]1;0)( ∈xµKlassischer (binärer)

RaumFuzzy-Raum

Fuzzifizierung Inferenz

Mes

swer

t (sc

harfe

r Wer

t)

Ste

llwer

t (sc

harfe

r Wer

t)

Defuzzifizierung

1

0

A1niedr.

A2mittel

A3hoch

µ

Messwert x

Umrechnung der scharfen Eingangs-größen in „unschar-fe“ Fuzzy-Aussagen

1

0

B1klein

B2mittel

B3groß

µ

y

Anwendung der unscharfen Regeln auf die transformier-ten Eingangsgrößen

Rücktransformieren der Regelaussage in exakte Steuergrößen

1

0

µ

yStellwert

Page 32: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

14 Grundlagen Kapitel 2

2.2.5 Reinforcement Learning

Vor allem im Bereich der Robotersteuerung ist die autonome Planung und Abarbeitung von Handlungsabfolgen eine wichtige Aufgabe. Reinforcement Learning ermöglicht es, dass ein System seine Handlungen auf der Basis von „Belohnung“ und „Bestrafung“ autonom an seine Umgebung anpasst. Die zugrundeliegende Idee sieht vor, mit Hilfe von Beobachtungen Aktionen auszuwählen, die möglichst viele Belohnungen versprechen [SUTTON 1998]. So werden über verschiedene Sensoren Informationen über die Systemumwelt gesammelt, um sie intern weiter zu verarbeiten. Es muss aufgrund dieser Daten eine Entscheidung getroffen werden, welche Aktionen durchzuführen sind, um ein definiertes Ziel zu erreichen. Es sind dabei alle erfolgreichen Aktionen zu belohnen, die das System dem vorgegebenen Ziel näher bringen [KRAMER 2009].

Bild 2.13: Situation beim Reinforcement Learning von Industrierobotern

Entsprechende Reinforcement Learning-Systeme können nach unterschiedlichen Ansätzen aufgebaut werden. Die drei am weitesten verbreiteten Architekturarten sind nach [RUSSELL 2004] Reflex-Systeme, nutzenbasierte Systeme und Q-lernende Systeme:

Reflex-Systeme stellen die einfachste Art der Reinforcement Learning-Ansätze dar. Diese Systeme wählen Aktionen auf Grundlage der aktuellen Wahrnehmung aus und ignorieren den restlichen Wahrnehmungsverlauf (Historie). Diese Architekturform lässt jedoch nur eine stark begrenzte Lernfähigkeit zu und kommt nur dann zu angemessenen Reaktionen, wenn die Umgebung vollständig beobachtbar ist.

Ein nutzenbasiertes System braucht ein Modell der Umgebung, um Entscheidungen treffen zu können, weil es die Zustände kennen muss, zu denen seine Aktionen führen. Es werden diejenigen Aktionen ausgeführt, welche den erwarteten Ergebnisnutzen maximieren.

Ein Q-lernendes System lernt eine Aktion-Wert-Funktion oder Q-Funktion, indem ihm der erwartete Nutzen mitgeteilt wird, den er durch die Ausführung einer bestimmten Aktion in einem bestimmten Zustand erzielt. Es kann also im Gegensatz zu nutzenbasierten Systemen die Werte der ihm zur Verfügung stehenden Auswahlen vergleichen, ohne die Ergebnisse kennen zu müssen. Die Erarbeitung eines Umgebungsmodells entfällt somit. Jedoch wissen Q-basierte Systeme nicht, was ihre Aktionen bewirken, sodass sie keine Prognosen abgeben können und ihre Fähigkeiten selbstständig zu lernen empfindlich eingeschränkt sind.

Umwelt

System

Bel

ohnu

ng

Akt

oren

Sen

sore

n

Zustände

Übergänge

Beloh-nung

Strafe

Page 33: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 15

2.2.6 Evolutionäre Algorithmen

Evolutionäre Algorithmen sind heuristische Verfahren für die automatisierte Suche nach optimalen Lösungen unterschiedlichster Probleme. Es handelt sich hierbei um Vertreter iterativer Algorithmen, d.h. dass ausgehend von bekannten Größen Zwischenergebnisse erzielt werden, die wiederum als Basis für die erneute Ausführung der Rechenschritte dienen [NAHRSTEDT 2006]. Ein Grundprinzip evolutionärer Verfahren liegt in der stochastischen Erkundung des Suchraums. Mit ihrer Hilfe können optimale Lösungen für verschiedenartige Probleme gefunden werden, ohne über detailliertes Problemwissen zu verfügen [KRAMER 2009].

Die Ergebnisfindung bei der Anwendung eines evolutionären Algorithmus geschieht durch die Weiterentwicklung einer Anfangspopulation von „Individuen“ über mehrere Generationen hinweg. Diese Fortentwicklung basiert auf den drei Grund-prinzipien „Selektion“, „Kreuzung“ und „Mutation“ der Evolutionstheorie von Charles Darwin [GRABFELDER 2005]. Hierbei sind Individuen nicht im klassischen Sinn als Lebewesen zu sehen, sondern als ein Vektor mit Ausprägungen vorher definierter Merkmale, welche es zu optimieren gilt.

Zu Beginn einer Optimierungssimulation (Bild 2.14) müssen die zu variierenden Eingangsparameter des Simulationsmodells und der zu betrachtende Explorationsraum definiert werden. Im zweiten Schritt werden die Startpunkte generiert: dies kann entweder manuell oder zufällig durch die Software erfolgen, wobei letzteres die gängige Praxis ist. Zu diesem Zeitpunkt wird auch die Größe der Population, d.h. die Anzahl der in einem Schritt simulierten Parameterkombinationen, bestimmt. Diese Wahl erfordert Erfahrung, da eine zu kleine Population Gefahr läuft, bei einem lokalen Maximum stehen zu bleiben und das globale Optimum zu übersehen. Eine zu große Population mindert dieses Risiko, allerdings erfordert eine zu große Anzahl deutlich mehr Rechenleistung ohne zusätzliche Informationen zu generieren.

Bild 2.14: Ablauf eines evolutionären Algorithmus

Die einzelnen Parameterkombinationen (Individuen) werden nacheinander am Simulationsmodell getestet und die zu optimierende(n) Ausgangsgröße(n), wie zum Beispiel Kosten, First Pass Yield oder Gesamtoutput, werden berechnet. Hieraus wird der Erfüllungsgrad der Zielforderung bestimmt, der in Anlehnung an Darwins Theorie „Survival of the fittest“ als „Fitness“ bezeichnet wird.

Im Anschluss erfolgt die Selektion der Individuen für die neue Generation zu untersuchender Parameterkombinationen. Hierfür gibt es verschiedene Varianten, denen aber allen gemein ist, dass sie nicht allein die besten Kombinationen auswählen. Denn dieses Vorgehen würde die Gefahr erhöhen, lediglich auf ein lokales Maximum zuzusteuern. Eine häufig angewandte Variante wählt die Individuen mit einer ihrer Fitness proportionalen Wahrscheinlichkeit aus, sodass auch schlechtere Varianten die Möglichkeit haben, übernommen zu werden.

Definition der zu untersuchenden Parameter

Ausgangspopulation erzeugen

Fitness bestimmen (Simulation)

Selektion

Kreuzung

Mutation

Bestimmung des optimalen Individuums

ja

nein

Schwellwert erreicht?

ja Max. Anzahl an Generationen

erreicht?

nein

Page 34: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

16 Grundlagen Kapitel 2

Die Kreuzung oder auch Rekombination simuliert die Rolle der geschlechtlichen Fortpflanzung in der Evolution. Zuerst werden die Eltern-Individuen ausgewählt, wobei aus zwei Eltern-Elementen üblicherweise zwei Kind-Elemente erzeugt werden. Auch hier gibt es verschiedene Möglichkeiten eine Kreuzung abzubilden: Die einfachste Methode ist der One-Point-Crossover- Algorithmus, bei dem durch eine Zufallszahl die Trennstelle in der Parameterliste festlegt wird und alle nachfolgenden Elemente vertauscht werden (Bild 2.15).

Bild 2.15: Rekombination nach der One-Point-Crossover-Methode

Auch das dritte Grundprinzip der Evolution findet Anwendung: Das zufällige Verändern eines Faktors (Mutation). Dieses Phänomen kann wiederum auf viele verschiedene Weisen abgebildet werden, wobei die Häufigkeit im Algorithmus parametrisch definiert wird. Ebenso existieren verschiedene Formen der Mutation, auf die hier aber nicht weiter eingegangen werden soll.

Da ein evolutionärer Algorithmus theoretisch unendlich lange fortgeführt werden kann, muss der Anwender eine Abbruchbedingung festlegen, wie zum Beispiel eine zu erreichende First-Pass-Yield-Quote in der Produktion. Ist die Leistungsfähigkeit des zu optimierenden Prozesses noch unbekannt, bietet es sich an, eine gewisse Anzahl an Generationen zu untersuchen, danach abzubrechen und das Optimum in der letzten Generation zu bestimmen.

2.3 Referenzmodelle Unter Referenzmodellen werden allgemeine Architekturen und Handlungsanweisungen verstanden, deren Inhalte bei der Konstruktion konkreter Informationssysteme wiederzuverwenden sind. Die Wiederverwendung besteht in der Übernahme von Grobstrukturen sowie deren Anpassung und Erweiterung im anwendungsspezifischen Kontext. Die Intention ist es, durch diese Adaption sowohl Effektivitäts- als auch Effizienzsteigerungen in der Entwicklung von Informationssystemen, zu erzielen. In der Referenzmodellierung werden Fragen der Konstruktion und Nutzung von Referenzmodellen thematisiert, um die Wiederverwendung der Modellinhalte möglichst wirtschaftlich zu gestalten [VOM BROCKE 2010].

Ein Referenzmodell kann als Empfehlung oder idealtypisches Bezugsobjekt im Hinblick auf die Durchführung von Modellierungs- bzw. Gestaltungsaufgaben verstanden werden. Mit Hilfe von Referenzmodellen, die allgemeingültiges Wissen über anwendungsbezogene Zusammenhänge enthalten, lassen sich Rationalisierungspotenziale bei der Entwicklung von Informationsmodellen erschließen [THOMAS 2006]. Beispielsweise gilt für [HARS 1994] als Charakteristikum eines Referenzmodells, dass dieses „nützlich“ für den Entwurf anderer Modelle ist und sich daraus die drei Anforderungen „Allgemeingültigkeit“, „Anpassbarkeit“ und „Anwendbarkeit“ ergeben. [VOM BROCKE 2003] ergänzt diese Anforderungen noch um die Aspekte „Richtigkeit“, „Relevanz“, „Wirtschaftlichkeit“, „Klarheit“, „Vergleichbarkeit“ und „systematischer Aufbau“.

P1m P2m P3m P4m P5m

P1v P2v P3v P4v P5v

P1m P2m P3v P4v P5v

P1v P2v P3m P4m P5m

Eltern Kinder

Trennpunkt

Page 35: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 17

2.3.1 Begriffsdefinition

Der Begriff „Referenzmodell“ wird in der Literatur uneinheitlich verwendet, wobei nicht nur die Begrifflichkeit an sich unterschiedlich ausgelegt wird, sondern auch teilweise auf divergierenden Modellverständnissen beruht. Einen Ansatz zur Systematisierung gibt Bild 2.16:

Bild 2.16: Systematisierung möglicher Deutungen des Begriffs „Referenzmodell“

Ausgehend von der allgemein akzeptierten Unterscheidung nach [RAFEÉ 1995], sind zunächst Referenzmodelle im Gegenstandsbereich von solchen im Aussagenbereich zu unterscheiden. Erstere sind vorgefundene Phänomene, welche wissenschaftlich zu erfassen, zu beschreiben und zu erklären sind. Referenzmodelle im Aussagenbereich basieren hingegen per Definition auf wissenschaftlich erarbeiteten, theoretischen Grundsätzen [FETTKE 2004]. In Anlehnung an [CHMIELEWICZ 1994] können fünf Subklassen unterschieden werden, nämlich Referenzmodelle als...

... terminologischer Apparat In dieser Deutung wird ein Referenzmodell als eine Menge von Begriffen verstanden, die einen terminologischen Bezugsrahmen für einen Gegenstandsbereich schaffen. Typische Anforderungen an Begriffe sind „Einfachheit“, „Präzision“ und „theoretische Fruchtbarkeit“, d.h. die Zweckmäßigkeit des Begriffes hinsichtlich der Zielerreichung [OPP 2005].

... Menge singulärer Aussagen Die Beschreibung eines Referenzmodells kann als eine Menge singulärer Aussagen aufgefasst werden. Dieser Fall liegt beispielsweise vor, wenn ein Wissenschaftler das Ziel verfolgt, ein Referenzmodell des Gegenstandsbereichs vollständig zu beschreiben. Hierbei betätigt sich der Wissenschaftler nicht als Modellentwickler, sondern beschreibt ein im Gegenstandsbereich vorgefundenes Modell.

... Menge genereller Aussagen In diesem Fall beschreibt das Referenzmodell nicht einen bestimmten Betrachtungs-gegenstand, sondern eine ganze Klasse von Untersuchungsobjekten. Folglich beziehen sich aus dem Referenzmodell abgeleitete Aussagen auch nicht nur auf ein bestimmtes Raum-Zeit-Gebiet, sondern besitzen allgemeingültigen Charakter für die fokussierte Gruppe. Ob die generelle Beschreibung auf induktivem oder deduktivem Wege erarbeitet wird, leitet sich nicht aus dem zu erreichenden Ergebnis ab, sondern wird zu Beginn der Anpassung des Referenzmodells an die definierten Rahmenbedingungen des Projekts definiert.

Terminolo-gischerApparat

Menge genereller Aussagen

Menge singulärer Aussagen

TechnikMenge

normativer Aussagen

Theoretisches Konstrukt im

Aussagenbereich

Phänomen im Gegenstands-

bereich

Referenzmodell

Page 36: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

18 Grundlagen Kapitel 2

... Technik Hier wird den Aussagen des Referenzmodells kein empirischer Gehalt zugesprochen. Vielmehr wird das Referenzmodell als eine Technik verstanden, die in der Praxis nützlich sein kann. Die Anwendung einer Technik verspricht in bestimmten Situationen Wirkungen auszulösen. Die Qualität einer Technik bestimmt sich in dem Grad, inwieweit vorgegebene Ziele erfüllt werden. Folglich sind die gewünschten Wirkungen sowie die unerwünschten Nebenwirkungen eines Referenzmodells zu ermitteln und zu bewerten.

... Menge normativer Aussagen In diesem Fall besteht ein Referenzmodell aus Regeln, Gesetzen, Vorschriften oder Maßstäben, welche menschliche Handlungen bei der Systemgestaltung vereinheitlichen oder – strenger formuliert – vorschreiben. Referenzmodelle enthalten dann nicht nur deskriptive, sondern auch präskriptive Aussagen. Der Normungscharakter wird zum Teil weniger streng erhoben, indem von Empfehlungen des Referenzmodells gesprochen wird.

Die Grenzen zwischen den unterschiedlichen Kategorien sind durchaus fließend, sodass ein konkretes Referenzmodell oftmals problemlos mehreren Sichtweisen entsprechen kann. Umso wichtiger ist es, bereits bei der Konzeptionierung eines Referenzmodells zu berücksichtigen, welche Kategorien bzw. Sichtweisen im konkreten Anwendungsfall zu betrachten sind.

2.3.2 Methoden der Referenzmodellierung

In der Literatur gibt es eine Vielzahl von Ansätzen zur Modellierung von Referenzmodellen. Allein bei [FETTKE 2004] werden 38 verschiedene Varianten angeführt und tabellarisch vorgestellt. Den meisten im Rahmen dieser Arbeit betrachteten Ansätzen ist jedoch die grundsätzliche Vorgehensweise gemein [WECKENMANN 2008-4]:

Vor der eigentlichen Entwicklung eines Referenzmodells wird eine umfassende Problemdefinition empfohlen, wobei die Zielsetzung und das Anwendungsgebiet betrachtet werden müssen. Auch die in Abschnitt 2.3.1 vorgestellte Kategorisierung bildet einen wichtigen Schritt bei der Festlegung der Rahmenbedingungen.

Anschließend erfolgt der Aufbau des Referenzmodells im eigentlichen Sinne: Zur Unterstützung beim Aufbau komplexer Referenzmodelle kann ein Ordnungsrahmen, eine sogenannte System-architektur, zur Anwendung kommen. Auf deren Basis werden zunächst ein Fachkonzept und ein Datenverarbeitungskonzept erarbeitet, bevor abschließend die Realisierung des Modelles erfolgen kann.

Mit der zunehmenden Verbreitung von Informationsmodellen steigt auch das Interesse an Anhaltspunkten zu ihrer Bewertung: In der Literatur werden hierzu Kriterien zur Beurteilung der Modellqualität vorgeschlagen, wobei die Arbeiten von [BATINI 1991] und [MOODY 1994] den Ausgangspunkt darstellen. Mittlerweile liegen mehrere Kriterienkataloge vor, die auf spezielle Modelltypen oder Bewertungsaspekte ausgerichtet sind, wie zum Beispiel die „Grundsätze ordnungsgemäßer Referenzmodellierung“ nach [SCHÜTTE 1998].

Im Sinne der kontinuierlichen Verbesserung muss das entwickelte Referenzmodell auch nach Abschluss des eigentlichen Aufbaus kontinuierlich gepflegt, überarbeitet und gegebenenfalls weiterentwickelt werden. Nur so kann sichergestellt werden, dass das Referenzmodell mittel- bis langfristig den in Abschnitt 2.3 vorgestellten Anforderungen nach [HARS 1994] und [VOM BROCKE 2003] genügt.

Page 37: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 19

2.3.3 Systemarchitekturen im Rahmen von Referenzmodellen

Nach [AMBERG 1999] unterstützen Architekturen in der Informationstechnik den Anwender bei der Strukturierung komplexer Aufgaben. Dabei wird die Aufgabe zuerst in einzelne Problemfelder zerlegt, welche getrennt voneinander analysiert und gelöst werden, ehe eine Zusammenführung zu einer ganzheitlichen Lösung erfolgt.

Eine Architektur zum Aufbau von Informationssystemen kann beschrieben werden durch:

Allgemeine Baupläne Der Bauplan eines Referenzmodells gibt an, welche generellen Komponenten zu berücksichtigen sind, welche Aufgaben sie jeweils zu erfüllen haben und in welcher Beziehung die Elemente zueinander stehen.

Konstruktionsregeln In den beigestellten Konstruktionsregeln werden Vorgaben an den Ablauf der Erstellung eines Referenzmodells zusammengetragen. Hierfür kommen häufig sogenannte Meta-Modelle zum Einsatz, zu Beispiel wie das Entity-Relationship-Model (ERM) [GADATSCH 2008] (Bild 2.17).

Bild 2.17: Beispiel eines Entity-Relationship-Model in der Chen-Notation

Bei besonders komplexen Modellen bietet es sich an, die Systemarchitekturen durch die Verwendung von Modellebenen und Modellsichten weiter zu strukturieren. Die Sichten spiegeln die Aspekte zur Gestaltung von Informationssystemen wieder [SCHÜTTE 1998]. Die Architektur gibt in ihrer Eigenschaft als Rahmen für Modellierungsansätze die Art der Strukturierung sowie die Beschreibungsformen für Modellebenen und Sichten vor [AMBERG 1999].

Der Begriff „Architektur“ wird in der Literatur – ähnlich wie der Begriff „Referenzmodell“ – nicht einheitlich verwendet [WECKENMANN 2008-4]. Oft wird der Begriff „Modellierungsansatz“ synonym zu „Systemarchitektur“ verwendet, wobei Modellierungsansätze bzw. Systemarchitekturen jeweils einen Architekturrahmen und ein Vorgehensmodell enthalten. Somit muss zwischen der übergeordneten Systemarchitektur und der (System-)Architektur als Bestandteil eines allgemeingültigen Modellierungsansatzes unterschieden werden. Im Rahmen der weiteren Arbeit wird der Begriff „Systemarchitektur“ stets zur Beschreibung eines untergeordneten Bestandteils des Referenzmodells verwendet.

Mitarbeiter Maschinebedient

Entity-Typ Entity-TypBeziehungstyp

Personal-nummer Name Stunden Name Maschinen-

nummer

Schlüssel-attribut Attribut Attribut Attribut Schlüssel-

attribut

Page 38: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

20 Grundlagen Kapitel 2

2.3.4 Einführung in die Systemarchitektur ARIS

Bei ARIS, der Architektur integrierter Informationssysteme, handelt es sich sowohl um ein theoretisches Modellkonzept als auch um ein darauf aufbauendes Software-Werkzeug [IDS SCHEER 2010-1]. Wird ARIS als Konzept betrachtet, so kann es verstanden werden als „ein Rahmenwerk zur Beschreibung von Unternehmen und betriebswirtschaftlichen Anwendungs-systemen“ [SEIDLMEIER 2006:12] (Bild 2.18). Im Rahmen dieser Arbeit wird auf das Software-Werkzeug selbst nicht weiter eingegangen. Hier sei auf eine Auswahl weiterführender Literatur verwiesen: [KRUPPKE 2006], [IDS SCHEER 2010-2], [DAVIS 2007].

Zur Herleitung einer Architektur im Sinne von ARIS wird ein Modell für Prozesse entwickelt, das alle wesentlichen Merkmale zur Beschreibung von Geschäfts- und Unterstützungsprozessen beinhaltet. Die hohe Komplexität des dabei entstehenden Modells mit den Objekten „Funktion“, „Daten“, „Organisationseinheit“, „Ereignis“, „Ressource“ und „Leistung“ wird auf einzelne handhabbare Beschreibungssichten und Beschreibungsebenen reduziert [SEIDLMEIER 2006]:

Beschreibungsaspekte Im Rahmen der ARIS-Architektur werden betrachtet die „Funktionssicht“, die „Datensicht“, die „Steuerungssicht“ sowie die „Organisationssicht“. Die Zerlegung in „Sichten“ erfolgt derart, dass die Beziehungen der Komponenten innerhalb einer Betrachtungsweise erhalten bleiben und die Verknüpfungen zwischen den Teilbereichen über die Steuerungssicht modelliert werden.

Beschreibungsebenen In ARIS werden drei Beschreibungsebenen unterschieden, welche sich am klassischen Ablauf von Organisationsprojekten für Informationssysteme orientieren. Die betrachteten Phasen sind „Fachkonzept“, „Datenverarbeitungskonzept“ und „Implementierung“.

Bild 2.18: Überblick ARIS-Systemarchitektur

Daten Steuerung Funktion

Dispositionsebenen Organigramm

Zentrale

Betrieb

Bereich

Entity-Relationship-Diagramm

F2

F3F1

F4

F5F6

AblaufF BearbeitungF1F2F3

DialogAutomatischDialog

Bearbeitungsformen

Hierarchie

F

F1 F2

F3 F4

Orga-Einheit

Dat

en L S AL A L

Zugriffs-rechte

Funktions-ebenen

F1, F2

F3

Ereignissteuerung

Input / Output

Page 39: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 21

2.4 Qualitätstechniken Der Begriff Qualitätstechniken wird weder in der internationalen Begriffsnorm DIN EN ISO 9000:2005 definiert, noch in der Literatur einheitlich benutzt. Bei der Anwendung in der wissenschaftlichen und betrieblichen Praxis können jedoch unter Qualitätstechniken diejenigen Instrumente und Methoden des Qualitätsmanagements verstanden werden, die zum Lösen spezifischer Probleme auf verschiedenen Ebenen im Unternehmen eingesetzt werden [GOGOLL 1994]. Somit ist „Qualitätstechniken“ ein Oberbegriff für die Gesamtheit der Methoden (Verfahren) und Instrumente (Werkzeuge) auf dem Gebiet des Qualitätsmanagements. Der Versuch einer Abgrenzung von Qualitätstechniken gegenüber weiterführenden und unterstützenden Werkzeugen ist in Bild 2.19 dargestellt:

Bild 2.19: Abgrenzung von Qualitätstechniken

Unter die „sieben Qualitätswerkzeuge“ (auch Tools of Quality oder Q7 genannt) fallen die Fehlersammelliste, das Histogramm, die Qualitätsregelkarte, das Pareto-Diagramm, das Korrelationsdiagramm, das Brainstorming und das Ursache-Wirkungs-Diagramm. Zu den sieben Managementwerkzeugen zählen das Affinitätsdiagramm, das Relationendiagramm, das Baumdiagramm, das Matrixdiagramm, die Matrix-Daten-Analyse der Problem-Entscheidungsplan sowie der Netzplan [KAMISKE 2008].

Die einzelnen Qualitätstechniken wurden zum Lösen spezieller Aufgaben in bestimmten Phasen des Produktentstehungsprozesses entwickelt. Obwohl ihr Einsatzgebiet nicht auf diese jeweiligen Phasen beschränkt ist, werden durch ihre Anwendung einzelne Abschnitte der Produkt- und Prozessentwicklung besonders wirkungsvoll unterstützt. Mit der Six Sigma-Methodik steht ein Werk-zeug zur Verfügung, mit welchem der Anwender komplexere Projekte strukturiert abarbeiten kann und in den verschiedenen Phasen Empfehlungen für anzuwendende Qualitätswerkzeuge erhält.

Im Rahmen der vorliegenden Arbeit werden vor allem die Qualitätstechniken der Statistischen Prozesslenkung mit den vorangeschalteten Untersuchungen zur Prüfprozess-, Maschinen- und Prozessfähigkeit sowie die Werkzeuge des Six Sigma in Kombination mit dem Design of Experiments Anwendung finden. Diese Teilaspekte werden im Folgenden detaillierter beschrieben.

Qualitätsunterstüt-zende Tätigkeiten

ForschenEntwickeln / KonstruierenAbsichern durch VersucheProduktionsplanung / ArbeitsvorbereitungFertigung / MontageFertigungsprüfungWerkstoffprüfungTechnische Statistik

Qualitätstechniken im engeren Sinne

Quality FunctionDeployment (QFD)

Fehlermöglichkeits- und Einflussanalyse (FMEA)

Six Sigma (6σ)Design of Experiments

(DoE)Statistische

Prozesslenkung (SPC)7 Qualitätswerkzeuge

7 Managementwerkzeuge

Qualitätstechniken im weiteren Sinne

KreativitätstechnikenBrainstormingMethode 635

AnalysetechnikenMorphologischer KastenPräsentationstechniken / Visualisierungstechniken

Metaplan-TechnikErhebungstechniken

Organisatorische MaßnahmenQualitätszirkel

Poka YokeKaizen

Just-in-TimeAudit

KansaiVorbeugende Instandhaltung

Page 40: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

22 Grundlagen Kapitel 2

2.4.1 Verfahren zur Prüfprozess-, Maschinen- und Prozessqualifikation

Bevor man einen Prozess bezüglich seiner Qualität überwachen und regeln kann, muss sichergestellt werden, dass dieser in Verbindung mit den verwendeten Messmitteln und Maschinen unter den gegebenen Umwelteinflüssen in der Lage ist, das Merkmal in der geforderten Qualität zu generieren. Um diese Voraussetzungen sicher zu stellen, besteht die SPC-Methodik aus den auf-einander aufbauenden Grundsteinen der Prüfprozess-, Maschinen- und Prozessfähigkeitsuntersu-chung (Bild 2.20). Ziel ist es, den Prozess mit Qualitätsregelkarten anhand der Lage und Streuung eines Merkmals fortlaufend quantitativ zu visualisieren und zu überwachen [DIETRICH 2003-1].

Die Grundlage jeder Fähigkeitsuntersuchung muss sinnvollerweise die Prüfprozessfähigkeits-untersuchung sein, da sie die Eignung der Messeinrichtung zur Untersuchung des Prozesses feststellt. Durch regelmäßige Überprüfung wird die Eignung der Messeinrichtung bestätigt. Die Unsicherheit der angezeigten Messwerte muss bekannt und möglichst klein sein, damit im später zu überwachenden Fertigungsprozess das Risiko von Fehlinterpretationen bzw. Fehlentscheidungen aufgrund unzulässig stark beeinflusster Messwerte minimiert und beherrschbar wird [SCHULZE 2007]. Einen Überblick über die Phasen der Qualifikation gibt Bild 2.20. Die Erstqualifikation einer Fertigungseinrichtung und die Prozessbeurteilung vor dem Serienanlauf ist ein einmaliger Vorgang, der zu bestimmten Anlässen, beispielsweise dem Erstaufbau beim Lieferanten oder nach Installation im eigenen Unternehmen, durchgeführt wird. Dieser Vorgang wird auch als Maschinenfähigkeitsuntersuchung (MFU) und Prozessfähigkeitsuntersuchung (PFU) bezeichnet. Während mit Hilfe der MFU eine Aussage über die Kurzzeitfähigkeit getroffen werden kann, stellt die PFU eine fortlaufende Untersuchung hinsichtlich seiner Langzeitfähigkeit dar, die signifikante Ver-änderungen des laufenden Prozesses aufdecken soll. Als Qualitätsfähigkeitskenngrößen bezeichnet man beispielsweise cm- oder cp-Werte, die zur quantitativen Beurteilung berechnet werden.

Bild 2.20: Prozessbeurteilung vor und nach Serienanlauf

Es gibt mehrere Kernaussagen, die unter Anwendung der in Bild 2.20 gezeigten Fähigkeitsstudien getroffen werden können: Zum einen wird festgestellt, inwiefern der untersuchte Prozess beherrscht ist, das heißt ob das zu überwachende Merkmal einer zeitinvarianten Verteilung folgt, und zum anderen, ob der Prozess das untersuchte Merkmal im Verhältnis zu den Toleranzanforderungen zuverlässig erzeugen kann (Aussage des cp-Werts). Bei Letzterem spricht man dann von einem „fähigen Prozess“, falls die Lage der Verteilung hinreichend mittig innerhalb der Spezifikations-grenzen liegt (Aussage des cpk-Werts).

Kurzzeit- bzw. Maschinen-

fähigkeit

(Vorläufige) Prozess-fähigkeit

Langzeit-prozess-fähigkeit

Zeit

Serienanlauf

Prüfprozess-eignung

Betrachtet Messgerät

Betrachtet Maschine

Betrachtet gesamten Fertigungsprozess

Kennzahlencg, cgk

Kennzahlencm, cmk

Kennzahlenpp, ppk

Kennzahlencp, cpk

Anwendung beim Einsatz neuer Mess-

mittel bzw. bei der neuen

Messaufgaben

Anwendung zur

Beurteilung der laufenden

Serienpro-duktion

Anwendung zur Beurteilung• neuer Maschinen beim Hersteller• neuer Einrichtungen nach

endgültiger Installation im Prozess• vor der endgültigen Serienfreigabe

Page 41: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 23

Prüfprozesseignung Die Prüfprozessvalidierung stellt ein mehrstufiges Verfahren dar, mit dessen Hilfe die Fähigkeit eines Messverfahrens quantifiziert wird, eine definierte Messaufgabe entsprechend der Forderungen der Merkmalsspezifikation (Toleranz T) durchzuführen. Teilschritte hierbei sind die Prüfung auf ausreichende Auflösung, die Beurteilung des Referenzbauteils bzw. des Normals, die Bestimmung der Skalenlinearität (Bias Bi) sowie die Berechnung der Fähigkeitsindices cg (Gleichung 2.04, Potential des Messsystems) und cgk (Gleichung 2.05, kritisches Potential des Messsystems). Im letzten Schritt erfolgt abschließend die Bestimmung der Fähigkeitskennwerte für Wiederholpräzision (Equipment Variation, EV) und Prüfsystemstreuung (Repeatability and Reliability, R&R) [DIETRICH 2007].

sT,cg 4

20=

(Gleichung 2.04) sBiT,

cgk 210 −

= (Gleichung 2.05)

Maschinenfähigkeit Die Maschinenfähigkeitsuntersuchung, kurz MFU, findet unter möglichst optimalen Bedingungen statt und betrachtet die Maschine isoliert vom Rest des Prozesses. Bei der Maschinenfähigkeits-untersuchung wird gewöhnlich eine Stichprobe von insgesamt 50 Teilen analysiert, die bei unveränderten Maschineneinstellungen ohne Unterbrechung auf einer Maschine und von einem Mitarbeiter hergestellt wird. Diese Einschränkungen sind erforderlich, um systematische und zeitliche Einflüsse ausschließen zu können [DIETRICH 2009], [RINNE 1999].

Die Analyse der Maschinenfähigkeit cm und der kritischen Maschinenfähigkeit cmk gibt Auskunft über die zufallsbedingten Einflüsse der Maschine auf die untersuchten Bauteileigenschaften. Die Kenngröße cm (Gleichung 2.06) kennzeichnet die Fähigkeit der Maschine ohne Berücksichtigung der

Lage des Stichprobenmittelwertes x , wobei nur die Streuung s der Maschine einer Analyse unterzogen wird. Der cmk-Wert hingegen bezieht die Lage des Mittelwerts in Berechnung mit ein (Gleichung 2.07) [DGQ 1990]:

sUGWOGWcm 6

−=

⎭⎬⎫

⎩⎨⎧ −−

=s

UGWx;s

xOGWmincmk 33(Gleichung 2.06) (Gleichung 2.07)

Prozessfähigkeit Die Prozessfähigkeitsuntersuchung (PFU) basiert auf realistischeren Annahmen als die MFU. Der Betrachtungszeitraum der PFU wird dabei so gewählt, dass alle Einflussfaktoren im Zuge dieser Untersuchung unter Serienbedingungen zum Tragen kommen können. Die PFU analysiert folglich nicht nur einzelne Maschinen, sondern den gesamten Prozessschritt, sodass auch mehrere Maschinen und Komponenten des Fertigungsprozesses gemeinsam betrachtet werden können. Die Stichproben werden über einen längeren Zeitraum gezogen, damit sich alle relevanten zeitlichen Einflüsse auswirken können, wobei die Datenentnahme in kontinuierlichen Abständen erfolgt. Der Prozessfähigkeitsindex cp beschreibt die vorläufige Prozessfähigkeit, ohne die Lage der Stichprobenmittelwerte zu berücksichtigen (Gleichung 2.08). Der kritische Prozessfähigkeitsindex cpk bezieht die Lage der Mittelwerte in die Berechnung mit ein (Gleichung 2.09). Es gelten folgende Formeln nach [DGQ 1990]:

sUGWOGWcp 6

−=

⎪⎭

⎪⎬⎫

⎪⎩

⎪⎨⎧ −−

=s

UGWx;s

xOGWmincpk 33

(Gleichung 2.08) (Gleichung 2.09)

Page 42: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

24 Grundlagen Kapitel 2

2.4.2 Einsatz von Qualitätsregelkarten bei der Prozessregelung und deren Auslegung

Statistische Prozessregelung Für die Lenkung eines Prozesses wird ein geschlossener Regelkreis benötigt [HERING 2003]. Dies setzt voraus, dass Produkt- und/oder Prozessdaten erfasst und im Anschluss mit vorgegebenen Zielwerten verglichen werden. Liegt eine Abweichung vor, wird dies nicht lediglich registriert, sondern diese Information fließt in Form eines Eingriffs in den Prozess zurück, sodass ein geschlossener Regelkreis vorliegt (Bild 2.21). Die statistische Prozessregelung ist definiert nach [KAMISKE 2008:307] als „[…] ein auf mathematisch-statistischen Grundlagen basierendes Instrument, um einen bereits optimierten Prozess durch kontinuierliche Beobachtung und ggf. Korrekturen auch in diesem optimierten Zustand zu erhalten.“

Bild 2.21: Analogie Regelkreis – Statistische Prozessregelung (SPC)

Das wichtigste Instrument der Fertigungsüberwachung ist die Qualitätsregelkarte (Quality Control Chart, QCC) [MITTAG 1993], da man mit ihrer Hilfe zufallsbedingte Störungen von systematischen Einflüssen unterscheiden kann. Bei den Daten handelt es sich um Messwerte oder daraus errechnete Kennzahlen, die in Verbindung mit einem vorher eingezeichneten Mittelwert sowie Warn-, Eingriffs- und Toleranzgrenzen zur Untersuchung und Steuerung des betrachteten Prozesses dienen [KIRSCHLING 1994]. Dazu werden Daten, die bei der Prüfung von Stichproben aus einem Fertigungsprozess ermittelt wurden, in ein Formblatt, die Qualitätsregelkarte, eingetragen.

Aufbau von Qualitätsregelkarten Die Qualitätsregelkarte arbeitet mit einem zweidimensionalen Koordinatensystem: Auf der waagerechten (X-)Achse werden die Zeitpunkte angegeben, zu denen die Stichproben entnommen wurden, wohingegen auf der senkrechten (Y-)Achse der relevante Wertebereich des zu überwachenden Merkmals aufgetragen ist [BERNECKER 1990]. Darüber hinaus werden waagerechte Linien eingetragen, welche die Mittellinie und die Eingriffsgrenzen symbolisieren. Werden Merkmalwerte erfasst, welche außerhalb der Eingriffsgrenzen liegen, so besteht mit hoher Wahrscheinlichkeit eine systematische Störung des Prozesses, welche umgehend behoben werden muss. In manchen Fällen werden zusätzlich Warngrenzen verwendet, welche sich näher um den Mittelwert herum befinden (Bild 2.22). Liegt der ermittelte Merkmalwert zwischen einer Warn- und der korrespondierenden Eingriffsgrenze, so führt dies im Regelfall zu einer verschärften Beobachtung des Prozesses, zum Beispiel durch Verkürzung der Abstände zwischen zwei Stichprobenentnahmen.

Regelstrecke (Prozess)

5M

Input (Material) Output (Bauteil)

Regler(Regelkarte)

Stellglied(Maßnahme)

Sollgröße (Qualitätsforderung)

Mess-system

Page 43: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 25

Bild 2.22: Shewhart-Qualitätsregelkarte mit Warn- und Eingriffsgrenzen

Arten von Qualitätsregelkarten Seit den ersten Arbeiten zu Qualitätsregelkarten von W. A. Shewhart zu Beginn der 30er Jahre des vergangenen Jahrhunderts [SHEWHART 1931] wurde eine Vielzahl unterschiedlicher Regelkarten-typen für verschiedene Aufgabenstellungen entwickelt. Diese lassen sich zum einen nach der Art der überwachten Merkmale einteilen in Regelkarten für diskrete Merkmale, sogenannte Fehlersammelkarten, und in Typen für die Betrachtung kontinuierlicher Merkmale. Zum anderen gibt es darüber hinaus noch die Unterscheidung in Annahmeregelkarten und Prozess-Regelkarten.

Bei der Auslegung von Annahmeregelkarten werden die Eingriffs- und Warngrenzen über vorgegebene Toleranzgrenzwerte berechnet. Die Toleranzgrenzwerte geben an, welche Abweichungen bei einem Produkt maximal vorhanden sein dürfen, um noch brauchbar zu sein [DGQ 1992]. Da die Verwendung von Annahmeregelkarten im Widerspruch zum Prinzip der ständigen Verbesserung steht, sollen sie hier nicht weiter betrachtet werden.

Im Gegensatz dazu werden Prozess-Regelkarten eingesetzt, wenn ein über die Prozessfähigkeits-analyse als befriedigend erkannter, beherrschter Zustand beibehalten werden soll. Demzufolge errechnen sich die Eingriffsgrenzen auch nicht unter Berücksichtigung der Spezifikationsgrenzen, sondern ausschließlich unter Berücksichtigung der zugrundeliegenden Prozessstreuung. Die Prüfung auf Spezifikationskonformität erfolgt – wie bereits erwähnt – in den vorgelagerten Fähigkeitsstudien.

Eine letzte Unterteilung der Qualitätsregelkarten, auf welche im Rahmen dieser Arbeit eingegangen werden soll, ist der unterschiedliche Umgang mit den historischen Stichprobenwerten: Während bei der Anwendung der klassischen Shewhart-Regelkarte die Überprüfung der Prozesskonformität einzig auf der Betrachtung der aktuellen Stichprobe basiert, gehen bei anderen Varianten die weiter zurückliegenden Messwerte in die Entscheidungsfindung mit ein. Hierbei können historische Stichproben gleichgewichtet werden (z.B. MOSUM- und CUSUM-Karten) oder exponentiell, wobei weiter zurückliegende Messwerte weniger Einfluss haben (z.B. allg. MOSUM- und EWMA-Karte). Diese Regelkarten betrachten entweder eine konstante Anzahl älterer Stichprobenwerte oder eine variierende Anzahl, zum Beispiel wenn nach einem Prozesseingriff die Historie vorangegangener Proben nicht mehr bei der Entscheidungsfindung berücksichtigt wird, die Regelkarte sozusagen wieder „zurückgesetzt“ wird.

Qua

lität

smer

kmal

Zeit

obere Warngrenze (OWG)obere Eingriffsgrenze (OEG)

oberer Grenzwert (OGW)

untere Warngrenze (UWG)untere Eingriffsgrenze (UEG)

unterer Grenzwert (UGW)

Mittelwert des Prozesses (M)

Page 44: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

26 Grundlagen Kapitel 2

Auslegung von Qualitätsregelkarten Beim Design von Qualitätsregelkarten hat man neben den Eingriffsgrenzen auch den Stichprobenumfang sowie den zeitlichen Abstand zwischen den Stichprobenziehungen festzulegen. Während man sich aktuell bei der Wahl des Stichprobenumfangs und des Zeitabstands meist an tradierte Verfahrensweisen oder bewährte Erfahrungswerte hält, gibt es für die Bestimmung der Eingriffsgrenzen verschiedene mathematische Ansätze: die Bestimmung über Formeln entsprechend des Regelkartentyps oder die Orientierung an der Güte- bzw. der Average-Runtime-Length-Funktion [MITTAG 1993].

Die Gütefunktion G(P) bildet die Ablehnwahrscheinlichkeit eines Tests als Funktion des Ausschussanteils P des zu testenden Parameters ab. Die Gütefunktion kann mit mehreren statistischen Verfahren bestimmt werden, beispielsweise mit Hilfe der Binomialverteilung, dem t- oder auch dem z-Test. Auch hier muss beachtet werden, dass sich das α- und β-Risiko je nach Lage der Grundgesamtheit und Definition des Vertrauensbereiches verändern kann. Nur im Idealfall, das heißt wenn bei einer 100 %-Prüfung mit einem idealen Messgerät α und β gleich null sind, entspricht der Graph einer Sprungfunktion (Bild 2.23).

Aus den Werten der Gütefunktion ist insbesondere nicht oder – bei Shewhart-Karten – nur indirekt zu erschließen, mit welcher Zeitspanne bis zur Entdeckung einer Prozessstörung zu rechnen ist. Diese für die Praxis oft noch wichtigere Information vermittelt die Average-Runtime-Length-Funktion (ARL-Funktion). Sie gibt an, wie sich die mittlere Lauflänge (von der Veränderung bis zur Detektion) bei Variation des Qualitätsparameters x angegeben in Vielfachen der Prozessstreuung d, verändert. Aus Bild 2.24 ist ersichtlich, dass sich die Anzahl der Stichproben zwischen Auftreten und Detektion der Veränderung reduziert, wenn entweder die Abweichung d zunimmt oder der Stichprobenumfang n erhöht wird [RINNE 1995].

Bild 2.23: Ideale und reale Gütefunktion Bild 2.24: ARL-Funktion für verschiedene Stichprobenumfänge n

Werden die Eingriffsgrenzen mit Hilfe von generellen Berechnungsformeln ermittelt, so stehen für jeden Regelkartentyp unterschiedliche Formeln zur Verfügung. Beispielhaft soll nachstehend die Berechnung der Eingriffsgrenzen für klassische Shewhart-Regelkarten (Gleichung 2.10) und für Shewhart-Regelkarten mit erweiterten Grenzen (Gleichung 2.11) vorgestellt werden. Letztere finden Anwendung, wenn der Prozess einer nicht-normalverteilten Streuung unterworfen ist, z.B. wenn Verschleißeffekte einen signifikanten Einfluss auf die Merkmalausprägung besitzen.

nσuµEG^

/α ⋅±= − 21 ⎟⎟⎟

⎜⎜⎜

⎛⋅+⋅±= −−

nσuσuµEG^

/αges

^

^

2121

(Gleichung 2.10) (Gleichung 2.11)

0,0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1,0

0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

P

G(P)

αmax

βmax reale Eingriffs-kennlinie

ideale EingriffskennlinieG(P)

P

1,00,90,80,70,60,50,40,30,20,10,0

0,0 0,2 0,4 0,6 0,8 1,0 -2 -1 0 1 2d

n=5

n=10n=3

110

100 1/αARL (d)x

Page 45: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 27

2.4.3 Six Sigma

„Six-Sigma“ ist der Oberbegriff für eine Methodik, welche das Ziel verfolgt, die Qualität von Produkten und Prozessen systematisch und kontinuierlich mit einem ganzheitlichen Ansatz nachhaltig zu verbessern und dabei alle Unternehmensebenen von der Leitung bis zum einfachen Werker mit einschließt.

Erste Vorläufer der Six Sigma-Methode fanden sich bereits in den 1970er Jahren in Japan zunächst im Schiffbau und später in anderen Industriezweigen. Mitte der 1980er Jahre wurde die Kombination aus einzelnen bewährten Grundprinzipien und statistischer Methoden entwickelt und bei Motorola in den USA erstmals unter dem Namen „Six Sigma“ offiziell eingeführt. Aufgrund des beachtlichen wirtschaftlichen Erfolges und der deutlichen Qualitätsverbesserung bei Motorola-Produkten wurde die Methode von anderen Unternehmen eingeführt und weiterentwickelt [TOUTENBURG 2009]. Die Stärke dieser Methodik liegt nicht darin, diverse vollkommen neue Werkzeuge zur Problemlösung bereitzustellen. Vielmehr ist es das Verdienst der „Six Sigma-Begründer“, bestehende Werkzeuge in ein sinnvolles, übergeordnetes Ablaufschema zu integrieren, den sogenannten „DMAIC-Zyklus“, welcher das Kernelement der Six Sigma-Methodik bildet [RATH & STRONG 2002].

Der DMAIC-Zyklus dient zur Verbesserung bereits bestehender Prozesse, die nicht oder nicht in gewünschtem Maße die definierten Kundenanforderungen erfüllen [HARRY 2005]. Im Rahmen des DMAIC-Zyklusses wird ein reales Problem in eine statistische Repräsentanz überführt und eine Lösung für diese gefunden, die dann wiederum in eine reale Lösung transformiert wird. „DMAIC“ ist ein Akronym bestehend aus den Anfangsbuchstaben der fünf Phasen dieser Vorgehensweise, nämlich: Define, Measure, Analyse, Improve und Control. Bild 2.25 zeigt die fünf Phasen des DMAIC-Zyklus mit den dazugehörigen zu klärenden Fragen und den durchzuführenden Aktivitäten.

Bild 2.25: DMAIC-Zyklus

Define-Phase Die Define-Phase ist der grundlegende Schritt im DMAIC-Prozess, in dem das Verständnis für die Projektinhalte und deren Auswirkungen entsteht, die Ziele des Vorhabens präzisiert und in konkrete Erfolgsfaktoren umgewandelt werden. Die Bedeutung der Define-Phase ist nicht zu unterschätzen: Was hier nicht berücksichtigt, definiert und verstanden wurde, kann später nur schwerlich sinnvoll gemessen, analysiert, verbessert und kontrolliert werden.

DefineWas ist das Problem?Das Problem wird beschrie-ben und das Six Sigma Projekt wird gestartet.

MeasureWie groß ist das zu beseiti-gende Problem wirklich?Das praktische Problem wird in ein statistisches übersetzt. Messdaten werden erfasst.

AnalyseWo liegen die Ursachen fürdas Problem?Mithilfe der Messdaten werden die Grundursachen herausgearbeitet.

ControlWie wird die Nachhaltigkeit der Verbesserung gesichert? Steuerungsmechanismen zur Sicherstellung der Nach-haltigkeit werden definiert.

ImproveWas ist die beste Lösung und was bringt diese ein?Auf Basis der Grund-ursachen werden Lösungen entwickelt und verfeinert.

Page 46: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

28 Grundlagen Kapitel 2

In der Define-Phase sind die Kunden zu identifizieren, ihre Anforderungen einzuholen und die Messbarkeit zu gewährleisten. Der zu verbessernde Prozess wird grob dargestellt und zusammen mit den Rahmenbedingungen des Projekts (Teammitglieder, Zeitplan, Ressourcen etc.) in der „Projekt Charta“ zusammengefasst.

Measure-Phase In der Measure-Phase besteht die Hauptaufgabe darin, zunächst die Messung der tatsächlichen Prozessleistungsfähigkeit gründlich vorzubereiten und entsprechend durchzuführen. Auf Basis der in der Define-Phase ermittelten kundenrelevanten Qualitätsaspekte sind nun die Messkriterien zu präzisieren. An ihnen kann abgelesen werden, inwieweit der Prozess die Kundenbedürfnisse erfüllt.

Während der Measure-Phase werden die Kundenanforderungen durch Messgrößen und Zielwerte präzisiert. Die sogenannte Base-Line, der Ist-Zustand des Prozesses, wird daraufhin anhand der Kriterien systematisch erfasst und die aktuelle Prozessleistung bewertet.

Analyse-Phase In der Analyse-Phase liegt der Schwerpunkt auf der Ursachenforschung: Mithilfe der in der Measure-Phase erhobenen Daten gilt es, Grundursachen statistisch fundiert zu ermitteln, die für die Minderung der Prozessleistung verantwortlich sind. Hierfür müssen die signifikanten Einflussfaktoren auf das Prozessergebnis identifiziert und die funktionalen Zusammenhänge zwischen diesen Einflüssen und den Zielgrößen ermittelt werden.

Mit Hilfe der statistischen Versuchsmethodik und diversen graphischen Werkzeugen kann eine effiziente Datenerhebung und Auswertung sichergestellt werden, welche für die Suche valider Lösungen unabdingbar ist.

Improve-Phase In der Improve-Phase geht es um das Ermitteln von möglichen Lösungen zur Verbesserung des Prozesses unter Berücksichtigung der ermittelten funktionalen Zusammenhänge. Nur diejenige Lösung, welche sich am Ende durch die aussichtsreichste Kosten-Nutzen-Risiko-Bilanz auszeichnet, wird auch tatsächlich zur Verbesserung des Prozesses eingesetzt.

Deshalb werden im Rahmen der Improve-Phase verschiedene Lösungen erarbeitet, verfeinert, getestet und bewertet. Hierfür sollten neben eine Fehlermöglichkeits- und Einflussanalyse zur Risikoabschätzung diverse Pilot-Versuche durchgeführt werden. Im Anschluss an die Auswahl ist ein Implementierungsplan zu erstellen mit dem Ziel, die ausgewählte Lösung zeitnah flächendeckend und dauerhaft im Unternehmen zu verankern.

Control-Phase Der letzte Schritt des DMAIC-Zyklus, die Control-Phase, ist entscheidend für die Nachhaltigkeit der erreichten Verbesserung. Veränderungen in der Prozessleistung sollten statistisch abgesichert im zeitlichen Verlauf überwacht werden, um gegebenenfalls frühzeitig regulierend eingreifen zu können. Darüber hinaus müssen alle betreffenden Arbeitsanweisungen an die Prozess-veränderungen angepasst und als verbindlich kommuniziert werden.

Im Zuge des Projektabschlusses wird der erreichte Erfolg mit den in der Define-Phase definierten Zielen abgeglichen. Konnte das geforderte Ziel nicht erfüllt werden, so ist gegebenenfalls ein weiterer Durchlauf des DMAIC-Zyklus auf Basis des vertieften Prozessverständnisses erforderlich.

Page 47: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 2 Grundlagen 29

2.4.4 Design for Six Sigma

Es gibt im Wesentlichen zwei Fälle in der Anwendung von Six Sigma, bei denen ein modifiziertes Vorgehen zu besseren Ergebnissen führt [BERGBAUER 2004]: Zum Einen, wenn ein völlig neues Produkt oder ein neuer Prozess eingeführt werden muss, und zum Anderen, wenn die bestehende Situation so gut ist, dass zu einer weiteren Verbesserung eine komplette Neu-Modellierung des Prozesses vorgenommen werden muss.

Aufbauend auf der Six Sigma-Methodik wurde deshalb das „Design for Six Sigma“ (DfSS) entwickelt, welches sich zum Ziel gesetzt hat, „Six Sigma-Qualität“ von Anfang an bereitzustellen. Die strukturierte Vorgehensweise unterstützt dabei, eine berechenbare und vorhersagbare Produktqualität zu erreichen, die den Kundenanforderungen gerecht wird [SLEEPER 2006].

Während man sich im „klassischen“ Six Sigma der Eliminierung negativer Qualität im Sinne der Prozessoptimierung widmet, verfolgt DfSS das Ziel, positive Qualität zu generieren, zum Beispiel bei der Neuentwicklung oder bei der grundlegenden Überarbeitung von Prozessen und Produkten. Wenn der Betrachtungsgegenstand nämlich bereits in mehreren Iterationsschleifen optimiert wurde, nimmt das Optimierungspotential sukzessive ab. Man spricht hier stellvertretend von der 5-Sigma-Schallmauer (Bild 2.26). Soll zum Beispiel ein Prozess darüber hinaus weiter verbessert werden, so ist es oftmals erforderlich, den gesamten Prozess oder zumindest Teile davon nachhaltig zu modernisieren. Dies schließt auch die Einführung neuer Verfahren und die Beschaffung neuer Maschinen mit ein und verursacht stets größere wirtschaftliche Unwägbarkeiten als die klassische Optimierung bestehender Prozesse.

Bild 2.26: 5-Sigma-Schallmauer

Ein DfSS-basiertes Innovationsmanagement ist deshalb in der Lage, typische Risiken der Neuentwicklung zu vermeiden, wie zum Beispiel nach [LUNAU 2007]:

Einführung eines völlig neuen Produktes oder Prozesses. Fehlende oder unvollständige Ermittlung der Kundenbedürfnisse. Einsatz von Ressourcen gemäß falscher Prioritäten. Determinierung des Entwicklungsprozess durch einige wenige Teammitglieder. Unvollständige und / oder nicht nachvollziehbare Dokumentation der Projektergebnisse. Verzögerung der Markteinführung (Time to Market) durch ungeplante und aufwändige

Nachbesserungen.

Das DfSS basiert ebenso wie die „Six Sigma“-Methodik auf einem phasenbasierten Prozess. Es sind – anders als bei DMAIC – eine Vielzahl von Phasenmodellen entwickelt worden, wobei sich ein einheitlicher Standard bisher noch nicht durchsetzen konnte [TOUTENBURG 2009]. Für jede Phase sind die spezifischen Aktivitäten, die verwendeten Werkzeuge und die erwarteten Ergebnisse definiert. Bild 2.27 gibt einen Überblick über gängige DfSS-Ansätze.

6 σ

5 σ

4 σ

3 σ1

Six Sigma

5-Sigma-Schallmauer

Design for Six Sigma

2 3 Jahre 5Zeit

Leistungsfähigkeit des Prozesses

Page 48: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

30 Grundlagen Kapitel 2

Bild 2.27: Gängige DfSS-Methoden und ihre Phasen

Bei allen Unterschieden in Benennung und Anzahl der Phasen sind die angewendeten DfSS-Methoden inhaltlich und bei Betrachtung der verwendeten Werkzeuge jedoch ähnlich. Stellvertretend für die in Bild 2.27 vorgestellten Ansätze, soll im Folgenden das DMADV-Schema eingehender betrachtet werden, da dieses in der Literatur am weitesten verbreitet ist [REIßIGER 2007]:

Define und Measure Die ersten drei Phasen „Define“, „Measure“ und „Analyze“ sind namentlich identisch mit den Phasen des DMAIC-Zyklusses. Besonders die Phasen „Define“ und Measure“ sind auch inhaltlich angelehnt an die Phasen des Six Sigma. Nur wird in den frühen Phasen des Projektes intensiver auf die Bedürfnisse des internen oder externen Kunden eingegangen, als in klassischen Six Sigma-Projekten, da bei DfSS-Aufgaben deutlich mehr Freiheitsgrade zu definieren sind.

Analyze In der Analyze-Phase wird die Gestaltung des neuen Prozesses oder Produktes maßgeblich definiert. Deshalb stehen in dieser Phase die Identifizierung möglicher Design-Konzepte sowie die Entscheidung für ein Konzept und dessen Optimierung im Vordergrund.

Design In der Design-Phase wird das Konzept weiter verfeinert, detailliert und auf seine Leistungsfähigkeit hin geprüft. Desweiteren muss die Einführung des neuen Prozesses geplant werden: Hierzu zählen die Raumplanung, die Planung der Materialversorgung, das Erstellen von Arbeitsanweisungen etc.

Verify Im Zuge der Verify-Phase wird der neue Prozess implementiert und mit einem effektiven Prozessmonitoring überwacht. Zum Abschluss werden alle relevanten vorgenommenen Handlungen dokumentiert und die Prozessverantwortung an die regulären Prozesseigner übergegeben.

Projektphasen / Generische Schritte

Phas

enm

odel

le

Ziele setzen, Rahmen ab-stecken und Projekt starten

Anforderungen der Kunden bestimmen und in Messgrößen übersetzen

Konzeptionelles Design bestimmen

Entwicklung, Optimierung und Prototypen des detaillierten Designs

Test und Fehler-korrektur des Designs, Implemen-tierung

IDOV Identify Design Optimize Verify

Define Measure Analyze Design VerifyDMADV

Define Measure Analyze Design, Optimize VerifyDMADOV

Define Measure Explore Develop ImplementDMEDI

RCI Requirements Concepts Improvements

ICOV Identify Caracterize Optimize Verify

CDOV Concept Design Optimize Verify

DDOV Define Characterize Optimize Verify

Define Customer analysis Conceptual Design Design ImplementDCCDI

Page 49: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 3 Defizite, Zielsetzung und wissenschaftlicher Ansatz 31

3 Defizite, Zielsetzung und wissenschaftlicher Ansatz

3.1 Defizite industrieller Anwendung und aktueller Forschungsansätze Beim Einsatz der in Kapitel 2 vorgestellten Qualitätsmanagementtechniken zeigen sich in klassischen industriellen Anwendungen erhebliche Verbesserungspotentiale: Für den Gebrauch statistischer Testverfahren muss oftmals weitreichend in den zu untersuchenden Fertigungsprozess eingegriffen werden, was häufig zu einer erhöhten Ausschussrate und im Extremfall zum Verwerfen des gesamten Produktionsloses führt (Bild 3.01). Um die wirtschaftlichen Verluste während der Datenerhebung in einem vertretbaren Rahmen zu halten, nimmt man bei der Auslegung dieser Tests eine entsprechende Irrtumswahrscheinlichkeit bzw. Unsicherheit (U) in Kauf, welche häufig auf einen Wert von fünf Prozent festgelegt ist. Desweiteren ist bei jeder Anwendung eines Testverfahrens der Prozess erneut entsprechenden Beeinträchtigungen ausgesetzt, welche zu weiteren nicht realisierten Gewinnen oder gar zu Verlusten führen.

Bild 3.01: Klassische Industrie-Anwendung etablierter QM-Techniken (Extremfall)

Dem in Bild 3.01 skizzierten Umstand wird durch aktuelle Forschungsansätze dahin gehend Rechnung getragen, dass bestehende Fertigungsprozesse in ein virtuelles Abbild überführt werden. Diese Modelle können dann für weitergehende Studien herangezogen werden, während das Unternehmen mit dem Prozess ungestört auf dem bestehenden Qualitätsniveau weiterfertigen kann (Bild 3.02). Erst nach der erfolgreichen Bestimmung und Validierung einer verbesserten Parameterkonstellation wird diese auf den realen Fertigungsprozess übertragen. Hierbei kommen meist die klassischen, etablierten Testmethoden zum Einsatz, welche sich in der jahrelangen Anwendung auf reale Prozesse bewährt haben und auch dieselben Unsicherheitsbereiche aufweisen, zum Beispiel bei [COREL 2009]. Darüber hinaus sind bei aktuellen Ansätzen erhebliche Defizite feststellbar im Bezug auf Effizienz und Komplexitätsmanagement im Bereich Modellbildung und Simulation bzw. im Bezug auf die Quantifizierung von Vertrauensbereichen und simulationsbasierter Anwendung von Qualitätstechniken.

Fertigungsprozess (real)

klassische stat. Testverfahren

U = 5 %

Verwertbare Produkte

Statistische AussagenU = 5 %

XOR

Klassische Industrie-Anwendung

Page 50: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

32 Defizite, Zielsetzung und wissenschaftlicher Ansatz Kapitel 3

Bild 3.02: Aktuelle Anwendung der Simulationstechnologien im Bereich der Prozessoptimierung

Modellbildungsstrategien wie in [SARGENT 1983], [VDI 3633] oder [RABE 2008] ist gemein, den so wesentlichen Bereich der Erfassung notwendiger Informationen nicht oder nur sehr allgemein zu beleuchten. In [MEYER 2005] und [VDI 3633-1] ist jeweils eine kurze Auswahl möglicher Ansätze zur Datenerfassung aufgelistet, jedoch ohne näher auf deren Ausgestaltung bzw. Durchführung einzugehen. Viele Ansätze, wie zum Beispiel [WENZEL 2008] oder [SCHULER 1999] beruhen auf der Annahme, dass alle erforderlichen Informationen, Daten und Fakten zur Prozessmodellierung von den Auftraggebern bereit gestellt werden. Desweiteren sind umweltbedingte Abweichungen, die in einer Veränderung der Prozesslage und der Prozessstreuung resultieren, bisher nicht systematisch in den Simulationen berücksichtigt und deren Auswirkungen auf die Qualitätsmerkmale der gefertigten Komponenten nicht modelliert.

Hinzu kommt, dass bei der Durchführung von Simulationsstudien der Schwerpunkt häufig nur auf technische und technologische Aspekte gelegt wird – qualitätsbezogene Aspekte spielen hierbei eine untergeordnete Rolle. Aus diesem Grund und wegen der diffizilen Ermittlung und Modellierung zufälliger Einflüsse (wie z. B. Temperaturänderungen, Vibrationen, Verschleiß, Alterung etc.) werden diese oft im Modell nicht hinreichend berücksichtigt. Aus diesem Defizit resultiert sowohl die eingeschränkte Verfügbarkeit von qualitätsbezogenen Daten und Informationen während der Simulationsstudien als auch die fehlende Möglichkeit zur Bereitstellung, Verarbeitung und Verdichtung der Daten und Informationen in den nachfolgenden Phasen der Prozessplanung und -einrichtung.

Aus dem Bereich der Elektronikproduktion ist ein Ansatz bekannt, in dem zur Verbesserung der methodischen Vorgehensweise bei Simulationsstudien informationslogistische Architekturkonzepte zur Akquisition simulationsrelevanter Daten aufgestellt werden [COLLISI 2002]. Qualitätsrelevante Aspekte werden allerdings nur dahin gehend abgebildet, dass einige wenige statistische Kenngrößen definiert werden, wie die Mean Time Between Failures (MTBF), welche sich dann zufällig auf den Prozess auswirken, ohne die zugrundeliegenden Wirkmechanismen mitzubetrachten.

In der logischen Folge weisen aktuell eingesetzte Simulationsmodelle oftmals erhebliche Defizite in der Abbildungsgenauigkeit auf, die auch bei der Anwendung bestehender Leitfäden häufig nicht

Fertigungsprozess (real)

klassische stat. Testverfahren

U = 5 %

Verwertbare Produkte

Statistische AussagenU >> 5 %

Simulations-modell

U = ? %

einmalig

Stand der Forschung

Page 51: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 3 Defizite, Zielsetzung und wissenschaftlicher Ansatz 33

quantifiziert werden muss (Bild 3.02). Aus diesem Grund sind die auf derartigen Modellen aufbauenden Simulationsergebnisse auch nur bedingt für die Prognose des Langzeitverhaltens einsetzbar, bei welchem die im Rahmen der Modellbildung vernachlässigten Einflussgrößen immer stärker zum Tragen kommen. Auch ist eine fundierte Abschätzung der Prognoseunsicherheit bzw. Irrtumswahrscheinlichkeit nicht möglich, welche den Entscheidungen beigeordnet werden muss, die auf simulationsbasierten Fakten beruhen. Hierin ist auch ein wesentlicher Aspekt zu sehen, warum sich viele der in der Simulationsumgebung für gut befundenen Lösungen im realen Einsatz als ungeeignet erweisen. Hinzu kommt die statistische Unsicherheit durch die angewendeten klassischen Qualitätswerkzeuge, welche im Regelfall ebenfalls noch einen Beitrag zur Prognoseunsicherheit von etwa fünf Prozent leisten. Somit kann der in Bild 3.01 skizzierte Widerspruch („Entweder produzieren oder Versuche fahren“) zwar aufgelöst werden, was man jedoch zumeist durch eine deutlich erhöhte und unzureichend quantifizierte Prognoseunsicherheit erkaufen muss.

Desweiteren ist eine umfassende Einbindung von Simulationserkenntnissen in die Gestaltung eines prozesskettenspezifischen Qualitätsmanagementsystems in anerkannten allgemeingültigen Vorgehensweisen nicht bekannt, obgleich ein solches Vorgehen hocheffizient und von wirtschaftlichem Vorteil wäre. Ebenso erfolgt keine Integration von QM-Methoden in Simulations-verfahren, obwohl hierdurch eine vorausschauende und präventive Qualitätsüberwachung der Prozesse bereits in der Simulationsphase erreicht werden könnte [PFEIFER 2003]. Jedoch nimmt das Qualitätsmanagement mit seiner Vielfalt an Methoden und Werkzeugen eine Schlüsselstellung für die Beherrschung von Prozessketten ein [SCHMITT 2004], weshalb die Aspekte des Qualitäts-managements so früh wie möglich in die Planung von Prozessketten einbezogen werden sollten.

Umfangreiche Simulationsstudien zur Verbesserung der Ablaufplanung von Prozessketten werden in [HORN 2004], [SAUER 2003] und [WEIGERT 2004] behandelt. Spezifische qualitätsbezogene Fragestellungen wie die Ableitung von Qualitätskennwerten aus den ermittelten Daten bzw. die Anwendung von Qualitätsmanagementtechniken für die Planung der virtuellen Studien oder die Integration von QM in die Simulationsverfahren werden nicht betrachtet.

Erste grundlegende Ansätze zur Verknüpfung von Simulationsverfahren und Qualitäts-managementtechniken finden sich in unterschiedlichen Forschungsbereichen: Ein Simulations-modell zur planerischen Abschätzung der Ausschusskosten bei Variation des so genannten Acceptable Quality Levels (AQL) für eine einfache Prozesskette wird in [EID 1997] beschrieben. Der Ansatz fokussiert auf eine monetäre Bewertung der Qualität der Zwischenprodukte und weniger auf die ganzheitliche Modellierung der qualitätsbezogenen Wirkzusammenhänge innerhalb der Prozesskette.

Die Simulation der Qualitätsfähigkeit von Prozessen im Rahmen des Serienanlaufes in der Automobilproduktion wird in [FLEISCHER 2003] vorgestellt. Hierzu wird eine Prozesskette in Einzelprozesse (so genannte „Elementarprozesse“) zerlegt und über die Simulation der Qualitätsfähigkeiten der Einzelprozesse die „Gesamt-Qualitätsfähigkeit“ der Prozesskette noch vor Serienanlauf berechnet. Die Abhängigkeit der Qualitätsfähigkeit von Einzelprozessen und die Auswirkung des zeitlichen Streuungsverhaltens der Prozessparameter auf die Qualität der Produkte werden in diesem Ansatz nicht berücksichtigt.

Funktionen zur organisatorischen und methodischen Unterstützung von Simulationsanwendern werden in der verfahrenstechnischen Industrie als übergreifende Qualitätsmanagementtechniken in Simulationsstudien integriert. Dazu werden so genannte Groupware-Systeme mit Simulations-verfahren verknüpft. Aufgabe der Groupware-Systeme ist es, im Rahmen von Simulationsstudien eine abteilungs- und organisationsübergreifende Bereitstellung von simulationsrelevanten Daten und Informationen sowie eine effiziente Projektkoordination sicher zu stellen [BERNHARD 2003].

Page 52: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

34 Defizite, Zielsetzung und wissenschaftlicher Ansatz Kapitel 3

Diese Systeme leisten durch ihren internetbasierten Ansatz einen wertvollen Beitrag bei der Bearbeitung von Simulationsprojekten mit mehreren räumlich weit verteilten Projektpartnern. Allerdings beziehen sich die in [BERNHARD 2003] beschriebenen Qualitätsmanagementtechniken nur auf die Steuerung und Überwachung eines Projektworkflows. Eine Integration von QM-Werkzeugen in die Simulationsstudien ist ebenso wenig vorgesehen wie die systematische Bewertung der Abbildungsgenauigkeit des erstellten virtuellen Abbilds.

Aus dem Bereich der Simulationsprogramme ist nur ein einziger industrieller Ansatz bekannt, Qualitätsmanagementtechniken in Simulationsstudien zu integrieren. Die Simulationsumgebung iGrafX stellt mit dem Zusatzmodul „Process for Six Sigma“ Möglichkeiten bereit, die klassischen (graphischen) Six Sigma-Werkzeuge anzuwenden und die Simulationsumgebung an die Statistik-Software Minitab anzukoppeln, um Versuchspläne automatisiert aufstellen und auswerten zu können [COREL 2009]. Jedoch fehlt auch diesem Ansatz eine Systematik zum Aufbau abweichungsbetrachtender Prozessmodelle sowie eine Anpassung der Werkzeuge an die besonderen Gegebenheiten im Rahmen von Simulationsstudien.

3.2 Zielsetzung und Nutzen der Arbeit 3.2.1 Zielsetzung dieser Arbeit

Mit der vorliegenden Arbeit werden vorrangig zwei Ziele verfolgt:

1 Verbessern der Abbildungsgenauigkeit von Simulationsmodellen durch Einbeziehung zufälliger Einflussgrößen und Ihrer Auswirkungen auf die Zielgrößen sowie Ermöglichen einer statistisch fundierten Ermittlung der erreichten Abbildungsgenauigkeit.

2 Erweitern der Anwendungsbereiche etablierter statistischer Testverfahren auf die Virtual Reality unter Ausnutzung der sich hier bietenden Potentiale, zum Beispiel zum Reduzieren der Irrtumswahrscheinlichkeiten oder durch Einsetzen der Methoden der Computational Intelligence zur systematischen Lösung von Optimierungsproblemen.

Zur Erreichung des ersten Zieles ist als Basis ein Leitfaden zur Modellierung abweichungs-betrachtender Simulationsmodelle zu erarbeiten, da zurzeit keine systematische Vorgehensweise bekannt ist, welche den Anwender gezielt bei der Auswahl, Analyse und Implementierung der relevanten Einflussparameter sowie bei der abschließenden Qualifizierung der Abbildungs-genauigkeit unterstützt. Der Leitfaden zielt auf das Einbeziehen folgender fachlicher Aspekte bei der Gestaltung und Implementierung von abweichungsbetrachtenden Simulationsmodellen ab:

Systematische Identifikation relevanter Einflussfaktoren auf den abzubildenden Fertigungsprozess.

Berücksichtigen und Integrieren vorhandener relevanter Daten und Informationen aus dem bestehenden datenverarbeitungstechnischen Umfeld der Organisation.

Methodische Quantifizierung der Wirkzusammenhänge zwischen Einfluss- und Zielgrößen und Berücksichtigung im Grobkonzept des zu erstellenden Simulationsmodells.

Quantifizierbare Validierung der Abbildungsgenauigkeit abweichungsberücksichtigender Simulationsmodelle in Form speziell entwickelter Kennzahlensysteme.

Zur Erreichung des zweiten Zieles sind allgemeine Richtlinien zur Adaption simulationsoptimierter Qualitätsmanagementtechniken mit reduzierter Prognoseunsicherheit zu erforschen und in einem ganzheitlichen Referenzmodell zu bündeln. Dieses Referenzmodell soll neben einer umfassenden Referenzarchitektur auch über entsprechende Adaptionsstrategien verfügen. Folgende Anforderungen werden hierbei an den zu erforschenden Ansatz gestellt:

Page 53: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 3 Defizite, Zielsetzung und wissenschaftlicher Ansatz 35

Referenzmodell zum Aufbau virtueller Qualitätsmanagementtechniken in informationsverarbeitenden Systemen.

Adaptionsstrategie zur strukturierten Überführung etablierter Werkzeuge in die Virtual Reality.

Systematische Einbindung der Computational Intelligence. Optimale Ausnutzung der Stärken moderner Simulationstechnologien. Anwenderunterstützung bei der Konfiguration der virtuellen Werkzeuge.

Die Anwendung des Leitfadens in Kombination mit den zu entwickelnden virtuellen Qualitätsmanagementwerkzeugen soll die Defizite im Bereich der Komplexitätsbeherrschung beim Modellaufbau und in der methodischen Durchführung von qualitätsorientierten Simulationsstudien beheben. Im Ergebnis soll der Anwender in die Lage versetzt sein, systematisch hoch-komplexe abweichungsbetrachtende Simulationsmodelle aufbauen und zum Zwecke der Validierung von Fertigungsprozessen und Optimierung virtueller Qualitätsregelkreise einsetzen zu können. Die hieraus resultierenden Ergebnisse sollen statistisch belastbar sein und mit quantifizierten Unsicherheitsangaben in die simulationsbasierte Planung von Fertigungsprozessen maßgeblich unterstützen.

3.2.2 Beitrag und Nutzen der Arbeit

Wenn es gelingt, die Abbildungsgenauigkeit des zugrundeliegenden Simulationsmodells auf etwa 98 % zu erhöhen und gleichzeitig die Prognoseunsicherheit der statistischen Testmethoden durch den gezielten Einsatz der Stärken der Simulationstechnologien und der künstlichen Intelligenz auf einen Wert von unter 0,1 % zu reduzieren, können erhebliche Effizienzsteigerungen und Kosteneinsparungen realisiert werden: Denn nun ist es erstmals möglich, statistisch fundierte Aussagen aufgrund eines Simulationsmodells zu treffen, die eine deutlich höhere Prognosesicherheit aufweisen als dies bei der Durchführung klassischer Testmethoden am realen Prozess möglich wäre. Hinzu kommt, dass mit dem Fertigungsprozess nach dem Abschluss der einmalig durchzuführenden Modellbildung ungestört weiter produziert werden kann während die Tests ab diesem Zeitpunkt nur noch mit Hilfe des virtuellen Abbilds abgearbeitet werden (Bild 3.03).

Bild 3.03: Beitrag und Nutzen dieser Arbeit

Fertigungsprozess (real)

Sim.-optimierte Testverfahren

U < 0,1 %

Verwertbare Produkte

Statistische AussagenU ≈ 2 %

Simulations-modell

U = 2 %

einmalig

Ziel im Rahmen dieser Arbeit

Page 54: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

36 Defizite, Zielsetzung und wissenschaftlicher Ansatz Kapitel 3

Desweiteren soll mit der vorliegenden Arbeit ein Beitrag geleistet werden zur Steigerung der Leistungsfähigkeit und Akzeptanz von Simulationsstudien im Rahmen der qualitätsorientierten Prozessplanung. Dies wird erreicht durch die systematische Unterstützung des Anwenders bei der Modellerstellung und die Erweiterung des Einsatzspektrums etablierter Qualitätsmanagement-techniken auf den Bereich der Virtual Reality. Hierdurch wird neben einem grundlegenden wissenschaftlichen Nutzen auch ein direkt industriell umsetzbarer praktischer Nutzen generiert:

Wissenschaftlicher Nutzen Der zu entwerfende Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle wird dergestalt allgemeingültig formuliert, dass die Anwendung des Leitfadens produkt-, prozess- und branchenunabhängig erfolgen kann. Die Übertragbarkeit auf andere Problemstellungen und Anwendungsfälle wird damit sichergestellt.

Die im Rahmen des Leitfadens aufgestellten Handlungsanweisungen unterstützen den Anwender von der Definition der Simulationsaufgabe über die Ermittlung und Abbildung signifikanter Wirkzusammenhänge bis hin zur kennzahlengestützten Validierung des Simulationsmodells. Auf diese Weise wird ein Defizit vorhandener Ansätze zur Gestaltung von Simulationsmodellen behoben, indem in der Anleitung des Anwenders dem Bedürfnis nach durchgängiger, systematischer Unterstützung unter Bereitstellung einer übergeordneten Methodik und geeigneter graphischer und statistischer Werkzeuge Rechnung getragen wird.

Das zur Adaption etablierter Qualitätsmanagementwerkzeuge für den Einsatz in der Virtual Reality angewandte Referenzmodell wird ebenfalls allgemeingültig formuliert und bei der Implementierung mehrerer verschiedener Werkzeuge erprobt. Somit kann gewährleistet werden, dass die erforschten Ansätze zur Virtualisierung von Qualitätsmanagementtechniken auch über die Grenzen dieser Arbeit hinaus bei der Entwicklung eines virtuellen Werkzeugkastens eingesetzt werden können.

Praktischer Nutzen Der entwickelte Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle wird im Rahmen der Validierung an mehreren Beispielen intensiv erprobt und weiterentwickelt. Deshalb stehen dem industriellen Anwender neben einer allgemeinen Handlungsanweisung zum Aufbau qualitätsorientierter Prozessmodelle bereits prototypische Modelle der nachstehenden Fertigungs-verfahren zur Verfügung:

Schablonendruck (als Teilschritt der Elektronikproduktionskette). Kunststoffspritzguss (unter besonderer Berücksichtigung der thermischen Leitfähigkeit

gefertigter Bauteile). Stereolithographie (mit dem Schwerpunkt auf den komplexen Auswirkungen der

Harzalterung auf die Bauteilgeometrie).

Das zu erforschende Referenzmodell zur Adaption etablierter Qualitätsmanagementtechniken für den Einsatz in der Virtual Reality wird exemplarisch an der vollständigen Kette der SPC-Werkzeuge angewendet. Somit stehen nun die nachfolgenden erprobten und leistungsfähigen Prototypen zur direkten Anwendung auf industrielle Problemstellungen bereit:

Prüfprozessfähigkeitsanalyse. Maschinenfähigkeitsanalyse. Prozessfähigkeitsanalyse. Simulationsbasierte Auslegung von Qualitätsregelkarten (unter dem Einsatz der

Computational Intelligence zur heuristischen Erprobung und Optimierung).

Page 55: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 3 Defizite, Zielsetzung und wissenschaftlicher Ansatz 37

3.3 Wissenschaftlicher Ansatz Zur Erreichung der Zielsetzung dieser Arbeit sind der gegenwärtige Stand der Technik und die damit verbundenen Defizite im Bereich der Modellbildung und der Betrachtung von Qualitätsaspekten in Simulationsstudien zu berücksichtigen. Nachstehende Bestandteile des virtuellen Qualitäts-managements sind deshalb wissenschaftlich zu erforschen:

Systematische Vorgehensweise zum Aufbau abweichungsbetrachtender Prozessmodelle. Referenzmodell zur Adaption von Qualitätsmanagementtechniken für den Einsatz in der

Virtual Reality.

Bild 3.04 zeigt die im Zuge dieser Arbeit betrachteten Bestandteile des virtuellen Qualitäts-managements und deren Zusammenführung in der prototypischen Virtualisierung der Werkzeuge der statistischen Prozesslenkung.

Bild 3.04: Wesentliche Bestandteile des virtuellen Qualitätsmanagements

Der Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle stellt eine allgemeingültig formulierte Vorgehensweise und eine Strukturierungshilfe für die Aufteilung der Arbeitspakete in einzelne Phasen bereit. Die Darstellung der Vorgehensweise erfolgt in Kapitel 4. Das Referenzmodell bestehend aus der Modell-Architektur und der Strategie zur Adaption etablierter Qualitätsmanagementtechniken für den Einsatz in der Virtual Reality wird in Kapitel 5 eingehend erläutert. Die prototypisch nach dem Leitfaden aufgebauten abweichungsbetrachtenden Simula-tionsmodelle des Stereolithographie-, des Kunststoffspritzguss- und des Schablonendruckprozes-ses sind Gegenstand des 6. Kapitels. Zur Überprüfung der Anwendbarkeit und Zweckmäßigkeit des Referenzmodells werden in Kapitel 7 die Werkzeuge der statistischen Prozesslenkung in der Simu-lationsumgebung aufgebaut, in den erstellten Prozessmodellen implementiert, erprobt und validiert.

Define

Measure

Analyse

Design

Verify

Anwendung der Statistischen Prozesslenkung im Rahmen des virtuellen Qualitätsmanagements

Referenzmodell zur Adaption von QM-Techniken

Modul-Architektur Adaptionsstrategie

Leitfaden zum Aufbau abweichungs-betrachtender

Simulationsmodelle

Abweichungsbetrachtende Simulationsmodelle

vQM-Kennzahlen-

Cockpit

Prüfprozess-fähigkeit

Maschinen-fähigkeit

Prozess-fähigkeit

Proz

essb

ewer

tung

Opt

imie

-ru

ng Virtuelle Auslegung, Erprobung und Optimierung von Qualitätsregelkarten

Page 56: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

38 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle Kapitel 4

4 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle

4.1 Eingruppierung in den allgemeinen vQM-Ansatz Das Ziel des virtuellen Qualitätsmanagements (vQM) ist es, Prozesse mit ausgereiften Qualitätsregelkreisen bereits zu Beginn der Serienfertigung bereit zu stellen, so dass optimale Qualität „vom ersten Teil an“ erreicht werden kann. Virtuelles Qualitätsmanagement ist definiert als „aufeinander abgestimmte Vorgehensweisen zur effizienten Modellierung, Anpassung, Nutzung und Auswertung von Simulationen bezüglich Generieren von belastbarem Wissen und Auslegen von Qualitätstechniken für Produkte und Prozesse während der Planungsphase“ [WECKENMANN 2008-1]. Bild 4.01 gibt einen generellen Überblick über die Aspekte dieses Ansatzes.

Bild 4.01: Überblick über den vQM-Ansatz

Verschiedene Informationen über den Prozess und das zu fertigende Produkt bilden die Grundlage für den Aufbau jedes üblichen Simulationsmodells (Prozesswissen). Jedoch werden bei den aktuell verbreiteten Vorgehensweisen zur Modellerstellung oftmals die Wechselwirkungen des betrachteten Prozesses mit der Umwelt sowie maschineninhärente Schwankungen und Alterungserscheinungen vernachlässigt, um die Komplexität der Simulationsmodelle beherrschbar zu halten. Es entstehen somit „Ideal-Modelle“ des Prozesses, aus denen sich keine belastbaren Schlüsse auf die zukünftige Qualitätsfähigkeit des zu entwickelnden Prozesses ableiten lassen.

Indem die bereits oben genannten „Ideal-Modelle“ durch eine Vielzahl von Informationen über die Unvollkommenheiten des Prozesses und die Auswirkungen von Umwelteinflüssen (Qualitätswissen) ergänzt werden, spricht man nun von „abweichungsbetrachtenden Simulationsmodellen“. Als positiver Effekt dieser Vorgehensweise sind nun neben den zuverlässigeren Aussagen über optimale Prozessparametereinstellungen auch Vorhersagen über die Qualitätsfähigkeit und die Robustheit des Prozesses möglich. Ziel ist es, alle relevanten Einflussgrößen mit den dazugehörigen Wirkzusammenhängen und Regelmechanismen in einer Simulationsumgebung gemeinsam abzubilden, wie dies in Bild 4.02 dargestellt ist.

Prozesswissen• Fertigungsmaße• Stellgrößen, ...

Abweichungs-betrachtendes Simulations-

modell

V1V2

A B AB

V3V4

++-

-

+-+

-

+--+

Dat

en a

us

real

em P

roze

ss

Ges

talt

un

g r

eale

r P

roze

ss

Leitf

aden

zum

Mod

ella

ufba

u

vQM

-Fun

ktio

ns-

mod

ule

Qualitätswissen• Parameterstreuungen• Umwelteinflüsse, ...

Prozessparameter• Maschinenparameter• Materialparameter, ...

Qualitätsparameter• Fähigkeitskennwerte• Eingriffsgrenzen, ...

Page 57: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 4 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle 39

Bild 4.02: Abweichungsbetrachtendes Simulationsmodell mit einer Auswahl zu betrachtender Einflussgrößen

Abweichungsbetrachtende Simulationsmodelle können während der Produkt- und/oder Prozessentwicklung auf zweierlei Weise eingesetzt werden:

Virtuelles Testen und Validieren von Produkten, Prozessen und Wertschöpfungs-netzwerken, zum Beispiel durch vielfältige simulationsgestützte Untersuchungen zu Prüfprozess-, Maschinen- und Prozessfähigkeitskennwerten.

Auslegung und Optimierung von Qualitätsregelkreisen im Rahmen eines Prozessneudesigns, bevor die reale Fertigungslinie aufgebaut wird.

Die Ergebnisse aus vQM-Simulationsstudien beinhalten erhebliches Potential, die Schwachstellen in Wertschöpfungsnetzwerken bereits in der Konzeptphase des Fertigungsprozesses aufzudecken. Dies erlaubt, notwendige Änderungen am Konzept in einer sehr frühen Phase des Produktlebenszyklus zu initiieren, wenn die Kosten für eine Modifikation noch relativ gering sind. Darüber hinaus können Qualitätstechniken zur statistischen Prozessregelung mit den dazugehörigen Eingriffsstrategien virtuell ausgelegt, getestet und optimiert werden, sodass die notwendigen Qualitätsregelkreise bereits ihre Zuverlässigkeit in einem virtuellen Produktionslauf nachgewiesen haben, bevor sie in den realen Prozess integriert werden. Somit kann ein ungestörter und unverzögerter Serienanlauf gewährleistet werden. Qualitätstechniken wie Qualitätsregelkarten – welche normalerweise nur bei Großserien wirtschaftlich sinnvoll einsetzbar sind – werden dadurch auch für kleinere Losgrößen interessant.

Diese zusätzlichen Informationen müssen allerdings mit einer steigenden Komplexität des Simulationsmodells „erkauft“ werden. Deshalb sind Konzepte zum strukturierten Aufbau abweichungsbetrachtender Simulationsmodelle erforscht und letztendlich zu einem allgemeingültigen, erprobten Leitfaden weiterentwickelt worden, der den zusätzlichen Aufwand auf ein Minimum reduziert.

CAD-Daten Prüfung

vQM-Simulationsmodell

reales Ergebnis

Verschleiß

Schmutz

Umwelt

Normal

MessgerätWartung

Defekte

Vibration

Bediener

Material

Hilfsstoffe Messverfahren

Stichproben

Page 58: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

40

4.2Aus2.1.Rah

4.3ZusabwunteDes

4.3.

Bei im Reineauf Prozauto

Bild

Leitfa

2 Anfords den Defizit3 und 3.1)

hmen dieser

VollstännachweAbbildu

Aufbau Ganzhe

Informa Beherrs

sie für d Flexibili

den Mo Implem

einer a- Bereitst

Werkze Kennza

verschie Kontroll

Normab Allgeme

auch im

3 Standaätzlich zu

weichungsbeerscheiden,signs und be

1 Anwen

einem ProzRahmen deem tiefen V

der andezessverhaltomatisch ge

d 4.03: Ausg

den zum A

derungenten des Sta) leiten sicr Arbeit eing

ndig ausgeaeisbaren undngsgenauigvon Modell

eitlicher Ansationen und schung von die Generietät bei der R

odellierungsentierte Zei-priori Kostetellung von

eugen des kahlensystemedener Modlmechanismblauf implemeine Vorgeh

m Rahmen v

ardanwenden in Ka

etrachtende in welchenei einem Ne

dung des L

zess-Re-Deer Fertigung

Verständnis eren Seite tens, welcheneriert und

gangssituat

Aufbau abw

n an den andes der Th die Anfogehend vorg

arbeitete, std reproduzigkeit des zulen von Grusatz von dedie ProgramSimulationrung abweiReaktion augegenstandit- und Ressen-/Nutzenaneuen Meth

klassischen matik zur qudelle und unmen zur Gewmentiert wehensweise fvon Produkt

ndungsfapitel 4.2 aer Simulan der Leitfaeu-Design.

Leitfadens

esign liegt dg implemender unmittezu einer

he im Rahd gespeiche

tion bei eine

weichungsb

LeitfadeTechnik im Borderungen gestellt wird

trukturierte Vierbaren Quu erstellendund auf, d.hr Projektdefmmierung bsprojekten chungsbetruf Systemred oder die Ssourcenabsabschätzunghoden oderQualitätsmantifizierbanterschiedliwährleistunrden. für Prozesstsimulations

fälle angeführtenationsmodeladen vorranBeide Fälle

bei einem

die Ausganntiert wurdeelbar am Pr

großen Dhmen modeert wird.

em Re-Des

betrachten

en Bereich der

an den zud. Die zu er

Vorgehenswualitätsniveaen Modells. nicht nur Vfinition überbis hin zur Mmit hohen u

rachtender Mestriktionen Simulationsuschätzung üg. r etablierten

managementren Erfolgsbcher Verweg des Proje

simulationesstudien ein

n Anforderulle sind

ngig eingese sollen im F

Re-Design

gssituation e und seit erozess beteDatenmengerner Masc

ign

der Simula

systematisu erforscherfüllenden K

weise zur Gaus bezoge. Verbesserur die ZusamModellvalidiund höchsteModelle unuund Ausnaumgebung

über die Pro

n und gegebts. bewertung,

endungszweekterfolgs, w

en, die ohnensetzbar ist.

ungen an zwei S

etzt wird, nFolgenden k

n

dergestalt einiger Zeiteiligten Expe über dechinensteue

ationsmode

schen Modeenden AnsaKriterien sind

Gewährleistuen auf die

ng bestehemmenstellun

erung. en Komplexumgänglich

ahmefälle, wergeben.

ojektlaufzeit

benenfalls a

welche einecke abdecwelche turnu

e größeren A.

einen Leitftandardanw

nämlich im kurz erläute

vor, dass dt im Einsatz

perten auf den historiserung in de

elle K

ellbildung (Aatz ab, weld im Einzeln

ung eines

ender Modeng der benö

xitätsgradenh sind. welche sich

zur Durchf

adaptierten

ne Vergleichkt. usmäßig in

Adaptionsa

faden zum wendungsfäRahmen ei

ert werden:

der Prozessz ist. Dies

der einen Schen Verlaen meisten

Kapitel 4

Abschnitt lcher im nen:

lle. ötigten

n, wie

durch

führung

hbarkeit

den

aufwand

Aufbau älle zu nes Re-

s bereits führt zu eite und auf des n Fällen

Page 59: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel

Bei einAbbilduBeispieeines Optimieeingreife

4.3.2 A

Bei eineProzessValidierAnfordeüber die

Bild 4.0

GenereUnterstüProzessden ProInformadas Zie

Somit kAnalyseEinzelmAnschluengere Maschinanforde

In weiteweiterfüwachsefür vQMKapitel

Im Zugesein, danzulegAusganZuge dumzuse

4 Le

nem Modengsgenauiglen in Kapitabweichung

erung des ven zu müss

Anwendun

em Neu-Desentwicklunrung geeigerungen gese Projektlau

04: Ausgang

lles Ziel dützung dessentwicklunozess in se

ationen, well verfolgt, de

kann basieree) durchgemaschinen uss kann da

Auswahl gnenfähigkei

erungen unt

eren Stufenührende Anender PrognM-Simulatio7 detailliert

e dieser kodiese Iteratgen, dass ngsmodell dder Projek

etzen, ohne

eitfaden zum

ll, welchesgkeiten gegtel 6 wiedergsbetrachte

vorhandenensen.

ng des Leitf

esign untersng von dergneter Quastellt, da di

ufzeit hinweg

gssituation

des virtuelle Anwender

ng. Es wird einer endgüche zu dieser „realen“

end auf demeführt werdbei der Z

as Modell egenommenitsanalyse er den gege

n wird dasnalysen mnosesicherhonsstudien

vorgestellt

ntinuierlichetionen vollseine flexib

dabei verwektplanung aus jeder I

m Aufbau a

s sich aufgenüber derholt nachgeenden Simn Prozesse

fadens bei

stützt der vr Prüfung alitätsregelsie zur Verfüg immer bre

bei einem N

en Qualitätrs bei der Pnicht die Anültigen Formsem frühen Planung im

m Fertigungden, welchZusammenserweitert ween Einrichtauf ihre Febenen Ran

Modell jewit steigend

heit – durchentwickelte

.

en Modelleständig mi

ble, nachträerfen und v

sind entsteration ein

abweichun

f einer sor Realität vewiesen we

mulationsmoes und seine

einem Neu

vQM-Ansatzerster Fer

strategien. ügung steheiter wird.

Neu-Design

tsmanagemPlanung undnforderung m abbildenZeitpunkt e

mmer mindes

gskonzept bhe den Astellung einerden, um wtungen. DieFähigkeit hndbedingun

weils um dder Abbilduführen zu ken virtuelle

rgänzungent abzubilde

ägliche Erwvon Neuemsprechende n neues Sim

ngsbetrach

olch umfanvon über 9erden konntodells ist er Regelkre

u-Design

z den Anwertigungskon

Hierbei wende Daten

n

ments im Rd Gestaltungestellt, zu

n zu könneerst vorliegestens eine S

bereits eineAnwender ner möglicweiterführenese könnenin überprüf

ngen zu erfü

die neu eraungsgenauikönnen (Bilden Qualität

n muss deren. Die erweiterung d mit der M

Zyklen mulationspro

tender Sim

greichen D8 % möglicte. Maßgebbei diese

eise ohne a

ender über nzepte bis werden annbasis eing

Rahmen eing der jewe Beginn den. Dies ist en, auch niStufe vorau

e erste Engbei der v

chen Fertignde Detailinn dann imft werden, üllen.

arbeiteten gkeit – und 4.05). Dietsmanagem

r zu erstellerarbeiteten des Modellodellierungeinzukalkul

ojekt zu gen

mulationsm

Datenbasis ch, wie dieliche Intenti

er Ausgangaktiv in den

r die gesamhin zur A

n den Leigangs sehr

nes Neu-Deils nächster Simulationaufgrund

icht sinnvolus zu sein.

passanalysvorläufigen gungslinie nformatione Rahmen die geste

Erkenntnissnd damit e im Rahme

mentwerkzeu

ende LeitfadModelle s

ls möglich beginnen lieren und

nerieren.

modelle

gründet, es auch an ion zum Augssituation realen Proz

mte LaufzeitAuslegung itfaden anschmal ist

Designs isten Stufe bensstudie beder begrenl. Vielmehr

se (Bottle-NAuswahl

unterstützt.en zu den in

einer virtueellten Quali

se ergänzt,verbunden

en dieser Auge werde

den in der Lsind dergeist, ohne

zu müssend systemat

41

sind den

ufbau die

zess

t der und

dere und

t die i der

ereits nzten

wird

Neck-von

. Im n die ellen itäts-

, um mit

Arbeit n in

Lage estalt

das n. Im tisch

Page 60: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

42 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle Kapitel 4

Bild 4.05: vQM-Sägezahnmodell im Rahmen eines Prozess-Neu-Designs

4.4 Auswahl einer zugrundeliegenden Basis-Systematik Der Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle orientiert sich an wissenschaftlich fundierten und erprobten Vorgehensweisen zur Modellbildung bzw. Projektbearbeitung, um den Stand der Technik im Bereich der „Modellbildung und Simulation“ hinreichend zu berücksichtigen. Neben den in den Kapiteln 2.1.3, 2.3.3 und 2.3.4 vorgestellten Ansätzen stellt auch der bekannte PDCA-Zyklus nach [DEMING 1994] eine mögliche Alternative dar.

Als Basis für die Entwicklung eines Leitfadens zum Aufbau abweichungsbetrachtender Simulationsmodelle muss der zu verwendende Ansatz bestimmten methodischen Anforderungen genügen, welche in Abschnitt 4.2 zusammengefasst sind. Die in Kapitel 2 vorgestellten Ansätze werden unter Berücksichtigung der jeweils kennzeichnenden Merkmale im Hinblick auf die Erfüllung der Kriterien an einen Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle bewertet. Eine Zusammenfassung gibt Bild 4.06.

Sargent VDI 3633 PDCA Six Sigma DfSS

Simulationsbezug ja ja nein nein nein

Ressourcenplanung nein nein ja ja ja

Ganzheitlicher Ansatz nein ja ja ja ja

Generativer Ansatz ja ja nein nein ja

Modellvalidierung ja nein teilweise teilweise teilweise

Werkzeuge nein nein nein teilweise teilweise

Bild 4.06: Bewertung unterschiedlicher Modellbildungs- und Projektierungs-Ansätze

Vorläufige Maschinenauswahl Bottle-Neck-Analyse

Maschinenkonzept Prognose Maschinenfähigkeit

Beschaffung Prognose Prozessfähigkeit

Fertigungskonzept

Auslegung Qualitätsregekreise

Ausgereifter Fertigungsprozess

Simulationsunterstützung

Reale Planungsschritte

Page 61: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 4 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle 43

Aus der Gegenüberstellung der verschiedenen Ansätze wird deutlich, dass das Design for Six Sigma (DfSS) die meisten Kriterien ganz oder zumindest teilweise erfüllt. Die klassischen Modellbildungsmethodiken nach [SARGENT 1983] oder [VDI 3633] zeigen vor allem Schwächen in der fehlenden Ressourcenplanung und den nicht vorhandenen Werkzeugen zur Bewältigung der einzelnen Projektschritte. Durch den fehlenden Simulationsbezug der DfSS-Ansätze stehen in der logischen Konsequenz nicht alle erforderlichen Werkzeuge zur Modellerstellung bzw. -validierung zur Verfügung.

Die Wahl fällt dennoch auf die DfSS-Methodik, da hier das größte Potential für die Gestaltung einer ganzheitlichen Vorgehensweise besteht und der Simulationsbezug aufgrund der hohen Flexibilität der Methodik mit den entsprechenden Anpassungen integriert werden kann. Hierbei wird in Kauf genommen, dass die Methodik an vielen Stellen wissenschaftlich neu aufgearbeitet, deutlich erweitert und angepasst werden muss, um optimal auf den Einsatz beim Aufbau abweichungsbetrachtender Simulationsmodelle abgestimmt zu sein.

Wie in Abschnitt 2.3.4 bereits eingehend dargelegt, werden unter dem Begriff „Design for Six Sigma“ diverse Vorgehensmodelle zusammengefasst. Die meisten Varianten, welche in der Literatur zu finden sind, zum Beispiel bei [TOUTENBURG 2009] oder [REIßIGER 2007], sind unternehmensinterne Verfahren ohne detailliertere Ausführungen zur jeweiligen Vorgehensweise. Am weitesten in der Literatur verbreitet sind die IDOV-Methode (Akronym für die vier Phasen: „Identify“, „Design“, „Optimize“, „Verify“) und das DMADV-Schema, welches bereits in Abschnitt 2.3.4 einführend erläutert wurde.

Die IDOV-Methode legt dabei aber deutlich weniger Gewicht auf die vorbereitenden Phasen als der DMADV-Ansatz: die Aufgaben der „Identify“-Phase werden nach DMADV aufteilt in die Schritte „Define“, „Measure“ und „Analyze“, was die Wichtigkeit einer fundierten Vorbereitung deutlich besser widerspiegelt. Als Grundlage für den zu erarbeitenden Leitfaden wird daher der DMADV-Ansatz gewählt. Die diversen Vorzüge dieses Ansatzes werden in Bild 4.07 zusammengefasst.

Bild 4.07: Überblick über die vielschichtigen Stärken des DMADV-Ansatzes

Strukturiertes Phasenvorgehen Qualitätsdefinition

Instrumente / Methoden

Nutzen

„Phases and Gates“ als Prozess-modell.Stärkere Standardi-sierung in der Produkt-und Prozess-entwicklung. Deutliche Verkürzung der

Entwicklungsdauer.Hohe Prozessqualität bereits bei Einführung.Senkung der Entwick-lungs- und Prozess-kosten.

Qualität wird von den Kundenanforderungen aus festgelegt.Qualität wird in das Produkt bzw. in den Prozess hineinentwickelt.

Fehlerprävention als ein Primärziel der Entwicklung.

Statistisches Maß zur objektiven Vergleich-barkeit von Produkten und Prozessen.Betrachtung von Fehlern pro Million Fehler-möglichkeiten.Zielgerichtetes, effektives Handeln zur Fehlervermeidung.

FMEA

Kano Fish-bone

Flow-Chart QFD

DoE …

Box Plot

SIPOC

ANOVA

Vergleichbarkeit

Page 62: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

44 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle Kapitel 4

4.5 Allgemeiner Überblick über die erforschte Vorgehensweise Basierend auf der in Kapitel 4.4 ausgewählten Design for Six Sigma-Methodik DMADV wurde ein Leitfaden entwickelt, welcher den Anwender bei der systematischen Erstellung abweichungsbetrachtender Simulationsmodelle effizient unterstützt. Hierfür wurden die Arbeitsinhalte der einzelnen Phasen den Anforderungen der Simulationsmodellerstellung angepasst und durch entsprechende Qualitätsmanagementtechniken, Formblätter und Quality Gates ergänzt. Der entstandene Leitfaden wurde bereits intensiv erprobt und ist plattformunabhängig in der Lage, den Anwender beim Aufbau von Simulationsmodellen über die Grenzen des virtuellen Qualitätsmanagements hinaus zu unterstützen. Die Vorgehensweise ist in Bild 4.08 ganzheitlich dargestellt und wird im folgenden Abschnitt für den eiligen Leser kurz erläutert, bevor die ausführlichere Betrachtung in Abschnitt 4.6 folgt.

In der Define-Phase werden nach dem Eingang eines Projektauftrags die allgemeinen Rahmenbedingungen festgelegt, wie zum Beispiel finanzielle und personelle Ressourcen, Projektlaufzeit und die Projektziele. Hinzu kommen für die Erstellung des Simulationsmodells noch die Systemgrenzen des abzubildenden Prozesses, die Abbildungsgenauigkeit mit der das Modell die Realität widerspiegeln soll und die Validierungskriterien hinzu. Diese Informationen werden in der sogenannten Projekt-Charta zusammengetragen, welche als lebendes Dokument über die gesamte Projektlaufzeit gepflegt und gegebenenfalls in Abstimmung mit den Sponsoren angepasst wird.

In der Measure-Phase werden alle relevanten prozessbezogenen Informationen zusammen-getragen. Hierzu sind zuerst Inhalte aus Literatur und Datenbanken auszuwerten, gefolgt von Gesprächen mit Prozessspezialisten. Erst in letzter Instanz werden die dann noch bestehenden Wissenslücken unter Anwendung der klassischen statistischen Versuchsmethodik geschlossen. Besonders in der Measure-Phase kommen die unterschiedlichen Anwendungsfälle zum Tragen, welche in Abschnitt 4.3 diskutiert wurden. Je nach Anwendungsfall stehen in dieser Phase Informationen unterschiedlicher Validität zur Verfügung, was sich auch in der erreichbaren Abbildungsgenauigkeit des Modells wiederspiegelt.

In der Analyze-Phase bewertet der Anwender die ermittelten Daten und bildet sie in funktionalen Zusammenhängen ab, wobei unter anderem die Regressionsanalyse zur Anwendung kommt. Detaillierte Flussdiagramme erlauben eine Strukturierung des Prozesses in überschaubare, in sich schlüssige Module, die jeweils separat in einem „Modelling Key Document“ (MKD) mit den notwendigen Schnittstellen beschrieben werden. Die erarbeiteten Unterlagen sind vor der Umsetzung im Simulationsprogramm einem externen Review (Quality Gate) zu unterziehen, um eventuelle Konzeptfehler möglichst frühzeitig aufzudecken. Dem Expertengremium gehören neben dem Prozesseigner und den Sponsoren auch Prozess- und Simulationsexperten an, welche nicht direkt in dieses Simulationsprojekt eingebunden sind. Erst nach dem Passieren dieses Quality Gates und der damit verbundenen Freigabe des Modellkonzeptes werden weitere Ressourcen für die Abbildung des Prozesses in der Simulationsumgebung zur Verfügung gestellt.

In der Design-Phase können durch die in der Analyze-Phase erfolgte systematische Festlegung aller relevanten Rahmenparameter die einzelnen Prozessmodule nach einer kurzen Periode der zentralen Top-Level-Programmierung parallel modelliert und gemäß den im MKD definierten Prüfvorschriften getestet werden. Durch Anwendung des Simultaneous-Engineering-Ansatzes kann besonders in dieser Phase ein enormes zeitliches Rationalisierungspotential erschlossen werden. Nach den erfolgreichen Tests der einzelnen Module erfolgt der Zusammenschluss zum übergeordneten qualitätsorientierten Prozessmodell wieder im Rahmen einer Top-Level-Programmierungsphase.

Page 63: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 4 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle 45

In der Verify-Phase wird das Simulationsmodell mit der Realität verglichen: Zuerst werden Versuche am realen Prozess durchgeführt, wobei parallel zu den Versuchen sämtliche relevanten Prozess- und Umgebungsparameter dokumentiert werden. Im Anschluss erfolgt die Durchführung der Simulationsläufe mit identischen Parameterkonstellationen. Über ein entwickeltes Kennzahlensystem wird die Abbildungsgenauigkeit ermittelt und mit der Spezifikation aus der Define-Phase verglichen. Bevor das Prozessmodell für weiterführende Studien freigegeben werden kann, begutachtet ein Expertengremium Vorgehensweise und Ergebnisse des Projektteams in einem zweiten Review, um das spätere Risiko unzutreffender Entscheidungen aufgrund von virtuell ermittelten Prognosen zu minimieren. Erst danach darf das erstellte qualitätsorientierte Prozessmodell für weiterführende Analysen herangezogen werden.

Bild 4.08: Übersicht vQM-Leitfaden

Verify

Validieren der Abbildungsgenauigkeit

Design

Aufbau des Simulationsmodells

Design Review zur Überprüfung der Vollständigkeit

Freigabe durch ExpertengremiumQuality Gate

Externe Prüfung der Ergebnisse

Freigabe durch Expertengremium

Analyze

Aufbau des Modellkonzeptes

Measure

Sammeln von Informationen

Define

Festlegen des Projektrahmens

INPUT Q-TECHNIKEN

Projektauftrag

Prozesswissen

Simulationswissen

Daten aus Prozess und Simulation

Projekt Charter, VoC, CTQ, SIPOC

Ishikawa-Diagr., DoE, Flussdiagr.

Funktionsanalyse,Black Box-Darst.

DoE, DovE

Modelling Key Documents

In der Virtual Reality aufge-bautes Simulationsmodell

PROJEKT-PHASE

Quality Gate

Trace-Analyse, str. Walkthrough

Page 64: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

46 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle Kapitel 4

4.6 Detaillierte Beschreibung der einzelnen Phasen 4.6.1 Define-Phase

Ziel Das Ziel der Define-Phase ist es, ausgehend von einem Projektauftrag, eine klare und prägnante Projektdefinition durch strikte Projektabgrenzung und Klärung organisatorischer Fragen abzuleiten. Hierbei werden die Projektziele bestimmt, wobei die Anforderungen der firmeninternen oder externen Kunden im Mittelpunkt stehen. Auf diese Weise zu definierende Aspekte sind vorrangig die Abbildungsgenauigkeit des Prozessmodells und die Festlegung des Projektumfangs sowie die Aufgabenverteilung innerhalb des Projektteams.

Bild 4.09: Inhalte der Define-Phase und empfohlene Werkzeuge

Vorgehen Nachdem ein Projektteam aus Mitarbeitern unterschiedlicher Fachbereiche zusammengestellt ist, werden durch die quantifizierbare Festlegung der zu erreichenden Ziele und des Projektumfangs die ersten Elemente des Projektrahmens festgelegt. Die präzise Zielbeschreibung und die damit verbundene klare Aufgabenstellung bildet eine wichtige Grundlage für die Prozessmodellierung. Hierbei wird für alle Beteiligten frühzeitig ein gemeinsames Verständnis über den zu simulierenden Prozess und der Untersuchungsziele geschaffen und der organisatorische Rahmen für die Modellierung festgelegt. Damit wird eine grundlegende Vorarbeit für die nächsten Phasen geleistet durch die Sicherstellung, dass kein unnötiger Arbeitsschritt eingeplant und so der erfolgreiche Projektabschluss gefährdet bzw. verzögert wird. Als zentrales Formular der Define-Phase gilt die Projekt Charta, welche das Projekt während der gesamten Laufzeit als lebendes Dokument begleitet. Für die möglichst vollständige Ausarbeitung der Projekt Charta ist im Lauf dieser Phase der Einsatz unterschiedlicher Qualitätsmanagementtechniken erforderlich, mit denen wichtige Informationen ermittelt und zugehörige Sachverhalte objektiv analysiert werden können.

Aufgrund der heute in den Unternehmen üblichen Aufgabendiversifikation, ist das Wissen bezüglich eines Prozessmodells auf viele Mitarbeiter verteilt [PFEIFER 1996]. Die Bearbeitung eines Projektes bedingt daher zunehmend die Einbeziehung von Mitarbeitern aus unterschiedlichen Fachbereichen, die unmittelbar im Rahmen ihrer täglichen Arbeit mit dem Betrachtungsgegenstand umgehen. Dies gilt insbesondere für qualitätsrelevantes Wissen, da die Qualitätsfähigkeit eines Simulationsmodells letztlich vom Wissens- und Kenntnisstand der Mitarbeiter aus den verschiedenen Bereichen eines Unternehmens beeinflusst wird. Es haben sich hierbei Teams aus 5 bis 6 Mitarbeitern bewährt, um alle Wissensbereiche hinreichend abzudecken und gleichzeitig eine erfolgreiche Kommunikation unter den Mitgliedern sicherzustellen.

DEFINE MEASURE ANALYZE DESIGN VERIFY

Voice of the Customer (VoC), Critical to Quality (CTQ)

SIPOC-Diagramm,Kennzahlensysteme Projekt Charta

Teambildung, Projekt-initiierung, Ziele definieren

Projekt abgrenzen, Rahmen festlegen

Aktivitäten, Zeit und Ressourcen planen

Page 65: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 4 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle 47

Einige etablierte Techniken, wie der „Voice of the Customer“-Ansatz oder die „Critical to Quality“-Strategie, können ohne tiefgreifende Veränderungen von der Anwendung bei realen Projekten auf die Planung von vQM-Simulationsstudien übertragen werden. Für weiterführende Ausführungen zu diesen Werkzeugen sei auf die Literatur verwiesen, wie zum Beispiel [RATH & STRONG 2002], [WAGNER 2003] oder [WAPPIS 2008].

vQM-SIPOC-Diagramm Um das Prozessverständnis innerhalb des Projektteams zu erhöhen und die zu modellierenden Prozessbestandteile eindeutig zu definieren, werden diese graphisch aufbereitet unter Zuhilfenahme der SIPOC-Darstellung (Akronym für die fünf zu betrachtenden Aspekte Supplier, Input, Process, Output, Customer) (Bild 4.10). Dabei wird der Prozess zu Beginn in der „Process“-Spalte in 5 bis max. 10 Teileprozesse untergliedert und die Ergebnisse bzw. Zielgrößen des zu modellierenden Prozesses in die „Output“-Spalte eingetragen. In der „Customer“-Spalte werden die Kunden bzw. nachfolgenden Prozessschritte aufgeführt. Aus den hiervon abgeleiteten Voraussetzungen wird die „Input“-Spalte erstellt, aus der erste Hinweise auf mögliche kritische Einflussgrößen herausgearbeitet werden können. Daraufhin wird die „Supplier“-Spalte mit den vorangehenden Prozessschritten bzw. Lieferanten vervollständigt.

Die Abgrenzung der im Rahmen des Simulationsmodells abzubildenden Inhalte erfolgt in einem zweiten Schritt: Hierbei sind die zu modellierenden Aspekte der einzelnen Kategorien zu identifizieren und separat zu kennzeichnen, da oftmals nicht alle für den realen Prozess relevanten Eingangs- und Ausgangsgrößen modelliert werden können oder deren Einfluss in Anbetracht der definierten Zielgrößen als „irrelevant“ eingestuft werden.

Bild 4.10: vQM-SIPOC-Diagramm

vQM-Kennzahlensystematik Messbare Größen bilden eine wichtige Grundlage zur Bestimmung der Abbildungsgenauigkeit des erstellten Prozessmodells. Mit Hilfe von Messgrößen können spezifische Kennzahlen für das Simulationsmodell definiert werden, anhand derer in der Verify-Phase festgestellt werden kann, ob und inwieweit die dokumentierten Projektziele erreicht werden. Das grundlegende Ziel bei der

5 4 1 2 3

Supplier Input Process Output CustomerStart

Ende

Abzubildende Inhalte

Page 66: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

48 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle Kapitel 4

Erstellung von Prozessmodellen ist eine möglichst genaue Abbildung des realen Herstellungsprozesses, so dass mit diesen Modellen im Nachgang Ergebnisse ermittelt werden können, die sich direkt auf die Realität übertragen lassen. Die Definition einer festen Kennzahl soll demnach eine eindeutige, quantifizierbare Aussage über die Abbildungsgenauigkeit des Modells ermöglichen. Hierfür bietet sich in Abhängigkeit der Untersuchungsziele des jeweiligen Simulationsprojektes eines der beiden entwickelten Kennzahlensysteme an:

Für Kennzahlsystem 1 (Gleichung 4.01) gilt:

0 ≤ Ind1 ≤ 1 sehr hohe Genauigkeit (Abbildungsgenauigkeit ist mindestens 99 %) 1 < Ind1 ≤ 5 ausreichende Genauigkeit (Abbildungsgenauigkeit ist mindestens 95 %) Ind1 > 5 Genauigkeit nicht ausreichend (Abbildungsgenauigkeit unter 95 %) Korrekturen bzw. Änderungen erforderlich

Bei der Anwendung des zweiten Kennzahlensystems (Gleichung 4.02) wird die Differenz zwischen real ermitteltem Zielwert und dem Ergebnis des Simulationslaufs quadriert, um den Effekt von Ausreißern stärker zu berücksichtigen. Es gilt:

Ind2 > 99,0 sehr hohe Abbildungsgenauigkeit 95,0 ≤ Ind2 ≤ 99,0 ausreichende Abbildungsgenauigkeit Ind2 < 95,0 Modell ist zu ungenau

Projekt-Charta Zum Schluss der Define-Phase wird die Projekt-Charta verabschiedet, welche die gesammelten, für die Projektbearbeitung relevanten Informationen bündelt. Diese definiert nachstehende Aspekte und ist im Laufe der Projektbearbeitung an neue Erkenntnisse anzupassen: Projekttitel, Problembeschreibung und Ziele, Verantwortlichkeiten, Projektnutzen, Modellgrenzen, zu modellierende Zielgrößen, geforderte Abbildungsgenauigkeiten, Ressourcenplanung sowie einen Zeitplan mit Meilensteinen für das Simulationsprojekt.

Ergebnis Als Ergebnis der Define-Phase sind am Ende festgelegt: eindeutig definierte Projektziele, ein genau bestimmter Projektumfang, die Definition des abzubildenden Prozesses sowie die mindestens zu erreichende die Abbildungsgenauigkeit unter vorgegebenen Rahmenbedingungen. Ebenso ist der zeitliche Ablauf definiert, die finanziellen und personellen Ressourcen eingeteilt sowie eine erste Übersicht des Prozesses mit relevanten Einfluss- und Zielgrößen verfügbar.

(Gleichung 4.01) n

yy

Ind

n

i Sim

al

i

i∑=

⎟⎟⎠

⎞⎜⎜⎝

⎛⋅−

=1

Re

1

100100

(Gleichung 4.02) 1001 1

2Re

2 ⋅

⎟⎟⎟⎟⎟

⎜⎜⎜⎜⎜

⎛⎟⎟⎠

⎞⎜⎜⎝

⎛ −

−=∑=

ny

yy

Ind

n

i Nenn

Simal ii

Page 67: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 4 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle 49

4.6.2 Measure-Phase

Ziel Das Ziel der Measure-Phase ist es, im Team ein tieferes, übergreifendes Prozessverständnis zu erzeugen, indem Zusammenhänge zwischen Eingangs- und Ausgangsgrößen graphisch dargestellt und relevante Einflussgrößen systematisch bestimmt werden. Desweiteren sollen für diese Einflussgrößen die dazugehörigen Wirkzusammenhänge quantifiziert und durch Ermittlung der Prognoseunsicherheit validiert werden.

Bild 4.11: Inhalte der Measure-Phase und empfohlene Werkzeuge

Vorgehen Als Vorbereitung für die zu bearbeitenden Aufgaben der Measure-Phase, wird von den Teammitgliedern ein tiefgreifendes Prozesswissen vorausgesetzt, welches durch die detaillierte Analyse des zu modellierenden Prozesses vermittelt oder abgeglichen wird. Mit Hilfe von Flussdiagrammen ist ein detaillierter Einstieg in den zu simulierenden Prozess möglich. Unter Berücksichtigung des Gesamtprozesses folgt die Bestimmung der Einfluss- und Störgrößen. Als wichtige Informationsquelle dienen hierfür Ergebnisse aus der Define-Phase (vor allem aus der CTQ- und der SIPOC-Analyse) sowie zusätzliche Angaben aus der Literatur, Datenbanken oder Gesprächen mit Experten. Eine weitere Möglichkeit, Aussagen über einzelne Prozessparameter zu treffen, sind experimentelle Versuchsreihen. Versuche zur Ermittlung und Quantifizierung von Einfluss- und Störgrößen sowie die anschließende Analyse und Archivierung sind häufig mit erheblichem Zeit- und Kostenaufwand verbunden. Deshalb muss versucht werden, eine gezielte Auswahl unter allen möglichen Faktoren zu treffen und sich auf die wenigen wichtigen zu konzentrieren, von denen man glaubt, dass sie einen deutlichen Einfluss auf die Prozessqualität (Zielgröße) ausüben. Dieser Schritt kann als Schlüsselaktivität der Measure-Phase, in Vorbereitung für die Versuchsplanung, betrachtet werden. Die Auswahl der besonders kritischen Faktoren bezüglich definierter Zielgrößen erfolgt unter Zuhilfenahme eines Ursache-Wirkungs-Diagramms oder bei multivariaten Problemstellungen unter Verwendung einer Ursache-Wirkungs-Matrix.

Erstellen eines Flussdiagramms Zur graphischen Darstellung der Prozessstruktur empfiehlt sich die Top-Down-Strategie, bei der zunächst ein einfaches Flussdiagramm mit geringem Detaillierungsgrad (Bild 4.12, erste Ebene) erarbeitet wird. Dieses Flussdiagramm ist als Erweiterung der SIPOC-Darstellung zu verstehen und soll einen genaueren Überblick über den Gesamtprozess sowie Schnittstellen zwischen den einzelnen Prozessschritten vermitteln. Ausgehend von dieser Grobdarstellung erfolgt auf der

DEFINE MEASURE ANALYZE DESIGN VERIFY

Ursache-Wirkungs-Diagramm / -Matrix Design of ExperimentsFlussdiagramm

Einflussgrößen identifizieren

Wirkzusammen-hänge quantifizieren

Prozessverständnis vermitteln

Page 68: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

50 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle Kapitel 4

nächsttieferen Ebene die detaillierte Ausarbeitung der einzelnen Teilbereiche (Bild 4.12, zweite Ebene). Um die Übersicht zu wahren, sollte hierfür ein zweites Flussdiagramm angefertigt und durch eindeutige Kennzeichnung zugewiesen werden. Auf dieser Ebene werden die Teilprozesse präzisiert, indem beispielsweise einzelne Arbeitsschritte entsprechend ihrer Reihenfolge angeordnet und mit einer kurzen, prägnanten Erläuterung versehen werden. Für die wenigen – im Hinblick auf die Qualitätsausprägung – signifikanten Herstellungsschritte sind separate Abbildungen mit den dazugehörigen bekannten Input- und Output-Größen zum Beispiel in Form von Black-Box-Darstellungen empfehlenswert.

Bild 4.12: 2-stufiges Flussdiagramm

vQM-Ursache-Wirkungs-Matrix Die Ursache-Wirkungs-Matrix (U/W-Matrix) erlaubt im Gegensatz zum klassischen Ishikawa-Diagramm zum einen die Betrachtung mehrerer Zielgrößen und zum anderen eine quantifizierte Bewertung der einzelnen Parameter. Da im Rahmen des Aufbaus abweichungsbetrachtender Simulationsmodelle in der Regel mehrere Zielgrößen betrachtet, ausgewertet und optimiert werden müssen, bietet die U/W-Matrix hierfür die geeigneten Möglichkeiten.

Bei der Anwendung der Ursache-Wirkungs-Matrix im Rahmen der Erstellung abweichungs-betrachtender Simulationsmodelle kann auf den Ergebnissen der vorgelagerten Phase aufgebaut werden: Aus der SIPOC-Analyse ( Kap. 4.6.1) sind die Eingangsgrößen der Matrix abzuleiten, welche in die Spalte „Einflussgrößen“ der U/W-Matrix eingehen. Desweiteren können bei der „Critical to Quality“-Studie erarbeitete relevante CTQ-Parameter als Grundlage für die Auswahl der in der Matrix zu betrachtenden Zielgrößen dienen (Bild 4.13).

Wichtig an dieser Stelle ist, dass nur solche Parameter in die Matrix aufgenommen werden, die auch im späteren Simulationsmodell berücksichtigt werden sollen. Dies ist vor allem für die Eingangsgrößen von erheblicher Bedeutung, da die Umsetzung ihres Langzeitverhaltens in der Virtual Reality oftmals mit enormem Aufwand verbunden ist. Dieser Tatsache wird auch dahin gehend Rechnung getragen, dass die Matrix um eine Spalte zur gesonderten Quantifizierung der Schwierigkeiten bei der Implementierung der jeweiligen Eingangsgröße ergänzt wurde.

Die Aspekte „Wichtigkeit für den Prozesseigner“ und „Schwierigkeit Implementierung“ werden dabei jeweils mit Werten zwischen 1 und 9 bewertet. In der Matrix selbst werden die Korrelationen der jeweiligen Eingangs- zur entsprechenden Zielgröße mit den Werten 0, 1, 3 und 9 bewertet. Dies hat zur Folge, dass sich das Projektteam auf die wesentlichen Aufgaben konzentriert und sich nicht in Diskussionen zwischen zwei nahe beieinander liegenden Bewertungsstufen verliert. Die Performance Indikatoren (PI) für Eingangsgrößen (Gleichung 4.03) und Zielgrößen (Gleichung 4.04) errechnen sich wie folgt:

∑∑=

⋅=n

jijiEi

KS1 (Gleichung 4.03)

∑∑=

⋅=m

jijiZi

KW1 (Gleichung 4.04)

Prozess 1 Prozess 2 Prozess 3

Schritt 1.1 Schritt 1.2 Schritt 1.3 Schritt 1.4

Page 69: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 4 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle 51

Bild 4.13: Ursache-Wirkungs-Matrix und die Beiträge von SIPOC und VoC

Durch diese neue Betrachtungsdimension wird es erstmals ermöglicht, den zeitlichen Aufwand, der in die Implementierung einer Eingangsgröße in das Simulationsmodell investiert werden soll, multikriteriell abzuschätzen: Unter Berücksichtigung der Relevanz der Eingangsgröße für die Abbildung des Zielgrößenverhaltens einerseits und der Betrachtung der zu bewältigenden Herausforderungen bei der technischen Umsetzung andererseits kann die für die Implementierung zur Verfügung stehende Zeit abgeschätzt werden, da sich dieses Zeitfenster ergibt aus:

gesamtn

jEj

EiEi rZeitfenste

Σ

ΣrZeitfenste ⋅=

∑=1 (Gleichung 4.05)

Design of Experiments Die Wissenslücken, welche nach dem Studium der einschlägigen Literatur sowie der Befragung von entsprechenden Experten noch verbleiben, werden mit Hilfe von Versuchsreihen geschlossen. Hierbei kommen die klassischen Werkzeuge des Design of Experiments zum Einsatz, sodass an dieser Stelle nicht näher auf deren Anwendung eingegangen wird, sondern nur auf die Literatur zu diesem Thema verwiesen sei, wie zum Beispiel [KLEIN 2004], [KLEPPMANN 2008], [SCHEFFLER 1997] oder [TAGUCHI 1991].

Ergebnis Am Ende der Measure-Phase steht ein detailliertes Prozessabbild mit allen bekannten, statistisch signifikanten Ursache-Wirkungs-Beziehungen zur Verfügung, welches als Ausgangsbasis für die anschließende Modellkonzeptionierung und -implementierung dient. Die Vorgehensweise bei der Datenerhebung ist für die später zu passierenden Quality Gates transparent dokumentiert.

VoC

Bedürfnis Treiber CTQ MessgrößeSupplier Input Process Output CustomerStart

Ende

Page 70: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

52 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle Kapitel 4

4.6.3 Analyze-Phase

Ziel Während der Analyze-Phase wird ein valides Designkonzept für das abweichungsbetrachtende Simulationsmodell entworfen. Die zum Aufbau benötigten Informationen stehen am Ende der Phase systematisiert zur Verfügung und wurden durch ein unabhängiges Expertengremium auf ihre Vollständigkeit und Richtigkeit hin geprüft. Dieses Gremium setzt sich zusammen aus dem Champion, dem Sponsor sowie mehreren nicht am Projekt beteiligten internen – und eventuell auch externen – Fachexperten.

Bild 4.14: Inhalte der Analyze-Phase und empfohlene Werkzeuge

Vorgehen Im Anschluss an die Erfassung der notwendigen Informationen (Measure-Phase) erfolgt in der Analyze-Phase die schrittweise Übertragung dieses Wissens in ein Konzept zur Abbildung des Simulationsgegenstandes in der Virtual Reality. Hierbei hat es sich bewährt, die Informationen systematisch zu strukturieren, da das Modell alle für die spätere Implementierung notwendigen Bestandteile präzise und eindeutig formuliert enthalten muss, wie zum Beispiel Modellstruktur, Komponenten mit ihrem jeweiligen Detaillierungsgrad sowie die Beschreibung der Ablauflogik. Für eine erfolgreiche Planung des Simulationsmodells müssen die Mitarbeiter daher über umfangreiche Kenntnisse über die dem realen System zugrunde liegenden Eigenschaften, interne Wirkmechanismen und auftretende Wechselwirkungen verfügen, um diese in den Entwurf einzuarbeiten. Die Vorgehensweise in dieser Projektphase lässt sich in zwei Abschnitte gliedern:

Bestimmung der Modellkomponenten (Grobkonzept) Im Grobkonzept gilt es zu klären, welche Elemente bzw. Komponenten als Repräsentanten des realen Systems in das Modell integriert und wie diese abgebildet werden sollen. Hierfür werden die Eigenschaften und Funktionen der Elemente näher betrachtet und hinsichtlich ihrer Bedeutung bewertet, um eine gezielte Auswahl der modellrelevanten System-komponenten und Einflussgrößen treffen zu können.

Beschreibung der Modellstruktur (Feinkonzept) Hierbei ist zu definieren, in welcher Weise die Modellkomponenten miteinander kommunizieren und kooperieren. Weiterhin müssen die Schnittstellen zwischen den Komponenten genau bestimmt und die entsprechenden Funktionen zugewiesen werden.

Die Ergebnisse der Analyze-Phase werden in Formblättern zusammengestellt und müssen anschließend ein Quality Gate durchlaufen, wo sie der kritischen Prüfung eines Expertengremiums unterzogen werden. Nach der Freigabe stehen die Entwürfe als Vorlage für die Implementierung in der Design-Phase bereit.

DEFINE MEASURE ANALYZE DESIGN VERIFY

Feinkonzept Modelling Key Doc., Quality GateGrobkonzept

Designkonzeptausarbeiten

Aufbereitung, Freigabe

Designkonzeptentwerfen

Page 71: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 4 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle 53

Auswahl der Modellstruktur Die Wahl der Modellstruktur stellt den ersten wichtigen Schritt bei der Erarbeitung des Architekturkonzeptes dar. Prinzipiell gibt es zwei Ansätze, zwischen denen der Anwender eingangs entscheiden muss:

Maschinenorientierter Aufbau Bei mehrstufigen Prozessen, in denen die einzelnen Manipulationen der Halbzeuge an jeweils unterschiedlichen Maschinen durchgeführt werden, bietet es sich an, für jede Maschine einen einzelnen Funktions-Block auf dem Top-Level, der obersten Modellhierarchieebene, vorzusehen. Dies hat den Vorteil, dass im Zuge der Modellbildung Schnittstellen durch das virtuelle „Freischneiden“ der Maschine (vergleiche Abschnitt 2.1.4) erkannt und spezifiziert werden können.

Prozessorientierter Aufbau Findet der Prozess hautsächlich in nur einer einzigen Maschine statt, so hat es sich als sinnvoller erwiesen, einem prozessorientierten Aufbau den Vorzug zu geben. Dieser orientiert sich an einzelnen Prozessschritten, die innerhalb einer Maschine nacheinander ablaufen. Nachteilig hierbei ist, dass die Übergänge zwischen zwei Prozessschritten oftmals fließend sind und somit eine klare Trennung ein hohes Maß an Prozess- und Simulationsverständnis voraussetzt. Auch sind die Schnittstellen meist deutlich schwieriger zu definieren, als dies bei einem maschinenorientierten Aufbau der Fall ist.

Beide Formen können auch gemischt werden: Erweist sich beispielsweise die Abbildung einer Maschine im maschinenorientierten Aufbau als zu komplex, so kann der Aufbau dieses Teilschritts punktuell auch nach dem prozessorientierten Ansatz erfolgen. Im Gegenzug können im Rahmen des prozessorientierten Aufbaus einfachere Prozessschritte, welche in vor- und / oder nachgelagerten Maschinen einer komplexen Fertigungszelle durchgeführt werden, maschinen-orientiert konzipiert werden.

Zuweisung der abzubildenden Funktionen In einem nächsten Schritt müssen die abzubildenden funktionalen Zusammenhänge im Zuge der Modellarchitektur konkret auf die Modellkomponenten verteilt werden (Bild 4.15).

Bild 4.15: Zuweisung der Funktionen zu den Modellkomponenten

Teilprozess n… …

MK n.1 MK n.2 MK n.3

MK: Modellkomponente, NF: Nebenfunktion

Funktion n.1 Funktion n.2 Funktion n.3

NF n.1.1

NF n.1.2

NF n.2.1 NF n.3.1

NF n.3.2

Page 72: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

54 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle Kapitel 4

Hierbei können den Funktionen auch gegebenenfalls Nebenfunktionen zugewiesen werden, wobei stets eine realitätsnahe Zuweisung gewährleistet werden sollte, um die Nachvollziehbarkeit und Wartbarkeit der Architektur zu gewährleisten. Um das verfügbare Zeitkontingent nicht zu überschreiten und einen für die Aufgabenstellung angemessenen Detaillierungsgrad zu finden, muss an dieser Stelle ein Kompromiss gefunden werden zwischen Modellierungsaufwand und Abbildungsgenauigkeit [WENZEL 2008].

vQM-Modelling Key Documents Die Modelling Key Documents bilden die zentrale Schnittstelle zwischen der Systemanalyse und dem eigentlichen Modellaufbau. In ihnen werden alle relevanten Informationen zusammengetragen, welche zum Aufbau der jeweiligen Komponente erforderlich sind. Hierin sind neben allgemeinen Projektinformationen insbesondere aufzuführen:

Vorangegangene und nachfolgende Komponente mit Verantwortlichkeiten. Kurze Modulbeschreibung. Abzubildende funktionale Zusammenhänge. Schnittstellendefinitionen. Prüfstrategien und Validierungskriterien für die einzelne Modellkomponente.

Ein ausgefülltes Modelling Key Document wird in Kapitel 6 (Bild 6.08) dargestellt.

Quality Gate I Zum Abschluss der Analyze-Phase wird ein Rückblick auf alle bisher erzielten Ergebnisse im Rahmen eines Quality Gates durchgeführt. Quality Gates sind Meilensteine im Projektablauf, bei denen anhand vorher definierter Erfüllungskriterien über die Freigabe der nächsten Projektphase entschieden wird [BERLEB 2008]. Sie befinden sich vor denjenigen Phasen im Projekt, die auf besondere Weise von den Ergebnissen der vorangegangenen Phase abhängig sind oder wo ein Bruch zwischen verschiedenen technischen Disziplinen überwunden werden muss. Quality Gates sind als Möglichkeiten zu sehen, potenzielle Fehler noch vor ihrem Eintreten zu lokalisieren und durch entsprechende Maßnahmen zu beseitigen.

Beim Durchsehen der bislang erzielten Ergebnisse sollten alle Teammitglieder sowie eine externe Expertengruppe in der Sitzung anwesend sein. Durch die formale Wiederholung der einzelnen Arbeitsschritte sind die Ergebnisse auf mögliche Fehler und Unsicherheiten zu überprüfen und gegebenenfalls nachzubessern. Eine besonders gründliche Vorgehensweise wird in der Analyze-Phase vorausgesetzt, da der Designentwurf maßgeblich auf den Ergebnissen der vorherigen Phasen basiert und im nächsten Projektabschnitt in der Simulationssoftware realisiert werden soll. Vor der Umsetzung des Entwurfs muss das Prozessdesign im Rahmen eines Design Reviews intensiv geprüft werden. Ein Design Review entspricht der dokumentierten, umfassenden und systematischen Untersuchung des Entwurfs, um seine Fähigkeit zu beurteilen, die Qualitäts-forderung zu erfüllen, um vorhandene Probleme festzustellen sowie deren Lösung zu veranlassen [ISO 8402:1994].

Ergebnis Am Ende der Analyze-Phase steht ein validiertes Modellierungskonzept für den abzubildenden Simulationsgegenstand zur Verfügung. Die zum nun folgenden Aufbau erforderlichen Informationen wurden in den Modelling Key Documents für jede einzelne Modellkomponente zusammengestellt.

Page 73: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 4 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle 55

4.6.4 Design-Phase

Ziel Das Ziel der Design-Phase ist ein, auf Basis des freigegebenen Modell-Konzeptes, aufgebautes abweichungsbetrachtendes Simulationsmodell mit spezifikationskonformen Abbildungsgenauig-keiten bereitzustellen. Dabei werden dem Anwender in Ergänzung zu dem übergeordneten Leitfaden diverse angepasste Werkzeuge an die Hand gegeben, den Aufbau systematisch, zielorientiert und zeiteffizient durchführen zu können und somit das Potential der fundierten Vorbereitung durch die vorangegangenen Phasen bestmöglich auszuschöpfen.

Bild 4.16: Inhalte der Design-Phase und empfohlene Werkzeuge

Vorgehen Nachdem das Konzept das Quality Gate I passiert hat, kann mit dem eigentlichen Aufbau des Simulationsmodells in der Simulationsumgebung begonnen werden. Hierbei werden nun verstärkt Software-Experten eingesetzt, welche nicht unbedingt von Beginn an in dieses Modellierungsprojekt eingebunden sein müssen. Umso wichtiger ist es, dass an dieser Stelle vollständige, selbsterklärende Modelling Key Documents (MKD) vorliegen, welche die Schnittstelle zwischen der Prozessanalyse und dem Modellaufbau bilden. Der Aufbau eines abweichungsbetrachtenden Simulationsmodells erfolgt aufgrund des hohen Komplexitätsgrades in drei Stufen:

Aufbau der einzelnen Modellkomponenten Zu Beginn der Design-Phase werden die in den MKD exakt beschriebenen Module mit Hilfe der ausgewählten Simulationssoftware realisiert. Bei der Darstellung komplexer Prozesse ist nach der Top-Down-Strategie (Abschnitt 2.1.4) zu verfahren, bei dem von einem abstrakten Modell auf der obersten Prozessebene ausgegangen wird. Anschließend werden die Modellkomponenten mit allen erforderlichen Funktionalitäten ergänzt, zum Beispiel den Schnittstellen und Ursache-/Wirkungszusammenhängen. Diese Strategie bietet den Vorteil, dass man am Anfang das Wesentliche im Auge behält und das Gesamtkonzept in einzelne, voneinander unabhängige Einheiten einteilt. Somit wird sichergestellt, dass alle beteiligten Simulationsexperten von der gleichen Modellvorstellung ausgehen. Außerdem können durch die Top-Down-Strategie von mehreren Modulen gemeinsam genutzte Elemente, wie zum Beispiel Tabellenbausteine in der obersten Ebene des Prozessmodells platziert werden, um Entwicklungsarbeit einzusparen und eine übersichtliche Struktur des Prozessmodells zu gewährleisten. Die Module werden dabei in separaten Teilmodellen aufgebaut, die erst nach einer eingehenden Funktionsprüfung zu einem Gesamtmodell zusammengefügt werden. Nach dem Festlegen der vorgegebenen Schnittstellen werden innerhalb dieser

DEFINE MEASURE ANALYZE DESIGN VERIFY

Sensitivitätsanalyse,Trace-Analyse

Schnittstellenvalidierung, Structured Walkthrough

SimultaneousEngineering

Validierung Simulationsmodule

Zusammenführung Simulationsmodell

Aufbau Simulationsmodule

Page 74: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

56 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle Kapitel 4

Komponentengrenzen die Funktionen umgesetzt. Werden Informationen an mehreren Stellen benötigt, ist die Anwendung von Vererbungsmechanismen empfehlenswert, da auf diese Weise bei eventuellen nachträglichen Modifikationen Änderungen am Modell sehr einfach vorgenommen werden können. Weil die Modeling-Key-Dokuments jedes einzelne Simulationsmodul ganzheitlich beschreiben und die Top-Down-Strategie eine einheitliche Vorstellung der Funktionsweise des Simulationsmodells garantiert, besteht die Möglichkeit des „Simultaneous Engineering“. Das heißt, dass die einzelnen Module nach der anfänglichen Top-Level-Programmierung in Parallelarbeit von mehreren Simulationsexperten erstellt werden können.

Validierung der Modellkomponenten Nachdem die einzelnen Prozessschritte modelliert wurden, sollte jedes Modul in der Testumgebung auf Vollständigkeit und Fehlerfreiheit getestet werden. Zu diesem Zeitpunkt ist es aufgrund der überschaubaren Komplexität der Modellkomponenten möglich, Unzulänglichkeiten mit geringem Aufwand zu korrigieren, um eine mögliche Fehlerfortpflanzung im eigentlichen Prozessmodell zu verhindern. In der Testumgebung ist es meist ausreichend, ein abstraktes Abbild der umgebenden Systemkomponenten zu erstellen und lediglich diejenigen Elemente und ihre Funktionen zu berücksichtigen, die für die Quantifizierung der Qualitätsmerkmale entsprechend der Erkenntnisse aus der Measure-Phase besonders kritisch sind. Nach der Zuweisung von Eingangsparametern und Störgrößen kann die Simulation gestartet werden, deren Ergebnisse mit Vorgaben aus den Formblättern zu vergleichen sind.

Zusammenführung der Modellkomponenten zum Simulationsmodell Wurden Module mit ihren Funktionen spezifikationskonform umgesetzt, sind sie von einem Simulationsexperten zum ganzheitlichen Simulationsmodell zusammenzuführen. Für die Zusammenstellung des Gesamtmodells wird ein neues Modell erzeugt in dem die Module entsprechend der SIPOC-Darstellung eingefügt und verbunden werden. Zur Fertigstellung des Gesamtmodells werden die Eingangsgrößen und Randbedingungen festgelegt.

Simultaneous Engineering Mit Hilfe des Simultaneous Engineering (auch Concurrent Engineering genannt) [SYSKA 2006] wird im Rahmen des vQM die überlappende, also nahezu simultane Bearbeitung von Modell-bildungsaufgaben durch interdisziplinäre Arbeitsgruppen ermöglicht. In einer initiierenden Phase der zentralen Top-Level-Programmierung werden zuerst die schnittstellenübergreifenden Elemente entwickelt, wie zum Beispiel die Repräsentanzen von Werkstücken in dem zu entwickelnden Simulationsmodell. Im Anschluss erfolgt der parallelisierte Aufbau und Test der Modellkomponenten nach den strikten Vorgaben der Modelling Key Documents. Im Anschluss daran müssen – wiederum zentral – die Modellkomponenten (MK) zum Gesamtmodell zusammengeführt (fusioniert) werden. Mit Hilfe dieser Vorgehensweise ist es möglich, die benötigte Zeit für den Modellaufbau signifikant zu senken ohne Qualitätsverluste hinnehmen zu müssen.

Bild 4.17: Simultaneous Engineering im Rahmen des vQM

MK1 MK2 MKn Fusion…Setup FusionSetup

MK1

MK2

…MKn

Klassischer (sequentieller) Modellaufbau vQM-Modellaufbau

Benötigtes Zeitfenster Benötigtes Zeitfenster

Page 75: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 4 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle 57

Trace-Analyse Bei der Trace-Analyse wird das Verhalten einzelner Objekte in einem ausführbaren Modell verfolgt und dabei sowohl das logische Verhalten als auch die Plausibilität überprüft [RABE 2008]. Im Rahmen des Aufbaus abweichungsbetrachtender Prozessmodelle bietet sich dieses Vorgehen durch die strukturierte Verfolgung einzelner Halbzeuge durch den abgebildeten Prozessschritt an. Alle im Simulationslauf erzeugten Ereignisse werden hierzu für die anschließende Auswertung in einer so genannten Trace-Datei gespeichert.

Im Anschluss werden alle Ereignisse, die ein bestimmtes Objekt betreffen, gefiltert und ausgewertet. Typischerweise enthält jeder dieser Datensätze („Trace“) zusammenhängende Informationen aus dem Modell, z.B. den simulierten Zeitpunkt der Instantiierung des Halbzeuges, die Identifikations-nummer, die Werte einwirkender Umgebungsparameter sowie quantifizierte Angaben zu den Zielgrößen des Simulationsmodells (zum Beispiel Abmessungen in x-, y- und z-Richtung und / oder Materialeigenschaften etc).

Im Rahmen der effizienten Nutzung von Trace-Analysen ist es oftmals hilfreich bzw. (teilweise) sogar erforderlich, die erzeugten Zustände des virtuellen Halbzeugs außerhalb der Simulation nachzurechnen. Grundlage hierfür sind die Trace-Daten zu den Umgebungsbedingungen, die in den Modelling Key Documents hinterlegten Wirkzusammenhänge sowie – soweit möglich – experi-mentell ermittelte Referenzwerte.

Structured Walkthrough Der Structured Walkthrough ist ein Vertreter des informalen Reviews, welches neben der Kommentartechnik und den „formalen Inspektionen in Sitzungstechnik“ zu den drei unterschied-lichen Ansätzen im Bereich der manuellen Prüfung von Code gehört [LIGGESMEYER 2009]. Im Rahmen der Validierung von Komponenten abweichungsbetrachtender Simulationsmodelle erweist sich diese Technik aufgrund des ausgewogenen Kompromisses aus Leistungsfähigkeit und Aufwand als sehr effizient.

Zur Durchführung des Structured Walkthrough treffen sich die Projektbeteiligten, arbeiten jede Anweisung der Modellkomponenten gemeinsam durch und modifizieren diese gegebenenfalls, bis alle Anwesenden von der Richtigkeit der Anweisungen überzeugt sind. Die Simulationsexperten gehen zusammen mit den Fachverantwortlichen alle Aspekte im Einzelnen durch, um Fehler, Unklarheiten oder Probleme zu identifizieren. Durch die gemeinsame Abstimmung trägt die Technik sowohl zur Validität als auch zur Glaubwürdigkeit jedes Phasenergebnisses bei [RABE 2008].

„Wesentlich ist, dass das Ziel des strukturierten Durchgehens das Auffinden von Fehlern ist und auf keinen Fall die Bewertung der Modellierungstätigkeit darstellen darf“ [RABE 2008:105]. Wenn Teilnehmer das Gefühl erhalten „auf der Anklagebank zu sitzen“ [BALZERT 2005:549], wird die Aufdeckung von Unzulänglichkeiten im Modell zumeist empfindlich erschwert.

Aufgrund der hohen Detailtiefe dieser Review-Form ist sie für die Evaluation einzelner Modellkomponenten sehr gut geeignet. Bei der Betrachtung größerer, komplexerer Modellteile bzw. des Gesamtmodells selbst, ist die Anwendung anderer Techniken zu empfehlen, wie sie in Abschnitt 4.6.5 vorgestellt werden.

Ergebnis Als Ergebnis der Design-Phase liegt ein abweichungsbetrachtendes Prozessmodell vor, welches aus Modulen aufgebaut ist, die den Anforderungen der komponentenbezogenen Modelling Key Documents entsprechen.

Page 76: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

58 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle Kapitel 4

4.6.5 Verify-Phase

Ziel Nach Abschluss der Verify-Phase liegt ein abweichungsbetrachtendes Simulationsmodell vor, welches den in der Define-Phase gestellten Anforderungen genügt. Die objektive Validität des Modells wird dabei durch die Begutachtung und Freigabe des Modells im Rahmen eines zweiten Quality Gate gewährleistet.

Bild 4.18: Inhalte der Verify-Phase und empfohlene Werkzeuge

Vorgehen Nachdem die einzelnen Modellkomponenten in der Design-Phase aufgebaut, erprobt und zu einem abweichungsbetrachtenden Simulationsmodell fusioniert wurden, erfolgt in der abschließenden Phase (Verify-Phase) die Validierung und Freigabe des Gesamt-Modells. Erst im Anschluss an die Freigabe des Gesamtmodells durch ein unabhängiges Expertengremium sollten weiterführende, gegebenenfalls weitreichende Entscheidungen auf Basis dieses Simulationsmodells getroffen werden. Das Vorgehen gliedert sich in die nachstehend beschriebenen drei Teilschritte:

Abgleich des Simulationsmodells mit der Realität In der abschließenden Phase der Modellerstellung und -validierung sind Versuchsreihen am realen Prozess durchzuführen, um eine Datenbasis für den anschließenden Abgleich mit dem Simulationsmodell zu schaffen. Zur Sicherstellung eines strukturierten und effizienten Vorgehens sollten die Werkzeuge der statistischen Versuchsplanung eingesetzt werden (vgl. [KLEIN 2004], [KLEPPMANN 2008], [SCHEFFLER 1997] oder [TAGUCHI 1991]). Darüber hinaus werden in der realen Prozessumgebung auch Daten zu Einfluss- und Störgrößen erfasst, welche in der Realität nicht uneingeschränkt beeinflussbar sind, aber in der Simulation als modulierbare Kenngrößen konfiguriert werden können. Somit kann durch annähernd identische Rahmenbedingungen eine bessere Vergleichbarkeit und gleichzeitig eine höhere Prognosesicherheit der Abbildungsgenauigkeit gewährleistet werden. Daraufhin werden mit demselben Versuchsplan Simulationsergebnisse erarbeitet, welche auf den übernommenen Rahmenbedingungen in Form von Einfluss- und Störgrößen basieren. Die ermittelten Simulationsdaten werden mit den Daten aus den realen Versuchsreihen verglichen, wobei das in der Define-Phase festgelegte Kennzahlensystem zur Bewertung der Abbildungsgenauigkeit zum Tragen kommt (Abschnitt 4.6.1).

DEFINE MEASURE ANALYZE DESIGN VERIFY

Quality Gate IIDesign of Experiments,Varianzanalyse

Lessons Learned, Checklisten

Validierung Simulationsmodell

Vergleich Realität mit Simulationsmodell

DokumentationProjektabschluss

Page 77: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 4 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle 59

Validierung und Freigabe im Rahmen des zweiten Quality Gates Im Rahmen des Projektabschlusses gilt es, erneut ein Quality-Gate zu durchlaufen, um die Konformität des Prozessmodells mit den Vorgaben des Sponsors objektiv zu überprüfen. Dabei werden dem internen oder externen Kunden verwendete Eingangsdaten, getroffene Annahmen, Strukturen, Komponenten und Funktionsweisen des Simulationsmodells sowie dessen Verifikation dargelegt. Daraufhin wird das Modell auf Vollständigkeit und Erfüllung der projektspezifischen Abnahmekriterien überprüft, wobei folgende Punkte betrachtet werden sollten:

• Modellstruktur und -komponenten • Steuerungsstrategien im Modell • Systemgrenzen des Modells • Detaillierungsgrad des Modells • Feste und variable Parameter des Modells • Erfüllung projektspezifischer Abnahmekriterien

Ist die geforderte Abbildungsgenauigkeit nicht gegeben, so sind mit Hilfe von Iterations-schleifen weitere Daten zu ermitteln und in das Modell zu integrieren bzw. entdeckte Defizite zu beseitigen. Bei erfolgreichem Durchlaufen des zweiten Quality-Gates erfolgt im Anschluss an die Validierung die Freigabe des Modells zum Einsatz bei weiterführenden Simulationsstudien.

Dokumentation des Modellierungsprojektes Eine Dokumentation dient im Allgemeinen dem Speichern und Vermitteln von Informationen. Während der erste Aspekt eher passiven Charakter besitzt, indem Sachverhalte abgelegt bzw. archiviert werden, ist der zweite Aspekt eher aktiv, indem sie die Kommunikation zwischen den Informationserzeugern und den Informationsbenutzern maßgeblich unterstützt [WEBER 2008]. Auch im Rahmen von Modellierungsprojekten höherer Komplexität ist eine umfassende Dokumentation dringend anzuraten. Die Dokumentation bildet die Grundlage für weiterführende Simulationsstudien, da diese Untersuchungen häufig von anderen Abteilungen durchgeführt werden als der Modellaufbau. Eine Übersicht wichtiger Bestandteile einer Dokumentation abweichungsbetrachtender Simulationsmodelle ist in Bild 4.19 dargestellt.

Bild 4.19: Bestandteile einer vollständigen vQM-Modelldokumentation

Projekt Charta

DokumentationSimulationsprojekt X.XX

Modell-Konzept (grob / fein)

Modulvalidierung

Team-Mitglieder

Modelling Key Documents

Validierung Gesamtmodell

Baseline

Abschlussbericht Quality Gate I

Abschlussbericht Quality Gate II

Zusammenfassung

Page 78: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

60 Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle Kapitel 4

vQM-Varianzanalyse Die Varianzanalyse (engl. Analysis of Variance, ANOVA) stellt eines der wichtigsten statistischen Werkzeuge im Zuge der Modellvalidierung dar. Da sowohl reale als auch virtuelle Werte einer zufälligen Streuung unterliegen, kann von den ermittelten Systemantworten nicht direkt auf die Abbildungsgenauigkeit geschlossen werden. Mit Hilfe dieses Werkzeuges kann jedoch statistisch fundiert nachgewiesen werden, ob ein signifikanter Unterschied zwischen den Mittelwerten zweier Stichproben unter Berücksichtigung der jeweils vorliegenden Probenstreuungen vorliegt. Im Zuge der Modellvalidierung kann unter Anwendung der ANOVA deshalb nachgewiesen werden, ob ein signifikanter Unterschied der Mittelwerte zwischen Realität und virtueller Abbildung besteht (Bild 4.20, links). Voraussetzung hierfür ist, dass beide Stichproben repräsentativ sind und die Varianzen im Rahmen der statistischen Unschärfe identisch sind. Die letztgenannte Eigenschaft kann nachgewiesen werden über den sogenannten Varianz-Test (engl. Test for equal Variances) (Bild 20, rechts) [REHBEHN 2003].

Bild 4.20: vQM-Varianzanalyse zum Vergleich von Realität und Modell

Lessons Learned Im Sinne des kontinuierlichen Verbesserungsprozesses, welcher in jedem nach DIN EN ISO 9001:2008 zertifizierten Unternehmen implementiert sein muss, ist auch der vQM-Leitfaden entsprechend zu optimieren. Hierfür ist erforderlich, neben der Bewertung des reinen Projektergebnisses im Rahmen des Quality Gate II auch den Weg der Zielerreichung kritisch zu hinterfragen und Wissen zu dokumentieren, welches für die Bearbeitung nachfolgender Modellierungsprojekte ebenfalls von Interesse sein könnte.

„Lessons Learned“ bezeichnet das systematische Sammeln, Bewerten und Verdichten von Erfahrungen, Entwicklungen, Hinweisen, Fehlern, Risiken etc., die in einem Projekt gemacht wurden und deren Beachtung bzw. Vermeidung sich unter Umständen als nützlich für zukünftige Projekte erweisen könnte. In diesem Sinne sind „Lessons Learned“-Erkenntnisse in den unternehmens-internen Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle zu integrieren, welcher aus der vorliegenden Arbeit abgeleitet werden kann.

Ergebnis Als Ergebnis der Verify-Phase steht dem Sponsor ein abweichungsbetrachtendes Simulationsmodell zur Verfügung, welches den in der Define-Phase dokumentierten Anforderungen statistisch fundiert genügt. Dieses Modell stellt die Basis dar, aufgrund derer in nachfolgenden Simulationsstudien weiterführende Erkenntnisse über das Prozessverhalten in dem spezifizierten Prozessfenster erarbeitet werden können.

Analysis of Variances (ANOVA) Test for Equal Variances

Stichprobennummer

Ziel

größ

e

x1SPx

2SPx

Realität (SP1) Simulation (SP2)

xx

x

xx

o

o

o oo

Streuung

Normalverteilt Bartlett‘s Test

SP1SP2

Nicht-normalverteilt

Levene‘s Test

Page 79: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 5 Referenzmodell zum Aufbau virtueller QM-Techniken 61

5 Referenzmodell zum Aufbau virtueller QM-Techniken

Mit Hilfe dieses Referenzmodells ist es erstmals möglich, das bestehende Expertenwissen zu etablierten Qualitätsmanagementtechniken effizient zu erhalten, während der Betrachtungs-gegenstand, z. B. der zu analysierende Fertigungsprozess, nun in der virtuellen Welt zur Verfügung steht und nur noch im Rahmen von Bestätigungsexperimenten auf den realen Prozess zurückgegriffen werden muss. Desweiteren können gegebenenfalls immanente Schwächen der QM-Werkzeuge unter Ausnutzung der Stärken der beiden Fachgebiete „Simulation“ und „Computational Intelligence“ vollständig oder zumindest größtenteils beseitigt werden. Dies führt dazu, dass im An-schluss leistungsfähigere Qualitätsmanagementwerkzeuge bereitstehen, die es erlauben, effizienter zu statistisch validen Aussagen auf der Basis von Simulationsstudien zu gelangen.

Das Referenzmodell zur Adaption von existierenden Qualitätsmanagementwerkzeugen für den Einsatz in der Virtual Reality besteht aus einer Referenzarchitektur zum Aufbau entsprechender Funktionsmodule ( Abschnitt 5.1) sowie einer Adaptionsstrategie zur systematischen Übertragung von QM-Werkzeugen in die Virtual Reality ( Abschnitt 5.2).

5.1 Referenzarchitektur virtueller Qualitätsmanagementwerkzeuge Ausgehend von dem in Abschnitt 2.3.4 vorgestellten Meta-Modell ARIS orientiert sich der im Rahmen dieser Arbeit verfolgte Ansatz an der Aufteilung der Modellierungsaufgabe in verschiedene „Sichten“ zur Reduzierung der Komplexität [SEIDLMEIR 2006:13]. Neben den bereits bekannten Sichten der ARIS-Methode „Organisation“, Funktion“, „Daten“ und „Steuerung“ kommt ein weiterer Aspekt hinzu, die „Computational Intelligence“. Das klassische ARIS-Haus wird entsprechend zur vQM-Referenzarchitektur erweitert (Bild 5.01).

Bild 5.01: Überblick vQM-Referenzarchitektur

Daten ComputationalIntelligence

Systemarchitektur

FunktionF2

F3F1

F4

F5F6

Ablauf

F BearbeitungF1F2F3

DialogAutomatischDialog

Bearbeitungsformen

F

F1 F2

F3 F4Hierarchie

Orga-Einheit

Dat

en L S AL A L

Zugriffs-rechte

Funktions-ebenen

F1, F2

F3

Ereignissteuerung

Input / Output

Steuerung

Anwender

Datenbanken Fuzzy-Logik

Genetische Algorithmen

Simulationsmodell

Page 80: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

62 Referenzmodell zum Aufbau virtueller QM-Techniken Kapitel 5

5.1.1 Organisationssicht

Im vQM-Referenzmodell wird bei der Beschreibung der Organisationssicht auf das Zusammenspiel von Nutzern, Simulationsprogrammen, Simulationsmodellen und virtueller Qualitätsmanagement-techniken im Rahmen von vQM-Mission-Profiles eingegangen. Die hierbei festzulegenden Randbedingungen, wie zum Beispiel die zu verwendende Simulationsumgebung, der Ausbildungs-stand der späteren Anwender oder die durchschnittlich zur Verfügung stehenden finanziellen, zeitlichen und personellen Ressourcen beim späteren Einsatz der virtuellen Qualitätsmanagement-techniken, stellen für die nachfolgenden Phasen wichtige Eckdaten bei der Präzisierung von Aufgaben und Schnittstellen dar.

Eine der wichtigsten Entscheidungen, welche an dieser Stelle getroffen werden muss, bezieht sich auf das Zusammenspiel der virtuellen Qualitätsmanagementtechnik mit der zugehörigen Softwareumgebung: Denkbar wäre beispielsweise, das neu zu entwickelnde Werkzeug direkt in der Simulationsumgebung aufzubauen, um auf diese Weise programmübergreifende Schnittstellen zu vermeiden. Auch ist die Steuerung bzw. Regelung des modellierten Prozesses während eines Simulationslaufes von externen Programmen häufig mit empfindlichen Schwierigkeiten verbunden. Bild 5.02 zeigt eine Auswahl verschiedener Ansätze für das Zusammenspiel von virtueller Qualitätsmanagementtechnik und dem zugrundeliegenden Prozessmodell.

Diese Zusammenstellung erhebt dabei aber keinerlei Anspruch auf Vollständigkeit: Auch Mischformen oder erweiterte Funktionsumfänge, welche durch die vQM-Werkzeuge abgedeckt werden sollen, sind möglich. Hier sei exemplarisch die Ergänzung des Funktionsumfangs klassischer Qualitätsmanagementwerkzeuge durch die Möglichkeiten der Computational Intelligence zur effizienten Lösung von Optimierungsaufgaben erwähnt, wie sie beispielsweise beim Aufbau des vQM-SPC-Funktionsmoduls ( Abschnitt 7.4) zum Tragen kommen.

Bild 5.02: Organisationsansätze für virtuelle Qualitätsmanagementwerkzeuge

Externe Regelung u. Auswertung

Simulationsbegleitendes Monitoring

Simulationsumgebung

vQM-Auswerte-Tool

Externe ex-post-Auswertung

Simulationsumgebung

Auswertesoftware

),...,( 1 nxxfy =y

x1

x2

Integrierte Regelung u. Auswertung

Regler

Simulationsumgebung

Analyse

Simulationsumgebung

Regelungsalgorithmus

Integrationsgrad

Kom

plex

ität

Page 81: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 5 Referenzmodell zum Aufbau virtueller QM-Techniken 63

5.1.2 Datensicht

Die Datensicht dient der Strukturierung zur Verfügung stehender und erforderlicher Inhalte für die Anwendung der zu entwickelnden virtuellen Qualitätsmanagementtechnik. Die Datensicht der Systemarchitektur ist in diesem Ansatz dreigeteilt: Sie setzt sich zusammen aus den Komponenten „Simulationsdaten“, „Benutzereingabe“ und „externe Quellen“, wobei unter letzteren sowohl Echtzeit-Anbindungen an Fertigungslinien oder auch die Anbindung an ein Datenbank-System zusammengefasst werden. Bei der Ausarbeitung des entsprechenden Fachkonzeptes kommen bereits die im Rahmen der „Organisationssicht“ zusammengestellten Restriktionen zum Tragen.

Bild 5.03: Aspekte der Datensicht

Simulation Hauptdatenquelle für virtuelle Qualitätsmanagementtechniken ist – aus dem Selbstverständnis heraus – die Simulationsumgebung mit den darin aufgebauten abweichungsbetrachtenden Prozessmodellen. Die Anwendung virtueller Qualitätsmanagementtechniken stellt gegebenenfalls Anforderungen an die bereitzustellenden Daten hinsichtlich Art, Umfang und Formatierung, welche an dieser Stelle zu definieren sind.

Benutzereingabe Die Definition der Eingangsparameter bzw. die Manipulation der Simulationsumgebung zwischen den Läufen erfolgt häufig über Eingaben durch den überwachenden Anwender. Je nach Qualifikation des Anwenders ( Definition in der Organisationssicht) können unterschiedlich komplexe Eingaben von den Benutzern abverlangt werden.

Simulationsferne Quellen Desweiteren können je nach Anwendungsfall zusätzliche Quellen die Datenbasis ergänzen. Diese können unter anderem stammen aus realen Fertigungsprozessen, aus unternehmensinternen Datenbanken oder dem Internet. Hierbei muss jedoch besondere Sorgfalt auf die Validität der Daten sowie auf die Anbindung der Datenquellen an die Simulations- bzw. Auswertesoftware gelegt werden.

BenutzereingabeSimulation

Datensicht

Simulationsferne Quellen

interne Datenbanken

Fertigungsdaten Internet

Page 82: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

64 Referenzmodell zum Aufbau virtueller QM-Techniken Kapitel 5

5.1.3 Funktionssicht

„Eine Funktion bezieht sich auf einen Sachverhalt, bei dem etwas, das gegeben ist, nach festgelegten Regeln, in einen anderen Zustand überführt wird oder etwas Neues hinzugefügt wird“ [HARS 1994]. Im Rahmen des Aufbaus eines Referenzmodells zur Virtualisierung von Qualitätsmanagementtechniken bedeutet dies insbesondere, dass die Anwendung eines solchen Werkzeuges detailliert analysiert und gegebenenfalls zu handhabbaren und sinnvollen Einheiten, sogenannten virtuellen Funktionsblöcken, zerlegt bzw. fusioniert werden muss.

Im Rahmen des vorgestellten Referenzmodells wird davon ausgegangenen, dass die Entscheidungsfindung zur Auswahl einer für den jeweiligen Anwendungsfall geeigneten Methode bereits abgeschlossen ist. Demzufolge richtet sich der Inhalt dieser Sichtweise nicht auf die Auswahl einer geeigneten Methode, sondern ihrer Abbildung in Form eines virtuellen Funktionsgraphen (Bild 5.04). Hierbei gilt es zu beachten, dass bereits die Anforderungen der späteren Abbildung im Rahmen einer Simulationsumgebung Berücksichtigung finden müssen.

Was für die Abbildung von Fertigungsprozessen gilt ( Kapitel 4), hat über weite Strecken auch für die Virtualisierung von Qualitätsmanagementtechniken Bestand: Funktionen sind nicht per se bekannt, sondern müssen systematisch identifiziert und beschrieben werden. Im Anschluss ist zu klären, welche Funktionen innerhalb der Systemgrenzen angesiedelt sind und welche nicht.

Einen weiteren relevanten Aspekt bei der funktionalen Überführung stellen die Veränderungen im Ablauf der Werkzeuganwendung dar: Je nach Ausgangslage kann es vorkommen, dass Arbeitsschritte im virtuellen Funktionsgraph zusammengefasst oder – je nach Komplexität – aufgespaltet werden. Darüber hinaus können einzelne Arbeitsschritte entfallen oder hinzukommen, was in der Adaption für den simulationsbasierten Einsatz begründet ist. Durch die vielfältigen Möglichkeiten der Simulationstechnik können oftmals Defizite von Qualitätsmanagementtechniken ausgeglichen werden, welche aufgrund wirtschaftlicher Aspekte, wie zum Beispiel der Stichprobenumfänge in Versuchsreihen, in Kauf genommen wurden und im „realen Anwendungsfall“ durchaus ihre Berechtigung haben. Im Gegenzug sind gegebenenfalls Restriktionen der Simulationstechnik zu berücksichtigen, die im realen Einsatz nicht zum Tragen kamen. Deswegen sind an dieser Stelle oftmals weitere Manipulationen an den zu realisierenden Funktionen und ihren Arbeitsprotokollen vorzunehmen, sodass letztendlich eine neue Variante der Qualitätsmanagement-technik vorliegt, die auf die Anforderungen der verschiedenen Paradigmen optimal zugeschnitten ist.

Bild 5.04: Überführung einer realen QM-Werkzeug-Anwendung in einen virtuellen Funktionsgraph

A B C D E F

G

B, C, D

2A

1&

E

3&

F

6G1

4

G2

5

Funktionsorientierter Ablauf als vQM-Simulations-Tool

Ablauf in der Realität

Page 83: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 5 Referenzmodell zum Aufbau virtueller QM-Techniken 65

5.1.4 Sicht der Computational Intelligence

Im Rahmen des virtuellen Qualitätsmanagements nehmen die Werkzeuge der Computational Intelligence (CI, Abschnitt 2.2) eine entscheidende Stellung ein neben den Methoden des Qualitätsmanagements und den verschiedenen Simulations-Tools. Im Rahmen der virtuellen Abbildung von QM-Techniken können diese Strategien oftmals eingesetzt werden, um die Effizienz bei der Durchführung und / oder Auswertung von Simulationsstudien signifikant zu steigern.

Je nach Aufgabe stehen diverse Werkzeuge der CI zur Verfügung, um den Anwender bei der Bewältigung der jeweiligen Aufgabe maßgeblich zu unterstützen. Abhängig von der Aufgabenstellung können auch mehrere Ansätze des CI in einem vQM-Werkzeug Anwendung finden. In Bild 5.05 sind verschiedene Werkzeuge mit ihren spezifischen Aufgabenschwerpunkten im Rahmen des virtuellen Qualitätsmanagements zusammengetragen.

Bild 5.05: Unterstützung durch Computational Intelligence

Die Ergebnisse der Arbeiten zur Funktionssicht bilden die Grundlagen bei der Definition dieses Aspektes der vQM-Werkzeugarchitektur. Die Entscheidung, ob der Einsatz von CI-Tools sinnvoll und wirtschaftlich rentabel gestaltet werden kann, muss eingangs beantwortet werden. Gerade in den Bereichen Monitoring und Analyse durch Experten kann es unwirtschaftlich sein, auf die Werkzeuge der CI zurückzugreifen und nicht dem Urteil der Fachleute zu vertrauen.

Im Anschluss an eine positive Entscheidung hinsichtlich der Nutzung von CI-Werkzeugen, muss eine aufgabenspezifische Bewertung der zur Verfügung stehenden Ansätze durchgeführt werden. Zu betrachtende Aspekte im Rahmen einer Stärken-Schwächen-Analyse können hierfür sein: Aufgabenart (Bild 5.05), Anforderungen an das Simulationsmodell, vorhandenes Expertenwissen, verfügbare CI-Programme, Endanwenderqualifikation, zeitliche, personelle und finanzielle Ressourcen etc. Als Ergebnis der CI-Betrachtung liegt ein Anforderungskatalog vor, welcher die Restriktionen hinsichtlich der Modellbildung des zu betrachtenden Simulationsgegenstandes und der Simulationswerkzeuge zusammenfasst.

Intelligente Systeme Künstliche

Immunsysteme

Mustererkennung Optimierung

Reinforcement Learning

Verhaltens-steuerung

Fuzzy-Logik

SteuernClustern Neuronale

Netze

Klassifi-kation

Schwarm-intelligenz

Evolutionäre Algorithmen

EmergenzOptimierung

Optimierung Selbstadaption

Page 84: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

66 Referenzmodell zum Aufbau virtueller QM-Techniken Kapitel 5

5.1.5 Steuerungssicht

Die Steuerungssicht ist komplementär zu den anderen vier Sichten: Sie ermöglicht eine Beschreibung der Vorgänge und Abläufe und wirkt gleichzeitig als Bindeglied zwischen den soeben beschriebenen vier Betrachtungsaspekten [HARS 1994]. Die Modelle der Steuerungssicht definieren mehr den ablaufbezogenen Zusammenhang von Funktionen im Gegensatz zu den statischen Funktions- und Datenmodellen [SEIDLMEIR 2006]. Mit Hilfe der Steuerungssicht können die Beziehungen und Verknüpfungen bei der Gestaltung eines virtuellen Qualitätsmanagementwerk-zeuges abgebildet und dokumentiert werden. Zwei Aspekte sind hierbei von besonderer Bedeutung:

Ablaufplanung Bei der Ablaufplanung werden zu den im Zuge der Organisationsplanung definierten vQM-Mission-Profiles entsprechende Flussdiagramme entwickelt. Diese umfassen die zwei Stufen „übergreifende“ und „interne“ Ablaufplanung (Bild 5.06): Bei der übergreifenden Darstellung werden den einzelnen Arbeitsschritten die benötigten Eingangsgrößen mit den dazugehörigen Quellen sowie die Nutzer mit dem von ihnen erwarteten Output in Beziehung gesetzt. Hierbei ist es sinnvoll, die Studie vom Nutzer aus in Richtung Quelle durchzuführen um in Anlehnung an das aus der Fertigungsplanung bekannte Pull-Prinzip [BRETZKE 2008], ausschließlich nur diejenigen Arbeits-schritte zu erfassen, welche der Erfüllung der gestellten Anforderungen dienen. Bei der internen Ab-laufplanung stehen die Informationsflüsse innerhalb des zu entwickelnden virtuellen Qualitäts-managementwerkzeuges im Fokus. Hierbei werden die einzelnen Aufgaben (Tasks) den einzelnen Modulen des Tools zugewiesen und entsprechend ihrer zeitlichen Abfolge miteinander verknüpft.

Schnittstellen Durch eine eindeutige Definition der benötigten Schnittstellen zwischen dem Werkzeug und externen Quellen ebenso wie zwischen den einzelnen Modulen des Tools ist der Anwender in der Lage, die in den nachfolgenden Schritten der Werkzeugentwicklung üblicherweise erforderlichen Nachbesserungen deutlich zu reduzieren, da mit zunehmender Komplexität der Systeme die Anzahl der Schnittstellenprobleme überproportional ansteigt. Drei Arten von Schnittstellen sind hierbei zu unterscheiden: werkzeuginterne, software-übergreifende und Mensch-Maschine-Schnittstellen. Vor allem software-übergreifende Interfaces können erhebliche Schwierigkeiten bereiten, da der Anwen-der meist keinen vollständigen Zugriff auf den Quellcode der anzubindenden Programme besitzt. Aus diesem Grund erfordert diese Art der Verknüpfung eine besonders sorgfältige Planung in Kom-bination mit entsprechenden Machbarkeitsstudien hinsichtlich des erforderlichen Datentransfers.

Bild 5.06: vQM-Ablaufpläne der Steuerungssicht

Steuerungssicht

Übergreifender Ablaufplan Interner AblaufplanQuelle Input Ablauf Output Nutzer

Start

Ende

Modul 1

Modul 3

Modul n

T1 T4

T8T3

T5

T7

Modul 2 T6T2

T: Task : Datenflüsse

Page 85: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 5 Referenzmodell zum Aufbau virtueller QM-Techniken 67

5.2 Adaptionsstrategie In Ergänzung zu der in Kapitel 5.1 vorgestellten Referenzarchitektur virtueller Qualitätsmanage-mentwerkzeuge wird nachfolgend die erforschte und erprobte Vorgehensweise erläutert, welche eine effiziente und zielorientierte Anwendung dieser Methode ermöglicht. Das Vorgehensmodell dient als Handlungsanleitung zur Anpassung der allgemeingültig formulierten Systemarchitektur des Referenzmodells an die produkt-, prozess- und branchenspezifischen Anforderungen des Anwenders. Desweiteren wird ein Überblick über weitere Methoden gegeben, die den Anwender in den jeweiligen Schritten wirkungsvoll unterstützen. Mit der vQM-Referenzarchitektur steht in Kombination mit dem nachfolgend beschriebenen Handlungsleitfaden ein vollständiges Referenz-modell zum Aufbau virtueller Qualitätsmanagementtechniken zur Verfügung.

5.2.1 Vorgehensweise zur Adaption von Qualitätsmanagementtechniken

Referenzarchitekturen und die dazugehörigen Leitfäden unterstützen den Anwender im Rahmen der Konzeptphase bei der Bewältigung vorgegebener Problemstellungen. Bild 5.07 gibt einen Überblick über den erforschten Ansatz.

Soweit bis zum Start des Projektes noch nicht geschehen, erfolgt zunächst die Zusammenstellung eines interdisziplinären Projektteams sowie Festlegung und Freigabe der zur Verfügung stehenden Ressourcen. Im Anschluss wird das Zusammenspiel von virtueller Qualitätsmanagementtechnik und gewählter Softwareumgebung in enger Abstimmung mit den zu definierenden vQM-Mission-Profiles skizziert. In diesen Muster-Szenarien werden Anforderungen, Qualifikationen und Ziele der End-Anwender des virtuellen Qualitätsmanagementwerkzeuges systematisch erfasst. Hierdurch ist gewährleistet, dass die Bedürfnisse der späteren Nutzer zur Basis nachfolgender Entscheidungen werden. Der Organisationsansatz legt erste Restriktionen fest, wie das Zusammenspiel von Nutzer, Simulationssoftware und vQM-Werkzeug zu gestalten ist.

Darauf aufbauend wird im Anschluss die Entscheidung getroffen, welcher Ansatz des klassischen Qualitätsmanagements den gestellten Anforderungen am besten entspricht und ob bzw. inwieweit die verschiedenen Strategien der Computational Intelligence wirtschaftlich sinnvoll zur Unter-stützung des späteren Endanwenders beitragen können. Kommt man zu der Entscheidung, CI-Werkzeuge nicht einsetzen zu wollen, entfällt dieser Bereich für die nachfolgenden Ausführungen.

Im nächsten Schritt werden semi-parallel die Definitionen der Daten-, Funktions- und gegebenenfalls der CI-Sicht erstellt. Semi-parallel bedeutet in diesem Zusammenhang, dass die drei Aspekte zwar getrennt voneinander erarbeitet werden, jedoch intensiver Abstimmungsbedarf zwischen den drei Domänen besteht, was die gegenseitigen Anforderungen und Restriktionen anbelangt.

Bei der Betrachtung der Datensicht erfolgt zuerst eine Analyse, welche Daten in welchem Format benötigt werden, sowie eine Bestandserhebung hinsichtlich der zur Verfügung stehenden bzw. der zu generierenden Informationsquellen. Hieraus wird im Anschluss eine Auswahl der mit dem virtuellen Qualitätsmanagementwerkzeug zu konnektierenden Informationsquellen getroffen.

Bei der Ausarbeitung der Funktionssicht steht das im Vorfeld ausgewählte Qualitäts-managementwerkzeug im Fokus der Betrachtung: Die einzelnen Arbeitsschritte bei der Anwendung des Werkzeugs in der Realität werden systematisch erfasst. Nach der Überarbeitung der theoretischen Grundlagen unter Berücksichtigung der Vorzüge der jeweiligen Simulationsumgebung werden diese in einen virtuellen Funktionsgraphen übersetzt, welcher die einzelnen zu adaptierenden Arbeitsschritte und ihre logische Abfolge strukturiert abbildet.

Page 86: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

68 Referenzmodell zum Aufbau virtueller QM-Techniken Kapitel 5

Bild 5.07: Überblick Adaptionsstrategie

Beginn Konzeptphase

Entscheidung QM-Werkzeug

Beschreibung QM-Werkzeug

Bestands-erhebung

Formulierung Aufgabe(n)

Virtueller Funktionsgraph

Quellen-auswahl

Werkzeug-benchmark

Wechselwir-kungsmatrix

Übergreifende Datenströme

Internes Datenkonzept

Dokumentation

Ende Konzeptphase

Standardan-wendungsfälle

Architektur-auswahl

Kritische WW?

Organisa-tionssicht

Dat

ensi

cht

Funk

tions

sich

t

CI-S

icht

Steu

erun

gssi

cht

nein

neue For-derung?

ja

nein

ja

Einsatz CI?

ja

nein

Teambildung, Ressourcen

Page 87: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 5 Referenzmodell zum Aufbau virtueller QM-Techniken 69

Als dritter Baustein kommt im Rahmen der semi-parallelen Definition virtueller Qualitäts-managementwerkzeuge die Beschreibung der „Computational Intelligence“-Einbindung hinzu, sofern ihr Einsatz bei der Definition der Organisationssicht nicht aufgrund technischer oder wirtschaftlicher Überlegungen verworfen wurde. Zur Auswahl einer geeigneten Methode hat sich bewährt, die zukünftige Aufgabe des CI-Tools detailliert zu beschreiben und auch den im Zuge der vQM-Mission-Profiles aufgestellten Anforderungskatalog gründlich auf relevante Restriktionen hin zu überprüfen. Darauf aufbauend wird im nächsten Schritt eine Gegenüberstellung der zur Verfügung stehenden CI-Tools durchgeführt, welche letztendlich zu einer Festlegung auf einen entsprechenden Ansatz führt.

In der vQM-Wechselwirkungsmatrix werden die bisher erarbeiteten Konzepte aus den einzelnen Sichtweisen gegeneinander und zusätzlich mit den zu erfüllenden Anforderungen der vQM-Mission-Profiles abgeglichen ( Abschnitt 5.2.2). Werden hierbei kritische Wechselwirkungen (Bild 5.07, WW), unüberbrückbare Konflikte oder nicht erfüllte Forderungen festgestellt, so müssen diese im Rahmen eines iterativen Verbesserungsprozesses gemeinschaftlich ausgeräumt werden.

Unter dem Oberbegriff „Steuerungssicht“ erfolgen im Anschluss die Definition der Datenströme sowie die Zuordnung der einzelnen Aufgaben (Tasks) zu den zu entwickelnden Programm-Modulen. Hierbei werden sowohl interne (das heißt zwischen den Programm-Modulen) wie auch übergreifende Schnittstellen (das heißt zwischen der Simulationsumgebung und anderen analogen oder digitalen Datenquellen) definiert. Bei der Beschreibung übergreifender Interfaces wird der Anwender durch die Bereitstellung einer aus dem SIPOC-Diagramm (vgl. [REHBEHN 2003]) weiterentwickelten Prozessdarstellungsform unterstützt, welche in Abschnitt 5.2.2 detailliert vorgestellt wird. Hinzu kommen etablierte graphische Werkzeuge, die den Anwender bei der Ablaufplanung und der Definition interner Schnittstellen effizient unterstützen können: Stellvertretend sei hier auf die anschaulichen Schwimmbahndiagramme hingewiesen (vgl. [DGQ 2008], Bild 5.06 rechts). Werden die Module als „Schwimmbahnen“ aufgetragen und die jeweils dort angesiedelten Aufgaben (Tasks) entlang der Zeitachse positioniert, so erfordert jede bahnübergreifenden Kante – dargestellt durch Pfeile mit senkrechten Linienelementen – die systematische Definition einer eigenen Schnittstelle. Hierbei sind nicht nur Datenformate abzustimmen, sondern auch Zeitmarken, zu denen die entsprechenden Informationen bereitstehen müssen. Hierbei kann auch über die Angabe des zeitkritischen Pfades eine Abschätzung über die mögliche Dauer eines Simulationslaufes gegeben werden, welche häufig eine wichtige Anforderung im Rahmen der vQM-Mission-Profiles darstellt. Zum Anderen hilft die bekannte Bottle-Neck-Analyse bei der Lokalisierung von zeitsensitiven Modulen, die aufgrund ihrer Auslastung den Simulationslauf teilweise empfindlich verlangsamen können.

Entstehen aus dem Entwurf der Datenströme weitere Forderungen an die im Vorfeld spezifizierten Domänen (Daten, Funktion und CI), so müssen diese berücksichtigt und im Rahmen einer zusätzlichen Iterations-Schleife in die entsprechenden Ausarbeitungen eingepflegt werden.

Ist kein weiterer Überarbeitungsbedarf gegeben, kann der Abschluss der Werkzeugkonzep-tionierung vorbereitet werden. Kernelement ist hierbei die vollständige Dokumentation der unter-nommenen Aktivitäten sowie die Zusammenführung der Konzepte für die fünf „Sichten“, unter denen das Konzept für ein adaptiertes virtuelles Qualitätsmanagementwerkzeug betrachtet werden muss.

Zur modulspezifischen Zusammenführung aller relevanten Informationen zu Funktionsbeschreibung, Anforderungen, Schnittstellen etc. können die bereits zum Aufbau abweichungsbetrachtender Simulationsmodelle eingesetzten Modelling Key Documents verwendet werden. Damit ist gewährleistet, dass die im Zuge der referenzmodellbasierten Konzeptionierung angestellten Überlegungen mit einem Mindestmaß an Schnittstellenverlusten in die Programmierungsphase übernommen werden können.

Page 88: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

70 Referenzmodell zum Aufbau virtueller QM-Techniken Kapitel 5

5.2.2 Entwickelte Werkzeuge zur Unterstützung des Anwenders

Um die komplexeren Arbeitsschritte der Adaptionsstrategie benutzerfreundlicher zu gestalten, wurden mehrere Methoden entwickelt, um gerade den unerfahrenen Anwender vor möglichen Fehlerquellen zu schützen. Diese Werkzeuge sollen im Folgenden kurz vorgestellt werden:

vQM-Mission-Profiles Bei diesen Anforderungsprofilen werden Standardanwendungsfälle für die virtuellen Qualitäts-managementwerkzeuge definiert und durchgespielt. Aus den hierbei identifizierten Rahmen-bedingungen werden Anforderungen an die zu entwickelnde virtuelle Qualitätsmanagementtechnik abgeleitet, nach Gruppen geclustert und dokumentiert. Diese sind:

Zur Verfügung stehende Simulationssoftware und/oder -modelle. Bestehende virtuelle Qualitätsmanagementwerkzeuge. Endanwenderqualifikation. Zur Verfügung stehende Ressourcen für den Werkzeugeinsatz (nicht -entwicklung!). Erwartungen des Endanwenders. Erwartungen des Prozesseigners bzw. des Vorgesetzten. Sonstiges.

Diese vQM-Mission-Profiles bilden eine wichtige Grundlage nachfolgender Überlegungen. Nur durch strikte Orientierung an den Anforderungsprofilen kann gewährleistet werden, dass die entwickelten Werkzeuge für den späteren Einsatzzweck optimal geeignet sind.

vQM-Ablaufdiagramm

Das vQM-Ablaufdiagramm ist eine Weiterentwicklung der aus der Six Sigma-Literatur bekannten SIPOC-Darstellung (vgl. [REHBEHN 2003], [TOUTENBURG 2009], [REIßIGER 2007]). Die Inhalte der einzelnen Spalten wurden jedoch den spezifischen Anforderungen für den Einsatz im Rahmen des Aufbaus virtueller Qualitätsmanagementwerkzeuge angepasst. Bei der Aufstellung der Graphik werden die Spalten von rechts nach links bearbeitet. Die Inhalte für die Spalten „Endanwender…“ und „Outputdaten…“ können zu einem Großteil aus den vQM-Mission-Profiles übernommen werden. Im Anschluss orientieren sich die Inhalte der anderen Spalten an den geforderten Ergebnisgrößen: notwendige Verarbeitungsschritte, erforderliche Ausgangsdaten und mögliche Quellen für besagte Ausgangsdaten. Durch die zusätzlich eingebrachten Datenstromgraphen können werkzeugübergreifende Informationsflüsse eingängig abgebildet werden. Alle Input- und Outputdaten werden über Schnittstellen in das System ein- bzw. aus dem System herausgeschleust und müssen deshalb zur Vermeidung späterer Anbindungsprobleme detailliert beschrieben werden.

Bild 5.08: vQM-Ablaufdiagramm

WZ: Werkzeug : Datenflüsse

vQM-AblaufdiagrammDaten-quellen

Inputdaten (Schnittstelle)

Ablauf WZ-Anwendung

Outputdaten(Schnittstelle)

Endanwender Prozesseigner

Start

Ende

Page 89: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 5 Referenzmodell zum Aufbau virtueller QM-Techniken 71

vQM-Wechselwirkungsmatrix Für die Betrachtung der Verflechtungen einzelner Module wurde die vQM-Wechselwirkungsmatrix entwickelt: Sie unterstützt den Anwender durch den klar strukturierten Aufbau bei der Aufdeckung von kritischen Konflikten und bei der Überprüfung, inwieweit alle im Rahmen der vQM-Mission-Profiles definierten Anforderungen erfüllt sind. Die Arbeit mit diesem Werkzeug erfolgt im Rahmen von Team-Besprechungen, zu denen Vertreter aller einbezogenen Fachgebiete zugegen sein sollten, um eine fachlich fundierte Bewertung der einzelnen Aspekte bestmöglich zu gewährleisten.

Begonnen wird mit der systematischen Erfassung aller relevanten Postulate an das Gesamtsystem, welche im Zuge der Teilkonzepterarbeitung für die einzelnen Fachbereiche aufgestellt wurden. In einem zweiten Schritt erfolgt die Bewertung der einzelnen Forderungen. Es hat sich bewährt, die Symbole „ “ (Forderung erfüllt) und „ “ (Konflikt) bei der Bewertung der Aspekte zu verwenden und die nicht benötigten Felder frei zu lassen.

Hierbei sollte am Ende der Betrachtung jede Forderung der Aufstellung erfüllt sein, um ein funktionierendes Gesamtsystem ohne konzeptionelle Konflikte zu gewährleisten. Ist dies nicht der Fall, so sind Änderungen am Konzept oder den gestellten Anforderungen im Rahmen einer Iterationsschleife unumgänglich.

Bild 5.09: vQM-Wechselwirkungsmatrix

Forderungen

Erfü

llung

der

For

deru

ngen

bzw

. Kon

flikt

e

Mis

sion

Pr

ofile

Dat

en-

sich

tFu

nktio

ns-

sich

tC

I-si

cht

CI-SichtFunktions-sicht

Daten-sicht

Organisa-tionsicht

Org

anis

a-tio

nssi

cht

Forderung 1

Forderung 2

Forderung n

Forderung 1

Forderung 2

Forderung n

Forderung 1

Forderung 2

Forderung n

Forderung 1

Forderung 2

Forderung n

Forderung 1

Forderung 2

Forderung n

Page 90: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

72 Anwendung des Leitfadens Kapitel 6

6 Anwendung des Leitfadens

Der in Kapitel 4 vorgestellte Leitfaden wurde während der Forschungsarbeiten intensiv erprobt und erweitert. Es entstanden mit Hilfe der vQM-Methodik drei Prozessmodelle aus den Fachdisziplinen Stereolithographie, Kunststoffverarbeitung und Elektronikproduktion. In diesem Kapitel werden die drei aufgebauten abweichungsbetrachtenden Simulationsmodelle vorgestellt, wobei die Anwendung des Leitfadens nur am ersten Beispiel explizit dargelegt wird, um Redundanzen zu vermeiden. Auf bedeutende Abweichungen vom ersten Modellierungsbeispiel wird jedoch stets im erforderlichen Umfang eingegangen.

6.1 Aufbau des Prozessmodells „Stereolithographie“ 6.1.1 Allgemeine Einführung in das Fertigungsverfahren

Das Stereolithographie-Verfahren gehört zur Gruppe der „generativen Fertigungsverfahren“ [GEBHARDT 2007], bei dem mit Hilfe eines Lasers ein flüssiges Polymer lokal verfestigt wird. Durch eine Spiegeloptik zur Bewegung des Laserstrahls und eine Hubmechanik zur Absenkung des Bauteils können somit komplexe Geometrien schichtweise aufgebaut werden, welche nach einem Aushärteprozess und der Entfernung von teilweise erforderlichen Supportstrukturen bereits weitgehend den endgültigen Abmessungen entsprechen (Bild 6.01).

Bild 6.01: Überblick Stereolithographie-Anlage (links Prinzipskizze, rechts Photo der simulierten Stereolithographieanlage SLA 250/50 Als Ausgangsbasis des zu fertigenden Werkstückes dient ein 3D-CAD-Modell der entsprechenden Geometrie. Dieses wird dann in das Format STL (SurfaceTesselationLanguage) konvertiert, mit erforderlichen Stützstrukturen („Support“) versehen und in Schichtinformationen für die Laserbearbeitung umgewandelt („Slicen“). Im Anschluss erfolgt die photochemische Aushärtung des flüssigen Harzes (Bild. 6.02, „Physische Erstellung“). Danach werden die Bauteile von überschüssigem, flüssigem Harz sowie von den Support-Strukturen befreit, bevor die abschließende Nachvernetzung des Polymers unter Anwendung von ultraviolettem Licht erfolgt.

Bild 6.02: Prozessablauf Stereolithographie

Spiegel

Wischer

Laser

Spindelaufzugz-Regelung

Polymerbad

Bauteil

Bauplattform

Definition Prozess-

parameter

Physische Erstellung

3D-CAD-Daten

Fertiger Prototyp

Datenkon-vertierung Reinigung Aushärten

Page 91: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 6 Anwendung des Leitfadens 73

6.1.2 Define-Phase

Das abweichungsbetrachtende Simulationsmodell des Stereolithographie-Prozesses entstand im Rahmen einer teilprojektübergreifenden Kooperation unter dem Dach des Sonderforschungs-bereichs 694 „Integration elektronischer Komponenten in mobile Systeme“. Partner war das Bayerische Laserzentrum, an welchem das Teilprojekt A1 bearbeitet wurde mit dem Titel „Embedding Stereolithography – Prozessentwicklung zur Integration von Funktionselementen in mikromechatronischen Baugruppen“.

Die Define-Phase beginnt mit einer kurzen Beschreibung des Ausgangszustandes. Ganz bewusst wird hier durch das Format der Projekt-Carta (Bild 6.03) der Platz restriktiv begrenzt. So wird sichergestellt, dass sich das Projektteam von Anfang an auf die wesentliche Kernaufgabe konzentriert, die kurz und prägnant dargestellt werden sollte. Ebenso ist das Projektziel klar und eingängig zu definieren, damit es auch peripher beteiligten Kreisen (zum Beispiel Werkern) oder kurzfristig hinzugezogenen Fachexperten schnell dargelegt werden kann.

Das Projektteam setzt sich normalerweise aus einem Sponsor bzw. Champion, einem Projektleiter und diversen Teammitgliedern zusammen, wobei Leiter und Mitglieder das sogenannte „Kernteam“ bilden. Der Sponsor wird nur bei der Ressourcenbereitstellung, der abteilungsübergreifenden Koordination und im Rahmen der beiden Quality Gates eingebunden. Ergänzt wird das Kernteam durch einen äußeren Kreis von Fachexperten, welche nur bei Bedarf zu den Sitzungen hinzugezogen werden, um fachspezifische Fragen zu klären.

Für die Bereitstellung der Ressourcen ist der Sponsor verantwortlich. Welche Posten hier benötigt werden, muss im gemeinsamen Gespräch im Rahmen der Definition von Projektzielen und -grenzen definiert werden. Auch benötigte Ressourcen hinsichtlich der erforderlichen Unterstützung durch Werker oder Fachexperten kann zu diesem Zeitpunkt – soweit schon absehbar – festgelegt werden.

Das SIPOC-Diagramm schafft ein gemeinsames Prozessverständnis aller Beteiligten und hilft bei der Abschätzung des erforderlichen Aufwandes. Im vorliegenden Fall wurde in einem ersten Schritt eine Gesamtbetrachtung des SL-Prozesses vorgenommen, welche dann auf die im Rahmen des Simulationsmodells abzubildenden Inhalte reduziert wurde (gestrichelte Kästen in Bild 6.03). Da der Fokus auf der Abbildung der für die Forschung relevanten Aspekte liegt, sind Posten wie „Abwärme“ oder „Abfall“ von nachrangiger Bedeutung, ebenso die Abbildung von Lieferanten etc.

Das Ishikawa-Diagramm und der CTQ-Treiberbaum (CTQ: Critical to Quality) geben einen ersten Überblick über die bekannten und vermuteten Einflüsse auf diejenigen Parameter, an denen die Qualität des Bauteils festgemacht wird. Im betrachteten Beispiel sind hierfür die Bauzeit sowie die geometrischen Parameter Länge, Breite und Höhe des zu fertigenden Probenstabes maßgeblich.

Die Definition der Validierungskriterien orientiert sich vorrangig an dem verfolgten Projektziel. Nach der Festlegung auf ein Kennzahlensystem ( Abschnitt 4.6.1) erfolgt die Definition von Validierungskriterien: Hierunter wird die Vorgabe einer Mindest-Abbildungsgenauigkeit des zu erstellenden Prozessmodells verstanden (hier: 95 %) sowie das Festschreiben derjenigen Grenzen von Einfluss- und Störgrößen in denen diese Genauigkeit erreicht werden soll.

Abschließend erfolgt das Aufstellen eines Zeitplans für das weitere Vorgehen. Wichtig ist hierbei, dass es vor allem bei dem Quality Gate I (QG I) keine Überlappung der Analyse und der Design-Phase gibt, da erst nach Passieren dieses Tores die Freigabe zum Modellierungsbeginn erfolgt.

Page 92: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

74 Anwendung des Leitfadens Kapitel 6

Bild 6.03: Ausgefüllte Projekt Charta

Prob

lem

-be

schr

.Pr

ojek

t-zi

elPr

ojek

t-te

am

freig

egeb

ene

Res

sour

cen

SIPO

C-D

iagr

amm

des

Pro

zess

esIs

hika

wa-

Dia

gram

m

Ctit

ical

toQ

ualit

y Tr

eibe

rbau

m

Valid

ieru

ngs-

krite

rien

verb

indl

iche

r Pr

ojek

tzei

tpla

n

vQM-Projekt-Carta„Stereolithographie“

Zur wissenschaftlichen Erforschung des „Embedding Stereolithography“-Ver-fahrens müssen benötigte Voruntersuchungen effizient durchgeführt werden. Reale Versuche sind hierbei zu langwierig und kostspielig.

Ziel ist es, ein abweichungsbetrachtendes Simulationsmodell des Stereolitogra-phie-Verfahrens zur Verfügung zu stellen, das für die Fertigung einer einfachen Geometrie alle Einflüsse auf Abmaßeund Bauzeit zu mind. 95 % abbildet.

Champion / Sponsor: Prof. A. WeckenmannProjektleiter:Dipl.-Ing. M. BookjansTeammitglieder: X. XXXXXX, X. XXXXXX, X. XXXXXX, X. XXXXXX, X. XXXXXX

Plant Simulation unbegrenztMinitab unbegrenztCAD-Modell Bauteil 1SL-Anlage 250 80 hHarz-Material EUR 400Techniker 10 hStatistik-Experte 10 h

Supplier Input Process Output CustomerStart

Ende

STL-Daten

Slicen

Bauprozess

Reinigung

Aushärten

CAD-Daten

Harz

Laser

Bauteile

Prozess-daten

Abwärme

Abfall

Forscher

Industrie-kunde

Entwickler

Anlagenbau

Lieferant 1

Lieferant 2

Bauteil

Harz Maschine Bauteil

Methode Mitwelt Simulation

Viskos.Alter

TischhubWartung

AusfallForm

Größe

Richtung

KostenSoftware

LaufzeitFeuchte

Temp.

VibrationZeit

Wischer

BauteilSupport

Hatch-abstandSchicht-

dicke

Strahl-durchm.

Schwin-dung x/y

Maß u. Form

Over-cure

Bauteil-qualität

MessungCTQTreiberBedürfnisSchwin-

dungQuel-lung

Beam Width

Line Width

( )1001 1

2Re

2 ⋅

⎟⎟⎟⎟

⎜⎜⎜⎜

⎛−

−=∑=

n

yyInd

n

iSimal ii

Kennzahlensystem:

Randbedingungen:Drei relevanteste Einflussparameter vollfakto-toriell variieren. Länge, Breite, Höhe, Bauzeit.

Define

Measure

Analyse

Design

VerifyZeit

QG I QG II

Page 93: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 6 Anwendung des Leitfadens 75

6.1.3 Measure-Phase

Im Rahmen der Measure-Phase wird definitionsgemäß das Ziel verfolgt, die benötigten Informationen zusammenzutragen, welche für den späteren Modellaufbau benötigt werden. In einem ersten Schritt werden hierfür die in der Define-Phase erarbeiteten Ablaufpläne präzisiert. Flussdiagramme haben sich hierfür als besonders effizientes Werkzeug bewährt. Neben der Entwicklung einer eigenen Notation können auch standardisierte Varianten Anwendung finden, zum Beispiel nach [DIN 66001], [DGQ 2008] oder [SCHEER 2008]. In Bild 6.04 ist die detaillierte Beschreibung eines einzelnen Schichtaufbaus abgebildet, wie er im Rahmen dieses Anwendungsbeispiels regulär abläuft.

Bild 6.04: Flussdiagramm zum Prozessschritt „Schichtaufbau“

Im Anschluss werden die gesammelten potentiellen Einflussparameter auf die Zielgrößen gewichtet und bewertet. Bild 6.05 zeigt die zu dem in Bild 6.04 abgebildeten Prozessschritt zugehörige Ursache-Wirkungs-Matrix. Mit Hilfe der ABC-Analyse werden sowohl Einfluss- als auch Zielparameter kategorisiert.

Bild 6.05: Ursache-Wirkungs-Matrix zum Prozessschritt „Schichtaufbau“

RuhenLetzte Schicht

Verteilen Harz

Polymeri-sation

Nächste Schicht

Positio-nieren der Plattform

Absenken Plattform

BelichtungLä

nge

Bre

ite

Höh

e

Bauz

eit

Tota

l

3 3 3 10

Harzviskosität 1 1 1 1 3Harzalter 7 3 3 3 63Lasereindringtiefe 7 7 1 56Laserleistung 3 10 30Hatchabstand 3 1(7)* 1(7)* 10 54Luftfeuchtigkeit 10 3 3 3 90Temperatur 7 7 49Wischzyklen 3 1 1 1 7 30Schichtdicke 3 7 10 51Niveauregulierung 7 7 7 98

Total 27(48) 27(48) 87 520

* Je

nach

Orie

ntie

rung

des

Bau

teils

: En

twed

er b

ei „

Läng

e“od

er b

ei „

Brei

te“.

Wichtigkeit für Prozesseigner (1, 3, 7 10)

Schwierigkeit Implementierung

(1, 3, 7, 10)

Page 94: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

76 Anwendung des Leitfadens Kapitel 6

Bei der Auslegung der erforderlichen statistischen Versuchsreihe spielen vor allem die Bewertung der Zielgrößen eine besondere Rolle: Aus ihnen lassen sich die wichtigsten Eingangsgrößen ableiten, die bei der Datenerhebung vorrangig Beachtung finden müssen. Im vorliegenden Fall konnten Informationen zum Schwindungsverhalten und zur altersbedingten Veränderung der Laser-charakteristik über Sekundärquellen wie Fachliteratur oder Expertengespräche zusammengetragen werden. Deshalb wurden im vorliegenden Fall weiterführende Versuchsreihen zum Einfluss der Parameter Schichtdicke (A), Hatchabstand (B) und Wischzyklenanzahl (C) durchgeführt. Bild 6.06 gibt einen Überblick über Ausgangssituation und Ergebnis dieser Analyse.

Bild 6.06: Auszug aus den durchgeführten Versuchsreihen

Die Auswertung der Versuche ergibt, dass die Einflüsse stark nicht-linear sind. Mit Hilfe von Re-gressionsstudien lassen sich für diesen spezifischen Anwendungsfall aus den vorliegenden Ergeb-nissen funktionale Zusammenhänge ableiten, welche die Streuungen der Schwindung in x- bzw. y-Richtung zu 99,6 % (x-Richtung, Gleichung 6.1) und zu 95,0 % (y-Richtung, Gleichung 6.2) erklären.

(Gleichung 6.1)

(Gleichung 6.2)

ABC

Support Trennebene

Bauteil50 mm

5 mm5 mm

: Messpunkte

Faktor Einflussgröße „-“-Einstellung „0“-Einstellung „+“-Einstellung

A Schichtdicke 0,1000 mm 0,1375 mm 0,1750 mmB Hatchabstand 0,050 mm 0,075 mm 0,100 mmC Wischzyklenanzahl 1 3 5

Haupteffekte x-Schwindung

Mitt

elw

ert

A B-0,10

-0,15

-0,20-1 0 1 -1 0 1

C-0,10

-0,15

-0,20-1 0 1

Wechselwirkungen x-Schwindung

-0,08

-0,16

-0,24

-1 1

-0,08

-0,16

-0,24

-1 1

A

B

C

−⋅+⋅−⋅−⋅+−= AB,C,B,A,,xSchwindung 0331004450026500021006990222 0398004980013800479001790 C,B,A,BC,AC, −−⋅+⋅−

−⋅+⋅−⋅−⋅−= AB,C,B,A,,ySchwindung 00790020500060029502500222 0416004360042100179000240 C,B,A,BC,AC, −−⋅+⋅−

Page 95: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 6 Anwendung des Leitfadens 77

6.1.4 Analyse-Phase

Im Zuge der Analyse-Phase wird zuerst in einem iterativen Prozess die betrachtete Handlungsabfolge in Module und anschließend in Modulkomponenten herunter gebrochen, welche im Anschluss detailliert zu beschreiben sind. Hierzu werden verschiedene Werkzeuge eingesetzt um die unterschiedlichen Aspekte strukturiert und effizient definieren zu können. Bild 6.07 zeigt diesen Vorgang beispielhaft für die hierarchische Zuordnung der im Anschluss näher betrachteten Modulkomponente „Prototyper“.

Bild 6.07: Hierarchischer Aufbau des zu erstellenden Simulationsmodells

Die Ergebnisse werden für jede einzelne Modulkomponente gesondert in einem zentralen vQM-Modelling-Key-Document zusammengefasst. In Bild 6.06 ist das Modelling Key Document des Prototypers dargestellt, das zur Gewährleistung der Lesbarkeit im Rahmen dieser Arbeit nur ausgewählte Teile des jeweiligen Betrachtungsaspektes beinhaltet und somit keinen Anspruch auf Vollständigkeit erheben kann.

Die betrachtete Modulkomponente besteht aus den Bausteinen „Harzauftrag“ und „Belichten“, denen sich entsprechende Arbeitsgänge unterordnen lassen. Bei der Darstellung des Funktionsbaumes kommen noch Informationen über den Zweck der jeweiligen Schritte hinzu, aus welchen sich wiederum die zu definierenden funktionalen Zusammenhänge ableiten lassen, die zum Aufbau der betrachteten Modulkomponente benötigt werden.

Bei der Definition der Schnittstellen werden neben den in Bild 6.08 dargestellten Angaben zu dem exakten Namen der Variable in der Simulationsumgebung, einer Beschreibung der repräsentierten Größe, der Vorgabe des Formats und der Nennung von Quelle bzw. Ziel dieser Information auch Daten benötigt zu dem Wertebereich, welcher im Rahmen der Simulationsstudie zu erwarten ist und welcher Projektmitarbeiter für die jeweilige Quell- bzw. Ziel-Komponente zuständig ist.

Die Beschreibung der funktionalen Zusammenhänge baut auf den erarbeiteten Erkenntnissen aus der Measure-Phase auf. Gemäß den abgeleiteten Aufgaben der betrachteten Modulkomponente sind die relevanten Zusammenhänge mit den benötigten Erläuterungen anzugeben. Im vorliegenden Beispiel sind exemplarisch die Formeln für die maximale Belichtungsgeschwindigkeit und den Schwindungseinfluss in x-Richtung (Gleichung 6.1) angeführt.

Von besonderer Bedeutung sind die Kriterien anhand derer diese Modulkomponente bewertet wird, bevor sie in das Gesamt-Modell implementiert werden kann. Die Anforderungen an einzelne Modulkomponenten sind in der Regel höher, als die Anforderung an das übergeordnete Modell, da noch entsprechender Puffer für modulübergreifende Abweichungen vorzusehen ist. Ebenso sind Szenarien zu definieren, unter denen die Validierung erfolgen soll.

Stereolithographie-prozess

Bauprozess-parameter

Physische Erstellung

Prototyper

Entwicklungsumgebung Plant Simulation

Page 96: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

78 Anwendung des Leitfadens Kapitel 6

Bild 6.08: Modelling Key Document für die Modulkomponente “Prototyper”

Erlä

u-te

rung

Ein

-or

dnun

gG

liede

rung

des

Pr

ozes

sbau

stei

ns

Funk

tions

-ba

um

Funk

tiona

leZu

sam

men

häng

eB

lack

-Box

-D

arst

ellu

ng

Schn

ittst

elle

n-de

finiti

on

Absc

hlus

s-C

heck

liste

Org

anis

ator

isch

e An

gabe

n

Modelling Key Document„Prototyper“

Im Rahmen des abweichungsbetrachtenden Simulationsmodells des Stereo-lithographieprozesses werden in der Modellkomponente „Prototyper“ die we-sentlichen Vorgänge zur Polymerisation des noch flüssigen Harzes abgebildet.

Maximale Belichtungsgeschwindigkeit

Prototyper… …Prozessparameter

M. Bookjans

Reinigung

X. XXXXXXX

Prototyper

Harzauftrag Aushärtung

Teilschritte TeilschritteAbsenken

Wischen

Belichtung

Kettenwachstum

1. Rang 2. Rang 3. Rang

Absenken Umströmen

Wischen Verteilen

Verfestigen Reaktion

Harzauftrag

Belichten LenkenAushärtung

Harz auftragen

WischergeschwindigkeitBadtemperaturHarzviskosität

HarzalterungLuftfeuchtigkeit

Umgebungstemperatur

Tischpos. (x, y, z)WartezeitAnz. ZyklenSoll-Schichtdicke

Resultierende Schichtdicke

Maximale Belichtungs-v.

Eingehend

Ausgehend

Name Definition Format QuelleX_pos Tischpos. float T_Def

Zyklen_n Anzahl Z. int Parameter

Name Definition Format ZielS_res Res. Dicke float Aushärten

Bel_v_max Belichtung float Aushärten

⎟⎟⎠

⎞⎜⎜⎝

⎛−

⋅⋅

⋅= p

ddcC

CS

LS Eh

PCv2

1 l

C1, C2: Konstanten PL: Laserleistung hS: HatchabstandEC: krit. Energiedichte dp: Eindringtiefe cd: Aushärteftiefe

für C1, C2 gilt (vgl. Zusatzblatt 2): 1. Scanklasse: 1, 11, 12 C1: 1,22 C2: 4,172. Scanklasse: 2, 3, 8, 9 C1: 0,60 C2: 0,503. Scanklasse: 4, 5, 13, 14 C1: 0,88 C2: 0,694. Scanklasse: 6, 7, 10, 15, 16 C1: 1,18 C2: 3,60

Schwindungseinfluss in x-Richtung−⋅+⋅−⋅−⋅+−= ABCBAx Schwindung 0331,00445,00265,00021,00699,0

222 0398,00498,00138,00479,00179,0 CBABCAC −−⋅+⋅−

A: Schichtdicke in mm B: Hatchabstand in mm C: Anzahl Wischerzyklen

OrganisatorischSchnittstellen eingehaltenNotwendige Änderungen kommuniziertErkenntnisse für „lessons learned“

Technisch01

Geforderter Funktionsumfang voll abgebildetAbbildungsgenauigkeit > 97,5 %Test in Sandbox mit vorgegebenen Szenarien

VerantwortlichX.XXXXX, QFM (Tel. intern: XXXXX)

Deadline inklusive Sandbox-Tests02.05.2008

Mitgeltende Unterlagen01

Zusatzblatt 1: ObjektdefinitionsrahmenZusatzblatt 2: Linienmusterführung Laser

Page 97: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 6 Anwendung des Leitfadens 79

6.1.5 Quality Gate I

Die Vorstellung der bisher erzielten Ergebnisse wurde im Rahmen einer Gruppenbesprechung mit dem Sponsor sowie allen Beteiligten des Kernteams durchgeführt. Nach einer Präsentation des Grobkonzeptes und Sichtung der erstellten vQM-Modelling-Key-Documents wurde das Projekt zur weiteren Verfolgung mit geringen Auflagen freigegeben. Die Feststellungen waren:

Wiederholung der Schnittstellenanalyse mit dem „Walk Around“-Ansatz ( Kap. 2.1.4). Ergänzen einiger vQM-Modelling-Key-Documents durch Legenden für Formelzeichen. Einfügen der Verantwortlichkeiten bei der Einordnung der Modul-Komponente in das

Gesamtmodell. Mitgeltende Unterlagen namentlich aufführen.

Die Abnahme der Änderungen sowie die endgültige Freigabe durch den Projektsponsor erfolgte formlos im Zuge der regelmäßigen Projekt-Reports vom Projektleiter an den Sponsor.

6.1.6 Design-Phase

Die zum Aufbau des abweichungsbetrachtenden Simulationsmodells zu verwendende Software Plant Simulation wurde bereits in der Define-Phase vorgegeben ( Abschnitt 6.1.2). Im Rahmen der Vorbereitung der Design-Phase wurde von den Programmierern entschieden, die in Bild 6.08 dargestellten Funktionalitäten ohne Zuhilfenahme der Objektorientierung abzubilden, das heißt als Methoden-Block innerhalb des übergeordneten Moduls „Physische Erstellung“ ( Bild 6.10, Markierung).

Die Programmierung erfolgt dabei in der software-eigenen Programmiersprache SimTalk. Exemplarisch wird in Bild 6.09 die Modellierung der im vQM-Modelling-Key-Document geforderten Berechnungen zur Bestimmung der maximalen Scan-Geschwindigkeiten in den vier unterschied-lichen Belichtungsmodi gezeigt. Die Daten zu den benötigten Variablenwerten werden vorab in der Tabelle T_Randbedingungen bereitgestellt. Dies erleichtert eine mögliche spätere Realisierung neuer Anforderungen an das Simulationsmodell, da die Informationen an einer Stelle zentral gebündelt zur Verfügung stehen und somit die Robustheit gegenüber Modellveränderungen deutlich erhöht ist, als wenn man Daten erst beim aktuellen Bedarf von der jeweiligen Einheit abruft.

@.scan_a:= 1.22*(T_Randbedingungen [2,9]/(T_Randbedingungen [3,12] * T_Randbedingungen [2,10])) * exp (-4.17*(@.Aushärtetiefe/ T_Randbedingungen [3,11]));

@.scan_b:= 0.60*(T_Randbedingungen [2,9]/(T_Randbedingungen [3,12] * T_Randbedingungen [2,10])) * exp (-0.50*(0.8*@.Aushärtetiefe/ T_Randbedingungen [3,11]));

@.Scan_c:= 0.88*(T_Randbedingungen [2,9]/(T_Randbedingungen [3,12] * T_Randbedingungen [2,10])) * exp (-0.69*(0.8*@.Aushärtetiefe/ T_Randbedingungen [3,11]));

@.scan_d:= 1.18*(T_Randbedingungen [2,9]/(T_Randbedingungen [3,12] * T_Randbedingungen [2,10])) * exp (-3.60*(@.Aushärtetiefe/ T_Randbedingungen [3,11]));

Bild 6.09: Programmierte Umsetzung der Berechnung der maximalen Scan-Geschwindigkeit

Page 98: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

80 Anwendung des Leitfadens Kapitel 6

In Bild 6.10 ist der Inhalt des Moduls „Physische Erstellung“ abgebildet: Nach der Übergabe der aus den CAD-Daten generierten Fertigungsparameter (Parameterübergabe) werden aus dem flüssigen Harz (Quelle_Harz) im Prototyper zu definierten festen Geometrien umgewandelt, bevor das fertige Bauteil den Bauraum verlässt (Prototyper_leeren). Übergang und Übergang1 repräsentieren die Schnittstellen der Modulkomponente zum Gesamtmodell bzw. zu den vor- und nachgelagerten Prozessschritten.

Bild 6.10: Screenshot der vQM-Modulkomponente „Physische Erstellung“

Nach dem Testen und Bewerten der einzelnen Module wird das Gesamtmodell „Stereolithographie“ generiert durch die Implementierung dieser Bausteine in einem gemeinsamen virtuellen Versuchsraum, welches im Anschluss noch die abschließende Validierung in der Verify-Phase durchlaufen muss.

6.1.7 Verify-Phase

Das im Rahmen dieses Modellierungsprojektes aufgebaute Simulationsmodell wird in der Verify-Phase ausgedehnten Testreihen unterzogen, um die geforderte Abbildungsgenauigkeit im definierten Prozessfenster nachzuweisen. Im vorliegenden Beispiel wurde hierfür ein 3-stufiger teilfaktorieller Versuchsplan mit den drei Einflussparametern „Schichtdicke“, „Hatchabstand“ und „Wischzyklenanzahl“ in sechs Iterationen durchgeführt. Diese Versuchsanodnung wurde erst in der Realität abgearbeitet, wobei die als unveränderbar eingestuften Einflussgrößen („Temperatur“, „Luftfeuchtigkeit“, „Harzalter“ und „Laseralter“) festgehalten wurden.

Im Anschluss an die reale Versuchsreihe, werden analog aufgebaute Studien an dem zu validierenden abweichungsbetrachtenden Simulationsmodell durchgeführt. Diese als unveränderbar anzusehenden Parameter werden als fest vorgegebene Stellgrößen in das Simulationsmodell übernommen (Bild 6.11). Somit ist gewährleistet, dass auch die Störgrößen auf vergleichbaren Niveaus gehalten werden und die Bewertung der Abbildungsgenauigkeit auf nahezu identischen Grundannahmen basiert.

DatensenkeM_Parameter-übernahme

ParameterübergabeÜbergang

Quelle_Harz Randbedingungen Prototyper Prototyper_leeren

Übergang1

T_Bauteil-eigenschaften

M_Rand-bedingungen

M_Prototyper

T_Rand-bedingungen

T_Prototyper

Page 99: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 6 Anwendung des Leitfadens 81

Bild 6.11: Screenshot des Gesamtmodells „Stereolithographie“

Gemäß dem in der Define-Phase definierten Kennzahlensystem wird die Abbildungsgenauigkeit für jeden einzelnen Messpunkt ermittelt und ausgewertet. In Bild 6.12 sind die Ergebnisse der Validierung für die vier definierten Zielgrößen „Länge“, „Breite“, „Höhe“ und „Bauzeit“ aufgetragen. Hieraus ist ersichtlich, dass alle ermittelten Werte oberhalb der geforderten 95 %-Schwelle liegen, wobei die meisten diesen Grenzwert sogar deutlich überschreiten. Deshalb können die gestellten Forderungen für die definierten Zielgrößen im vorgegebenen Prozessfenster als erfüllt angesehen werden.

Bild 6.12: Validierung des Simulationsmodells anhand der vQM-Kennzahlensystematik

Zum Abschluss der Arbeiten werden alle relevanten Projektdaten zusammengetragen und in die Projektdokumentation aufgenommen. Dieses Dokumentenportfolio ist Grundlage des noch zu absolvierenden Quality Gates und erfasst die für nachfolgende Simulationsprojekte zu beachtenden Hinweise im Zuge des „lessons learned“.

6.1.8 Quality Gate II

Die abschließende Bewertung durch ein externes Expertengremium wurde im Rahmen einer Gruppensitzung mit dem Sponsor sowie ausgewiesenen Prozess- und Simulationsexperten durchgeführt. Nach der Darlegung der Vorgehensweise und einer Live-Präsentation des Simulationsmodells wurde die Freigabe erteilt, weiterführende Untersuchungen auf dieser Basis anzustellen. Diese Analysen betrafen vor allem die Erprobung der in Kapitel 7 vorgestellten vQM-Funktionsmodule.

Ereignis-verwalter

Reset Init

CAD-Datei STLDatei_

ErstellungBauprozess-parameter

PhysischeErstellung

Reinigung Nachbear-beitung

Fertige_Bauteile

T_CAD Daten M_Fertige-

Bauteile

T_Fertige-Bauteile

94

95

96

97

98

99

100

1 2 3 4 5

Länge

Breite

Höhe

Bauzeit

95 %-Limit

%

Page 100: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

82 Anwendung des Leitfadens Kapitel 6

6.2 Aufbau des Prozessmodells „Kunststoffspritzguss“ Das Spritzgießen thermisch leitfähiger Kunststoffe wurde ebenfalls im Rahmen des Sonderforschungsbereichs 694 virtuell abgebildet. Partner war der Lehrstuhl für Kunststofftechnik, an welchem das Teilprojekt B3 bearbeitet wurde mit dem Titel „Thermisches Management funktioneller Bauelemente für die Systemintegration“.

In analoger Vorgehensweise zum Prozessmodell „Stereolithographie“ wurde auch dieses abweichungsbetrachtende Simulationsmodell aufgebaut. Im Rahmen dieses Fertigungsprozesses werden Probekörper mit den Abmessungen 50 x 50 x 2 mm hergestellt, wobei die zu betrachtenden Zielgrößen neben „Länge“, „Breite“ und „Höhe“ eines Probekörpers auch dessen thermische Leitfähigkeit umfasst. Gefordert wird eine Abbildungsgenauigkeit von mindestens 95 % gegenüber dem realen Systemverhalten für die geometrischen Größen und mindestens 80 % für die thermische Leitfähigkeit, da die hierbei zugrundeliegenden Ursache-Wirkungs-Beziehungen noch Gegenstand aktueller Grundlagenforschung sind und die zur Verfügung stehende Datenbasis als nicht hinreichend gesichert anzusehen ist.

Im Gegensatz zu dem in Abschnitt 6.1 vorgestellten Modell des Stereolithographieprozesses folgt dieses Modell nicht dem maschinenorientierten Beschreibungsansatz, sondern dem prozess-orientierten Aufbau von Simulationsmodellen. Diese Strategie erweist sich häufig dann als die geeignetere Alternative, wenn der abzubildende Herstellungsprozess vorrangig in einer einzigen Fertigungszelle erfolgt und nicht mehrere Maschinen in fester Abfolge durchläuft. Im vorliegenden Fall orientierte man sich an den verschiedenen Phasen des Arbeitszyklus: Materialeinzug, Plastifizieren, Einspritzen und Nachdrücken ( Bild 6.13).

Die Validierung des Modells ergab eine Abbildungsgenauigkeit von über 98 % im spezifizierten Prozessfenster für die geometrischen Größen und 86 % für die thermische Leitfähigkeit. Somit kann auch der prozessorientierte Beschreibungsansatz als vollständig geeignet für den Aufbau abweichungsbetrachtender Simulationsmodelle angesehen werden.

Bild 6.13: Screenshot des Gesamtmodells „Kunststoffspritzguss“

Ereignisverwalter Reset Init T_Maschinenparameter

Quelle Einzug Plastifiziervorgang

Einspritzvorgang NachdruckphaseFertige_Bauteile

T_FertigeBauteile M_FertigeBauteile

Page 101: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 6 Anwendung des Leitfadens 83

6.3 Aufbau des Prozessmodells „Schablonendruck“ Auch das Schablonendruckverfahren aus dem Bereich der Elektronikproduktion wurde im Rahmen einer teilprojektübergreifenden Kooperation im Sonderforschungsbereich 694 als abweichungs-betrachtendes Simulationsmodell abgebildet. Partner war hier der Lehrstuhl für Fertigungsautomati-sierung und Produktionssystematik, an welchem das Teilprojekt C1 bearbeitet wurde mit dem Titel „Qualität und Zuverlässigkeit von elektronischen Baugruppen mit erhöhten Anforderungsprofilen“.

Ziel dieser Modellbildung war es, eine fundierte Basis für die Zuverlässigkeitsprognose von Lotverbindungen zu schaffen, welche mit Hilfe des Schablonendruckverfahrens vorbereitet wurden. Eine zentrale Kenngröße stellt hierbei die Transfereffizienz dar: Diese gibt an, welcher Anteil des maximal möglichen Lotpastenvolumens aufgrund der Schablonengeometrie nach dem Bedrucken in den Öffnungen verbleibt. Je kleiner das sogenannte „Aspektverhältnis“ wird, also der Quotient aus der Fläche der Aperturöffnung zur Fläche der Aperturinnenwand, desto mehr Lotpaste verbleibt aufgrund der steigenden Adhäsionskräfte in der Öffnung. Mit dem vorliegenden Modell ist es erst-mals möglich, verschiedene Konstellationen aus Aperturöffnung, Lotpastenzusammensetzung und Schablonentyp simulationsbasiert auf ihre Prozessstabilität hin zu untersuchen (Bild 6.14, Dialog).

Das Modell bildet die Herstellung eines Testschaltungsträgers unter Rahmenbedingungen ab, die in dieser Form vorher noch nicht explizit in der Realität erprobt wurden, obwohl die Fertigungseinrichtungen vorhanden sind und bereits in anderen Konfigurationen intensiv genutzt werden. Demzufolge handelt es sich beim Aufbau dieses Modells nicht wie bei den in den Abschnitten 6.1 und 6.2 vorgestellten Beispielen um Anwendungen im Rahmen von Re-Designs, sondern um ein Prozess-Neu-Design ( Abschnitt 4.3.2). Allerdings beginnt das Neu-Design nicht auf der untersten Stufe, dem Fertigungskonzept, sondern beim Maschinenkonzept und den darauf aufbauenden Prognosen der Maschinen- und Prozessfähigkeit. Die Definition einer Vorgabe für die Abbildungsgenauigkeit erschien deshalb in diesem Beispiel nicht sinnvoll, da die realen Fertigungseinrichtungen für Validierungsstudien im Zuge der Verify-Phase noch nicht herangezogen werden konnten. Dies ist jedoch im Rahmen weiterführender Kooperationsprojekte geplant.

Das Modell ist entsprechend einem Hybrid-Ansatz aus maschinenorientiertem und prozessorientiertem Aufbau konzipiert: Während die Prozessphasen „Einfahren_Klemmen“, „Positionieren_Zustellen“, „RakelVerfahren“, „Trennen_Absenken“ und „Lösen_Ausfahren“ in einer einzigen Fertigungszelle durchlaufen werden, erfolgt die Endprüfung in einem separaten Messsystem zur Erfassung der 3D-Geometrie der Lotpastendepots (Bild 6.14).

Die Ergebnisse der Versuche mit dem auf diesem Ansatz basierenden Simulationsmodell verliefen äußerst zufriedenstellend für beide Kooperationspartner. Die weitere Präzisierung des Modells zur Begleitung der Prozessentwicklung verspricht eine erhebliche Effizienzsteigerung bei der Generierung von Prozesswissen gegenüber den klassischen Forschungsansätzen.

Bild 6.14: Screenshot des Gesamtmodells „Schablonendruck“

Leitpastensorte P1Flächenverhältnis 0,39Schablone C

OK Abbruch Übern.

T_E

rgeb

-ni

sse

Wer

tzu-

wei

sung

Dia

log

Res

et

Erei

gnis

-ve

rwal

ter

Leiter-platte

M_Leiter-platte

Einfahren_ Klemmen

Positionieren_Zustellen

RakelVerfahren Trennen_ Absenken

Lösen_ Ausfahren

Qualitäts-kontrolle

Bestücker

T_Ergeb-nisse

Dialog

Page 102: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

84 Aufbau und Anwendung der vQM-Funktionsmodule Kapitel 7

7 Aufbau und Anwendung der vQM-Funktionsmodule

Zur Validierung des in Kapitel 5 vorgestellten Referenzmodells wurden im Rahmen dieser Arbeit mehrere etablierte Qualitätsmanagementwerkzeuge für den Einsatz in der virtual Reality adaptiert. Im folgenden Kapitel werden diese verschiedenen Werkzeuge nach einem kurzen Gesamtüberblick eingehend vorgestellt. Um das volle Potenzial des Referenzmodells darzustellen und Wiederholungen zu vermeiden, wird seine Anwendung jedoch nur am komplexesten vQM-Funktionsmodul, dem vQM-SPC-Modul erläutert.

Einsatz abweichungsbetrachtender Simulationsmodelle Als Basis aller weiterführenden Studien dient im Rahmen des vQM-Ansatzes das jeweilige abweichungsbetrachtende Simulationsmodell ( Kapitel 4 und 6). Hierbei sollten ausschließlich die abgebildeten und nach einer intensiven Modellvalidierung freigegebenen Zielgrößen als Betrachtungsgegenstand herangezogen werden, da ansonsten eine gesicherte Abschätzung der Irrtumswahrscheinlichkeiten nicht mehr gewährleistet werden kann.

vQM-Klimamodul als Ergänzung der Simulationsmodelle Zur Abbildung von globalen Umgebungsparametern, die für das gesamte Simulationsmodell gelten sollen, wie zum Beispiel die Umgebungstemperatur, die Luftfeuchtigkeit oder eventuelle Vibrationsamplituden des Fundaments, wurde das vQM-Klima-Modul entwickelt. Mit Hilfe dieser Komponente ist es für den Anwender sehr komfortabel möglich, beliebige Umgebungsparameter entweder als Fixwert bereitzustellen, als Zufallsgrößen, die einer definierten Verteilungsform folgen und zu vorgegebenen Punkten der simulierten Zeitschiene mit Hilfe der Monte-Carlo-Simulation selbsttätig neu festgelegt werden oder über die Abbildung historischer Parameterverläufe (z. B. Einlesen und Wiedergabe einer Temperaturverlaufskurve). Hierzu können über diverse Schnittstellen entsprechende Daten in das Simulationsmodell importiert werden. Je nach Codierung der Daten kann eine enthaltene Zeitschiene zum Update der globalen Variablen herangezogen oder gegebenenfalls auf einen festen Aktualisierungszyklus zurückgegriffen werden.

Bild 7.01: Überblick über die entwickelten vQM-Funktionsmodule

Abweichungsbetrachtende Simulationsmodelle

vQM-Kennzahlen-Cockpit

vQM-Prüfprozess-eignung

vQM-Maschinen-fähigkeit

vQM-Prozess-fähigkeit

Pro

zess

bew

ertu

ngO

ptim

ie-

rung vQM-Auslegung, -Erprobung und

-Optimierung von Qualitätsregelkarten

vQM-Klimamodul

Page 103: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 7 Aufbau und Anwendung der vQM-Funktionsmodule 85

Werkzeuge zur Prozessbewertung Im Bereich der Bewertung von Fertigungsprozessen werden zwei unterschiedliche Ansätze verfolgt: Ausgehend von der realen Beurteilung von Fertigungsprozessen hinsichtlich der gestellten Qualitätsanforderungen, wurde nachfolgend die vollständige Validierungskette abgebildet, welche aus den Stufen besteht:

vQM-Prüfprozesseignung (Abschnitt 7.1), vQM-Maschinenfähigkeitsuntersuchung (Abschnitt 7.2) und vQM-Prozessfähigkeitsuntersuchung (Abschnitt 7.2).

Während die beiden letztgenannten Werkzeuge im Rahmen der Anwendung in das bestehende abweichungsbetrachtende Simulationsmodell integriert werden, wird die Abbildung des Messgerätes zur vQM-Prüfprozesseignung aus dem Modell vollständig herausgelöst und in eine separate virtuelle Testumgebung transferiert. Dies ist vor allem erforderlich, um die komplexen Vorgänge zur Lenkung von Normalen und Meisterteilen adäquat abbilden zu können.

Daneben wurden – losgelöst von den oben genannten Fähigkeitsstudien – Untersuchungen zum Aufbau eines vQM-Kennzahlen-Cockpits angestellt, mit dessen Hilfe die Prozesse multikriteriell bewertet werden können, sodass neben dem Qualitätsaspekt auch die Faktoren „Kosten“ und „Zeit“ in die Betrachtung mit aufgenommen werden. In jeder der drei Kategorien stehen eine Vielzahl unterschiedlicher Kennzahlen zur Verfügung, die je nach Anwendungsfall frei kombiniert und zu einem übergreifenden Key Performance Indikator verdichtet werden können (Abschnitt 7.3).

Virtuelle Auslegung, Erprobung und Optimierung von Qualitätsregelkarten Neben dem reinen Bewerten von Fertigungsprozessen können die abweichungsbetrachtenden Simulationsmodelle auch bei Optimierungsaufgaben ihr volles Nutzenpotential ausschöpfen. Im Zuge dieser Arbeit wurde deshalb das Auslegen, Validieren und vor allem das Optimieren von Qualitätsregelkarten mit Hilfe des virtuellen Qualitätsmanagements erforscht. Das hieraus entstandene vQM-Funktionsmodul zur statistischen Prozesslenkung (vQM-SPC) kann in seiner Basisanwendung die qualitätsbezogenen Kosten eines Regelkartendesigns ermitteln und dabei nach prozessspezifisch definierten Verhaltensmustern auf verschiedene Arten von Phänomenen unterschiedlich reagieren, wie zum Beispiel Verletzungen der Eingriffsgrenzen, Trends, Runs etc.

Darüber hinaus kann durch Einsatz der Computational Intelligence in Form genetischer Algorithmen eine automatisierte Optimierung von Qualitätsregelkarten vorgenommen werden. Nach der Definition eines Testfeldes für die Parameter „Obere Eingriffsgrenze“, „Untere Eingriffsgrenze“, „Stichprobenumfang“ und „Stichprobenabstand“ kann mit Hilfe des oben genannten heuristischen Optimierungsverfahrens – je nach Konfiguration und Modellkomplexität – binnen weniger Minuten eine signifikante Reduzierung der qualitätsbezogenen Kosten über die einzelnen Simulationsläufe hinweg erreicht werden. Eine ausführliche Beschreibung des Modulaufbaus nach dem Referenzmodell folgt in Abschnitt 7.4.

Zusammenspiel der vQM-Werkzeugpallette Im Rahmen der vorliegenden Arbeit wurde die vollständige SPC-Validierungskette aus Prüfprozess-, Maschinenfähigkeits- und Prozesszähigkeitsanalyse in der Virtual Reality abgebildet (Bild 7.01). Diese sollte standardmäßig durchlaufen werden, bevor eine simulationsbasierte Auslegung einer Regelkarte durchgeführt wird. Liegen jedoch – gerade im Falle eines Prozess-Re-Designs geringer Neuerungstiefe – fundierte Prozesskenntnisse vor, so kann diese Kette auch übersprungen werden, was jedoch nur in Rücksprache der Prozesseigner mit entsprechenden Fachexperten erfolgen sollte. Die Module liegen in einer Form vor, die ohne große Modellveränderungen in jedes beliebige vQM-Simulationsmodell implementiert und ohne tiefere Programmierkenntnisse über graphische Benutzeroberflächen bedient werden können.

Page 104: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

86 Aufbau und Anwendung der vQM-Funktionsmodule Kapitel 7

7.1 vQM-Prüfprozesseignung „Die Vorgehensweise bei Prüfmittelfähigkeitsuntersuchungen wurde in erster Linie von der Automobilindustrie entwickelt. Eine Norm, in der diese Betrachtungsweise festgelegt ist, gibt es bis heute nicht.“ [DIETRICH 2007:44]. Das in der Form eines vQM-Funktionsmoduls abgebildete Vorgehen orientiert sich daher stark an der Vorgehensweise zur „Measurement Systems Analysis“ (MSA), wie sie von der Automotive Industry Action Group (AIAG) herausgegeben wurde [AIAG 2002]. Im Rahmen des Funktionsmoduls wurde der vollständige, mehrstufige Ablaufplan dieser Methodik abgebildet: Im Zuge des Vorlaufs wird nach einem Abgleich der zu prüfenden Merkmalspezifikation mit der zugesicherten Auflösung des Messgerätes validiert, dass das heranzuziehende Normal bzw. das Referenzteil über eine ausreichend genaue und rückgeführte quantifizierte Angabe des zu prüfenden Merkmalkennwertes verfügt. Danach erfolgt optional bei zu erwartenden Linearitätsabweichungen noch der entsprechende Nachweis der Anforderungs-konformität.

Nachfolgend werden verschiedene Verfahren zur Feststellung der Prüfprozesseignung angewandt: Im Verfahren 1 werden systematische Messabweichung und Wiederholpräzision bestimmt, welche sich unter anderem in den bekannten cg- bzw. cgk-Werten widerspiegeln. Wird dieser Test bestanden, muss entschieden werden, ob ein möglicher Bedienereinfluss betrachtet werden soll oder nicht. Je nachdem kommt entweder das Verfahren 2 (mit Betrachtung des Bedienereinflusses) oder das einfachere Verfahren 3 (ohne Betrachtung des Bedienereinflusses) zur Anwendung. Beide Varianten wurden im vQM-Funktionsmodul abgebildet und stehen dem Anwender zur Verfügung.

Die in der Realität anschließenden Messbeständigkeitskontrollen wurden allerdings in der prototypischen Applikation nicht mit abgebildet, da diese vor allem zur Erstvalidierung als Vorstufe der virtuellen Maschinenfähigkeitsanalyse konzipiert wurde. Die abgebildete virtuelle Untersuchung der Prüfprozessfähigkeit endet deshalb bei der Freigabe des Messgerätes für die simulierte Fertigung.

Bild 7.02: Migration des Prüfprozesses in die virtuelle Testumgebung

Modul PrüfprozessVirtuelle Bauteileggf. Werkerdaten

MaschineEin-gang

Aus-gang

Prozess

5M

SimulationsumgebungPrüfprozess

Aus-gang

Virtuelle Testumgebung

Pool virt.Normale

DatenEin-gang

y

n*

Prüfprozess

Page 105: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 7 Aufbau und Anwendung der vQM-Funktionsmodule 87

Für die Validierung des Prüfprozesses sind komplexe Steuerungsalgorithmen mit den dazugehörigen Programm-Modulen erforderlich. Deswegen wären tiefgreifende Modifikationen an einem zugrundliegenden abweichungsbetrachtenden Simulationsmodell erforderlich, um die entsprechenden Versuche durchzuführen. Aus diesem Grund ist es ratsam, die Komponenten des Prüfprozesses aus dem Gesamt-Modell zu exportieren und in eine separate virtuelle Testumgebung zu implementieren. Hierbei werden neben den Programmbestandteilen des Prüfprozesses auch Informationen zu den Prüflingen und gegebenenfalls - bei Berücksichtigung von Bedienereinflüssen - den Anwendern übertragen (Bild 7.02). Die Implementierung des vQM-Klimamoduls in die virtuelle Testumgebung ist ebenso einfach möglich: Durch die Flexibilität der erforderlichen Schnittstellen ist der Einsatz dieser Komponente auch im Rahmen von Prüfprozesseignungsstudien sinnvoll und oftmals zwingend, um zur Realität analoge virtuelle Umgebungsbedingungen zu gewährleisten, wie dies im übergeordneten Prozessmodell der Fall ist.

Die Benutzerführung wird durch eine Eingabemaske unterstützt, in der alle relevanten Basis-einstellungen vorgenommen werden können. In einer zweiten Hierarchie-Ebene sind weiter-führende Modifikationen möglich, die für ausgewiesene Experten auf dem Gebiet der Prüfprozesseignung (z. B. Six Sigma Black Belts) ausgelegt ist und nicht zur Durchführung von Studien gemäß allgemein anerkannter, vordefinierter Standards [DIETRICH 2007] erforderlich ist.

Im Zwischenlager (Bild 7.03) werden die in der Quelle instantiierten Normale und Serienteile verwahrt. Die Flussteuerung (Bild 7.03, FlussSt) übernimmt die Verwaltung des Lagers und sorgt für die ablaufkonforme Zuführung der Normale bzw. Serienteile zum Prüfplatz. Im Zuge der Daten-Extraktion werden die ermittelten Ergebnisse gesammelt, verdichtet und visualisiert.

Zum Abschluss des Simulationslaufes wird ein Statusreport im HTML-Format generiert, der auf allen internetfähigen Rechnern gelesen werden kann, ohne Lizenzen eines mitunter teuren Simulationsprogramms vorhalten zu müssen. Der Bericht gibt auf der ersten Seite eine Gesamtübersicht des Prüfverfahrens mit einer globalen Fähigkeitsaussage. Auf mehreren nachgeschalteten Seiten sind die Detailinformationen zu den einzelnen Tests dokumentiert.

Im Zuge der Validierung dieses Ansatzes wurde das abweichungsbetrachtende Simulationsmodell eines digitalen Feinzeigers nach dem Leitfaden gemäß Kapitel 4 mit einer nachgewiesenen Abbildungsgenauigkeit von über 99 % aufgebaut. Im Rahmen der Forschungsarbeiten wurden vergleichende Prüfprozessfähigkeitsstudien sowohl am realen Aufbau als auch am Simulationsmodell durchgeführt. Die Abweichungen der Studienergebnisse zwischen Realität und virtueller Abbildung lagen innerhalb des vorgegebenen Unsicherheitsbereichs von ± 1 %.

Somit konnte nachgewiesen werden, dass bei einer entsprechenden Abbildungsgenauigkeit des zugrundeliegenden Simulationsmodells die virtuelle Abnahme von Prüfprozessen auf der Basis norm-ähnlicher Standards möglich und sinnvoll ist. Durch die Überführung der Studienergebnisse in ein weit verbreitetes Datenformat ist sichergestellt, dass die Informationen simulationsunabhängig von allen beteiligten Personen im Normalfall problemlos weiterverarbeitet werden können.

Bild 7.03: Screenshot der virtuellen Testumgebung

Quelle ZwischenLager Prüfplatz DatenExtraktion Senke

FlussSt

Page 106: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

88 Aufbau und Anwendung der vQM-Funktionsmodule Kapitel 7

7.2 vQM-Maschinen- und -Prozessfähigkeitsuntersuchung Die entwickelten vQM-Funktionsmodule zur vQM-Maschinen- und -Prozessfähigkeitsuntersuchung sind über weite Bereiche hinweg ähnlich aufgebaut, weshalb die gemeinsame Betrachtung beider Module in einem Abschnitt unnötige Redundanzen vermeidet. Beide Werkzeuge arbeiten auf dieselbe Art und Weise mit dem abweichungsbetrachtenden Simulationsmodell zusammen, indem sie die benötigten Prozessdaten über einen Transferalgorithmus importieren und weiterverarbeiten. Ein simulationsinterner Schluss der Regelschleife durch eine Rückkopplung der Ergebnisse während des Simulationslaufes ist nicht vorgesehen. Bild 7.04 zeigt das Zusammenspiel von abweichungsbetrachtendem Simulationsmodell und dem jeweiligen vQM-Funktionsmodul.

Bild 7.04: Zusammenspiel von vQM-MFU/PFU-Funktionsmodul und Simulationsmodell

vQM-Maschinenfähigkeitsuntersuchung Die beiden Komponenten des vQM-Funktionsmoduls „Maschinenfähigkeitsuntersuchung“ (vMFU), die Transfermethode und die Auswertelogik, werden separat in das bestehende abweichungs-betrachtende Simulationsmodell importiert. Die Analyse findet im Gegensatz zu der Bestimmung der Prüfprozesseignung nicht in einer separaten Testumgebung statt, sondern im Gesamtmodell selbst (Bild 7.05). Die Steuerung durch den Anwender erfolgt durch eine zugeschnittene Benutzeroberfläche, welche die Angaben zu dem zu untersuchenden Bauteil und den entsprechenden Parametern mit ihren Spezifikationsgrenzen aufnimmt. Auch Einschwingvorgängen wird durch die optionale Berücksichtigung eines Prozessvorlaufs Rechnung getragen.

Vor der eigentlichen Berechnung der Maschinenfähigkeitsindices werden eingangs allgemeine Tests auf insgesamt zwölf verschiedene Verteilungsformen durchlaufen, wobei sowohl diskrete als auch kontinuierliche Varianten abgeprüft und durch die jeweils zutreffenden Kennwerte beschrieben werden. Bei der Quantifizierung der Fähigkeitsindices cm (Gleichung 7.1) und cmk (Gleichung 7.2) wird auf die Spannweiten-Methode zurückgegriffen [DIETRICH 2003], da diese sich neben ihrer Einfachheit vor allem durch ihre Berechnungsform auszeichnet, die auf alle möglichen Verteilungsformen Anwendung finden kann, wie sie in der [DIN ISO 21747] klassifiziert sind.

minmaxm xx

USGOSGc−−

= (Gleichung 7.1)

⎭⎬⎫

⎩⎨⎧

−−

−−

=minmax

mk xµ̂USGµ̂;

µ̂xµ̂OSGminc

(Gleichung 7.2)

MaschineEin-gang

Aus-gang

Prozess

5M

Simulationsumgebung

Prüfprozess

vQM-MFU/PFUy

n

y

x

Datentransfer

Bericht

Page 107: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 7 Aufbau und Anwendung der vQM-Funktionsmodule 89

Die ermittelten Kennwerte werden im Rahmen des automatisch generierten Abschlussberichtes dokumentiert, welcher analog zu dem in Abschnitt 7.1 beschriebenen mehrstufigen Report im HTML-Format zur Verfügung gestellt wird. Nach der Beendigung der Analyse können die beiden Modulkomponenten wieder aus dem Modell entfernt werden. Der Eingriff in die Komponenten des zugrundeliegenden Simulationsmodells beschränkt sich dabei auf das Herauslöschen einer einzigen Zeile Quellcode, mit der im Zuge des Simulationslaufs die Transfermethode angesprochen wurde.

Bild 7.05: Screenshot des Simulationsmodells „Stereolithographie“ mit dem vMFU-Funktionsmodul

vQM-Prozessfähigkeitsuntersuchung Wie bereits eingangs erwähnt, sind das vMFU-Funktionsmodul und Werkzeug für die virtuelle Prozessfähigkeitsuntersuchung (vPFU) über weite Strecken ähnlich aufgebaut. Um Redundanzen zu vermeiden, werden diejenigen Aspekte nicht noch einmal erläutert, welche eine hohe Ähnlichkeit aufweisen. Diese sind:

Implementierung des Werkzeugs in das Gesamtmodell. Aufbau aus den zwei Komponenten „Auswertelogik“ und „Transfermethode“. Anwendung derselben Berechnungsformeln (nur die Zusammensetzung der betrachteten

Stichproben und die empfohlen Grenzwerte unterscheiden sich). Steuerung durch eine graphische Benutzeroberfläche. Berücksichtigung eines Vorlaufs. A-priori-Bestimmung der Verteilungsform der Zielgröße. Automatisierte Erstellung eines Abschlussberichtes im HTML-Format. Vorgehensweise beim Herauslöschen des virtuellen Werkzeugs.

Trotz dieser Überschneidungen gibt es dennoch wesentliche zusätzliche Funktionen des vPFU-Funktionsmoduls, um die komplexeren Anforderungen einer Prozessfähigkeitsermittlung abbilden zu können. Beispielsweise wird aus den Angaben zur Gestaltung des Stichprobenplans, welche über die graphische Benutzeroberfläche definiert werden (Bild 7.06), ein Steuerungsschema abgeleitet. Dies bestimmt, welche der virtuell gefertigten Bauteile für die Prozessvalidierung herangezogen werden und leitet deren Werkstückdaten zur Aufzeichnung weiter. Im Anschluss an den Simulationslauf werden diese Daten geschlossen ausgewertet.

Über eine einfache Varianzanalyse (engl. Analysis of Variances, ANOVA) wird abgeprüft, inwieweit der betrachtete Fertigungsprozess über eine ausreichende Kurz- bzw. Langzeitstabilität verfügt. Zusätzlich werden hierbei auch die Kenngrößen Gesamtstreuung sges und Gesamtmittelwert xbestimmt, welche zur Berechnung vorläufiger Eingriffsgrenzen einer Shewhart-Qualitätsregelkarte (Gleichung 7.3) nach [PAPULA 2001] benötigt werden.

Ereignis-verwalter

Reset Init

CAD-Datei STLDatei_

ErstellungBauprozess-parameter

PhysischeErstellung

Reinigung Nachbear-beitung

Fertige_Bauteile

T_CAD-Daten M_Fertige-

Bauteile

T_Fertige-BauteileTeilnetzwerk_MFU Methode_MFU

Auswertelogik Transfer-methode

Page 108: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

90 Aufbau und Anwendung der vQM-Funktionsmodule Kapitel 7

57821

121

1

221 ,uund)xx(

)k(nsσ̂mit

nσ̂ux

UEGOEG

kn

iiges/α ≈−⋅

−⋅+==⋅±=

⎭⎬⎫

=− ∑

(Gleichung 7.03)

Anhand der ermittelten Stichprobenwerte und der berechneten Eingriffsgrenzen wird abschließend eine „Pseudo-Regelkarte“ erstellt, welche den zeitlichen Verlauf der Messwerte mit den berechneten Eingriffsgrenzen in Beziehung setzt. Da diese Darstellung jedoch erst nach dem Simulationslauf erstellt wird und keine simulationsinterne Rückkopplung von Prozesseingriffen erfolgt, kann hier nicht von der vollwertigen Anwendung des Qualitätswerkzeugs „Regelkarte“ gesprochen werden.

Bild 7.06: Screenshot der graphischen Benutzeroberfläche des vPFU-Funktionsmoduls

vQM-Messgerät Als zusätzliche optionale Komponente wurde ein virtuelles Messgerät in beide Funktionsmodule implementiert, welches das Verhalten eines realen Messgerätes in seinen Grundzügen abbildet. Diese Funktion steht für den Fall zur Verfügung, dass man kurzfristig Fähigkeitsuntersuchungen durchführen möchte an unvorhergesehenen Punkten bzw. anhand von Produktparametern, für die keine virtuelle Abbildung eines zugehörigen Messgerätes vorhanden ist. Bei zugeschalteter Funktion werden mit Hilfe der in der Benutzeroberfläche vorgegebenen Restriktionen zu Verteilungsform, erweiterter Messunsicherheit und Vertrauensfaktor kp die eingehenden „wahren Werte“ mit der Verteilung überlagert, was zu „virtuellen Messwerten“ führt, welche dann in den weiterführenden Analysen verarbeitet werden. Parallel werden auch die Berechnungen an den „wahren Werten“ durchgeführt und im Abschlussbericht ausgegeben. Dies erlaubt dem Benutzer eine erste quantitative Abschätzung des Messunsicherheits-Einflusses auf das Untersuchungs-ergebnis und kann auch für die virtuelle Auslegung von Prüfprozessen eingesetzt werden.

Page 109: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 7 Aufbau und Anwendung der vQM-Funktionsmodule 91

7.3 vQM-Kennzahlen-Cockpit Neben den in den Kapiteln 7.1 und 7.2 vorgestellten Werkzeugen zur Prozessbewertung wurde im Rahmen dieser Arbeit das vQM-Kennzahlen-Cockpit entwickelt. Mit diesem Modul ist es möglich, Prozesse während des Simulationslaufs multikriteriell zu bewerten und daraus Erkenntnisse über die Parameterkonfiguration bzw. für den späteren Ablauf des Prozesses abzuleiten. Das diesem Werkzeug zugrundeliegende Kennzahlensystem betrachtet dabei die drei klassischen Aspekte des Spannungsdreiecks, in dem sich jedes Unternehmen positionieren muss (vgl. [MASING 1999], [LINß 2005]):

Qualität (Erfüllt das Produkt die Erwartungen/Spezifikationen des Kunden?) Zeit (Muss der Kunde nicht zu lange warten? Ist der Termin haltbar?) Kosten (Ist der Kunde bereit, den erforderlichen Preis für das Produkt zu zahlen?)

Für jeden dieser Bereiche wurden exemplarisch drei Kennzahlen aus dem reichhaltigen Portfolio ausgewählt, das in der einschlägigen Literatur zur Verfügung steht (vgl. [KRAUSE 2008], [FISCHERMANNS 2006] oder [FRANCESCHINI 2006]). Bild 7.07 gibt einen Überblick über die ausgewählten und in das vQM-Funktionsmodul implementierten Kennzahlen (sog. Performance Indikatoren, PI) und den dazugehörigen Formeln.

Bild 7.07: Aufbau der realisierten vQM-Kennzahlensystematik

Das Werkzeug ist jedoch so konzipiert, dass ohne umfangreichen Programmieraufwand weitere Kennzahlen in den oben genannten Kategorien abgebildet werden können. Allerdings sind alle Performance Indikatoren zu normieren auf Werte zwischen 0 und 100 %, wobei der letztgenannte Wert immer für die optimale Erfüllung der Anforderung steht. Über Gewichtungsfaktoren können für die einzelnen Aspekte „Qualität“, „Kosten“ und „Zeit“ unterschiedliche Gewichtungsfaktoren definiert werden, um die Wichtigkeit der jeweiligen Sichtweise zu berücksichtigen.

Qualitätsquote

PI KostenPI Qualität

vKPI

PI Zeit

Fehlerkostenanteil

Verfügbarkeit

Gefertigte

.O.iQuote n

nQ =

Fertigung

FehlerFehler Kosten

KostenKA =

Betrieb

StörungBetriebQuote t

ttBereit

−=

Energiekostenanteil

Kosten pro Einheit

Prüfkostenanteil

Fertigung

EnergieAnteil Kosten

KostenE =

Serie

SerieEinheit n

KostenKosten =

Fertigung

üfungPrAnteil Kosten

KostenPK =

Durchlaufzeit

Lagerreichweite

Rüstzeit

∑=

=n

ii_ttozessschriPrDurchlauf tt

1

odPr

LagerLager Verbrauch

dtanBesRW =

GewichtungQ GewichtungK GewichtungZ

V

V

V

V

V

V

V = logisches Oder

∑=

=n

iiRüsten tt

1

Page 110: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

92 Aufbau und Anwendung der vQM-Funktionsmodule Kapitel 7

Bei der Anwendung des vQM-Kennzahlen-Cockpits werden die Daten über trigonometrische Funktionen und dem Satz von Heron zu einer übergeordneten Kennzahl verknüpft, einem „Key Performance Indikator“ (KPI), der dem gewichteten Flächeninhalt des aufgespannten Dreiecks entspricht (Bild 7.08). Diese Berechnungsweise hat sich aufgrund ihrer Reaktion auf Extremwerte bei der Bestimmung des globalen Erfüllungsgrades als besonders wirkungsvoll erwiesen. Nachfolgend ist die Herleitung des vQM-Key Performance Indikators aus den drei PI dargelegt:

⎟⎠

⎞⎜⎝

⎛ −++

⋅⎟⎠

⎞⎜⎝

⎛ −++

⋅⎟⎠

⎞⎜⎝

⎛ −++

⋅++

= ZKZKQKZQ

QKZKQKZQ

ZQZKQKZQZKQKZQ lllllllllllllllvKPI

2222

mit ( ) ( ) ( ) ( ) ( )°⋅⋅⋅⋅⋅−⋅+⋅= 120222 cosPIGPIGPIGPIGl QQZZQQZZZQ

( ) ( ) ( ) ( ) ( )°⋅⋅⋅⋅⋅−⋅+⋅= 120222 cosPIGPIGPIGPIGl KKQQKKQQQK

( ) ( ) ( ) ( ) ( )°⋅⋅⋅⋅⋅−⋅+⋅= 120222 cosPIGPIGPIGPIGl KKZZKKZZZK

(Gleichungen 7.04 - 7.07)

Bild 7.08: Graphische Darstellung des vQM-Kennzahlensystems

Das Modul wird ähnlich wie bei den vQM-MFU- bzw. PFU-Modulen (Bild 7.04) in das abweichungsbetrachtende Simulationsmodell importiert. Aufgrund der diversen zu bildenden Kennzahlen und der damit komplexeren Datenerfassung bezüglich Parametern und Messpunkten, ist die Datentransferkomponente jedoch erheblich umfangreicher. Eine einzelne Transfer-Methode wäre deshalb nur schwerlich in der Lage gewesen diese Aufgaben abzubilden, sodass hierfür umfangreichere Programmieraufgaben zu lösen waren, um weiterhin nur mit einem Minimum an Modifikationen im zugrundeliegenden abweichungsbetrachtenden Simulationsmodell auszu-kommen. Auch weist das vQM-Kennzahlen-Cockpit keine Berichtsfunktion auf, da es als reines Monitoring-Tool konzipiert ist, sondern nur eine graphische in-simulation-Auswertung, wie sie in Bild 7.08 dargestellt ist.

100%

PI Qualität

PI Zeit PI Kosten

PIKPIZ

PIQ

lZQ lQK

0 %

lZK

GQ

GZ

GK

Page 111: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 7 Aufbau und Anwendung der vQM-Funktionsmodule 93

7.4 vQM- SPC-Modul Das vQM-SPC-Modul wurde mit der Intention entwickelt, dem Anwender eine komfortable Möglichkeit bereitzustellen, vollständige Qualitätsregelkreise vor ihrer Einführung im realen Prozess mit Hilfe von Simulationsstudien auszulegen, zu validieren und automatisiert optimieren zu können. Somit leistet dieses Funktionsmodul einen wichtigen Beitrag zu der in Kap. 4.1 dargelegten Vision des vQM-Ansatzes, Prozesse mit ausgereiften Qualitätsregelkreisen bereits zu Beginn der Serienfertigung bereit zu stellen, um somit eine optimale Qualität „vom ersten Teil an“ zu gewährleisten.

Das entwickelte Werkzeug wurde mit Hilfe der in Kap. 5 dargestellten Referenzarchitektur und unter Anwendung der erläuterten Adaptionsstrategie systematisch konzipiert, aufgebaut und anhand der zur Verfügung stehenden abweichungsbetrachtenden Simulationsmodelle eingehend erprobt. Auf den nachfolgenden Seiten wird der Aufbau des Funktionsmoduls anhand der fünf „Sichten“ gemäß der vQM-Referenzarchitektur dargelegt.

7.4.1 Organisationssicht

Das zu entwickelnde vQM-Funktionsmodul für die statistische Prozessregelung weist gemäß Kap. 5.1.1 den höchstmöglichen Komplexitätsgrad auf, da es sich um ein programminternes Werkzeug handelt, das neben der reinen Auswertung auch während des Simulationslaufes ohne Zutun des Benutzers proaktiv in den virtuellen Fertigungsprozess eingreift. Als zusätzliche Steigerung verfügt das Tool auch noch über erforderliche Funktionen, um den Qualitätsregelkreis ohne Eingriff des Anwenders mit Hilfe der CI zu optimieren.

Organisationsansatz Das Werkzeug besteht aus den drei organisatorischen Komponenten: „Datentransfer“, „Methode für prozessspezifische Eingriffs- bzw. Regelstrategien“ und „vQM-SPC-Funktionsmodul“ (Bild 7.09). Die Computational Intelligence-Komponenten (hier: Genetische Algorithmen) sollen nicht als separates Werkzeug importiert werden müssen, sondern sind in dem vQM-SPC-Funktionsmodul zu integrieren. Desweiteren ist bei der Konzeptionierung dieses Werkzeugs darauf zu achten, dass die Schnittstellen trotz der komplexen Eingriffe in das Simulationsmodell möglichst einfach und flexibel gehalten sowie die Modifikationen am zugrundeliegenden Simulationsmodell auf ein absolutes Minimum begrenzt werden.

Bild 7.09: Organisationssicht

MaschineEin-gang

Aus-gang

Prozess

5M

Simulationsumgebung

Prüfprozess

vQM-SPCBericht

DatentransferRegel-strategie

Prozesseingriff

y

nGen. Alg.

Page 112: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

94 Aufbau und Anwendung der vQM-Funktionsmodule Kapitel 7

vQM-Mission Profile Im Rahmen des vQM-Mission-Profiles werden die Randbedingungen für die Standardeinsatzfälle des SPC-Funktionsmoduls definiert. Neben den oben erläuterten Restriktionen durch den Organisationsansatz gelten für das entwickelte Qualitätsmanagementwerkzeug nachstehende Forderungen:

Normanwender Besitzt keine tieferen Programmierkenntnisse im Rahmen von Simulationsstudien, das heißt er kann die Simulationsmodelle bedienen, muss sie aber nicht zwingend selbst erstellen können. Zielgruppe: Prozessplaner, Prozesseigner.

Simulationsumgebung Plant Simulation, Version 9.1, Research License, Hersteller Siemens PLM.

Zugrundeliegendes Simulationsmodell Aufgrund des zu virtualisierenden Werkzeugs, „Qualitätsregelkarte“, Einschränkung auf Abbildungen von (Fertigungs-)Prozessen. Aufbau anhand des Modells nach dem Leitfaden (Kapitel 4) dringend empfohlen.

Simulationsziele a) Ziel der Simulationsstudie ist es, einen vollständigen Qualitätsregelkreis mit

fallspezifischen Interventionsstrategien abzubilden und bei einer gegebenen Parameter-konstellation Abschätzungen über zu erwartende qualitätsbezogene Kosten zu erhalten.

b) Ein weiteres Ziel ist es, Qualitätsregelkreise automatisiert auszulegen, zu validieren und zu optimieren unter Zuhilfenahme der Möglichkeiten der Computational Intelligence.

Qualitätsmanagementwerkzeuge Qualitätsregelkarten sind abzubilden in den verschiedenen Ausprägungen: Shewhart-Regel-karten, weitere Lage- bzw. Streuungskarten, Varianten mit und ohne Gedächtnis sowie mindestens ein multivariater Ansatz.

7.4.2 Datensicht

Im Zuge der virtuellen Auslegung von Qualitätsregelkarten werden umfangreiche Informationen aus dem zugrundeliegenden abweichungsbetrachtenden Simulationsmodell benötigt: Diese umfassen neben den Abgaben über die virtuell gemessenen Zielgrößen unter anderem auch die Häufigkeit von Nacharbeitshandlungen und die Anzahl an Schlupfteilen je Fertigungslos.

Eine Anbindung simulationsferner Quellen ist über dieses vQM-Funktionsmodul nicht vorgesehen. Jedoch ist eine Öffnung gegebener Schnittstellen des Werkzeugs und der Simulationsumgebung im Nachhinein problemlos möglich.

Die Eingabe von Simulationsparametern durch den Bediener über die Eingabemaske (Bild 7.10) ist eine elementare Komponente der Datensicht: Je nach Zielsetzung kann die Computational Intelligence zugeschaltet werden. Entsprechend werden benötigte Felder zur Eingabe geöffnet und andere passiviert. Auch können über die Eingabemaske Angaben zu gegebenenfalls eingesetzten vQM-Messgeräten gemacht werden. Hierfür sind zwei separate Applikationen vorzusehen, um auch bei der Auslegung multikriterieller Regelkartentypen flexibel auf gestellte Anforderungen reagieren zu können.

Zur Abschätzung der qualitätsbezogenen Kosten eines Fertigungsprozesses werden weiterführende Angaben durch den Anwender benötigt zur Beschreibung der Einzelkosten für eine Prüfung, einen Nacharbeitsschritt, ein Ausschuss- sowie ein Schlupfteil.

Page 113: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 7 Aufbau und Anwendung der vQM-Funktionsmodule 95

Bild 7.10: Graphische Benutzeroberfläche des vQM-SPC-Funktionsmoduls

7.4.3 Funktionssicht

Die Aufgaben des vQM-SPC-Funktionsmoduls lassen sich in erster Linie nach den zwei Anwendungsfällen dahingehend unterscheiden, ob die automatisierte Optimierung mit Hilfe genetischer Algorithmen vorgenommen werden soll oder nicht (Bild 7.11). Die Betrachtung der Funktionen des virtuellen Werkzeugs beginnt im Rahmen der Beschreibung dieser Sichtweise nach dem Import der Module und der Definition der Eingriffsstrategien und endet mit der Erstellung eines Abschlussberichtes.

Im sogenannten „Standardanwendungsfall“ (ohne GA-Einsatz) werden die erforderlichen Daten zur Auslegung einer ausgewählten Qualitätsregelkarte über die graphische Benutzeroberfläche (GUI) vom Anwender direkt eingegeben. Hieraus generiert die Software eine entsprechende Regelkarte und startet die virtuelle Produktion. In den vorgegebenen Intervallen werden Stichproben extrahiert, quantifiziert und auf Verletzung von Eingriffsgrenzen oder anderer Kriterien hin geprüft. Werden Anomalien festgestellt, so wird entsprechend der hinterlegten Eingriffsstrategien der Prozess vom Programm selbst verändert, bevor der Simulationslauf fortgesetzt wird. Wurde die vom Anwender vorgegebene Menge an virtuellen Produkten generiert, bricht die Simulation ab und erzeugt einen Abschlussbericht mit allen relevanten Informationen zu den Randbedingungen und den Ergebnissen des Simulationslaufs.

Weitaus komplexer ist der funktionale Aufbau, wenn eine automatisierte Optimierung der Qualitätsregelkarten mit Hilfe genetischer Algorithmen erfolgen soll (Bild 7.11): Hierfür wird eine funktionale Umgebung erforderlich, welche die Komponenten des Standardanwendungsfalls umgibt. Hierbei sind jedoch nur einmalig Eingaben des Anwenders erforderlich, da sowohl Parameterdefinition als auch Auswertung der Simulationsergebnisse selbsttätig vom Modul übernommen werden.

Page 114: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

96 Aufbau und Anwendung der vQM-Funktionsmodule Kapitel 7

Zusätzliche Schritte sind die Generation einer Population von Individuen (d.h. vollständige Sätze von Parameterkombinationen), Bereitstellung jeweils ungetesteter Individuen für die Simulations-läufe, die Berechnung gewichteter Fitnesswerte (Kap. 7.4.4), die Prüfung auf Erfüllung eines der beiden Abbruchkriterien sowie die Generation eines um die GA-Daten erweiterten Abschlussberichtes.

Bild 7.11: Virtueller Funktionsgraph des vQM-SPC-Moduls

7.4.4 CI-Sicht

Parallel zur Daten- und Funktionssicht werden in dieser Phase der vQM-Werkzeugkonzeptionierung die Unterstützungsmöglichkeiten durch die verschiedenen Varianten der Computational Intelligence betrachtet. Im hier betrachteten Beispiel wurde bereits im Rahmen der vQM-Mission-Profiles festgelegt, dass eine automatisierte Optimierung von Qualitätsregelkarten erfolgen soll, hinsichtlich der Minimierung der zu erwarteten qualitätsorientierten Kosten.

Die Wahl der geeigneten Strategie fällt dabei auf die evolutionären Ansätze, genauer auf die genetischen Algorithmen, weil diese sich gegenüber künstlichen Immunsystemen durch ihre strikte Orientierung auf Optimierungsprobleme auszeichnen, wohingegen künstliche Immunsysteme vorrangig bei der Mustererkennung und Klassifikation von Zuständen eingesetzt werden. Die Strategien der Schwarmintelligenz eignen sich durch ihre allgemeine Herangehensweise sehr gut für weitestgehend unbekannte Systeme zu Lasten der Effizienz bei der Findung eines Kostenminimums. Da jedoch die zugrundeliegenden Systemmodelle durch die systematische Analyse im Rahmen des Aufbaus eines abweichungsbetrachtenden Simulationsmodells nach dem vQM-Leitfaden weitgehend bekannt sind, gibt hier das Potential der Genetischen Algorithmen hinsichtlich Effizienz den Ausschlag für die Auswahl zugunsten dieses Ansatzes.

Für die Optimierung einer Regelkarte wurden die Parameter „Obere Eingriffsgrenze“, „Untere Eingriffsgrenze“, „Stichprobenabstand“ und „Stichprobenumfang“ gewählt. Entsprechende Angaben zu den Grenzen des Explorationsraums sowie des kleinsten zu prüfenden Abstands zwischen zwei Werten einer Dimension erfolgen über entsprechende Felder des Eingabefensters (Bild 7.10).

Als Kriterium zur Bewertung der „Fitness“ einzelner Individuen wurde die sogenannte „vQM-Fitness-Funktion“ entwickelt, die auf der Betrachtung der qualitätsbezogenen Kosten im Rahmen der Produktion eines definierten Fertigungsloses entstehen. Hierfür werden über den gesamten

Regelkarte vorbereiten

2

o

Virtuelle Produktion

3o

Population generieren

6

GA

nein

ja

Stichprobe ziehen/prüfen

4o

Interventions-algorithmus

5

Ein-griff

nein

oEndenein

Individumvalidieren*

2,3,4,5

*Simulation analog zum Lauf ohne Anwendung genetischer Algorithmen

o jaoZielwert erreicht

neino

Neues Indiv.

Nächstes Indi-viduum wählen

8

nein

ja

Individumvalidieren*

2,3,4,5

Auswertung Population

7 max. Iteration

ja

ja

nein

ja

Dateneingabe über GUI

1

Abschluss-bericht

9

Page 115: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 7 Aufbau und Anwendung der vQM-Funktionsmodule 97

virtuellen Fertigungslauf hinweg die Daten aufgezeichnet für die Kostenarten „Prüfkosten“, „Fehlerkosten“, „Eingriffskosten“ und „Schlupfkosten“. Für die jeweilige Kostenkategorie kann ein Gewichtungsfaktor definiert werden, welcher es erlaubt, die jeweilige Priorität der Kosten- bzw. Fehlerart zu quantifizieren. So haben sich gerade für die schwer bezifferbaren Folgen von nicht-spezifikationskonformen, an den Kunden ausgelieferten Baugruppen hohe Gewichtungsfaktoren bewährt, um die Regelkartenauslegestrategie in die gewünschte Richtung zu triggern. Der funk-tionale Zusammenhang der gewichteten qualitätsbezogenen Kosten wird in Gleichung 7.08 definiert.

∑ ⋅⋅=nKostenarte

KostenartKostenartKostenartIndividuum KostenEreignisse_AnzahlsfaktorGewichtungFitness

Gleichung 7.08: Fitnessfunktion des vQM-SPC-Funktionsmoduls

Der Optimierungsansatz des gewählten Genetischen Algorithmus verfolgt das Ziel, diese gewichteten qualitätsbezogenen Kosten bestmöglich zu minimieren, sodass Kostenpositionen mit besonders hohen Gewichtungsfaktoren entsprechend stark ins Gewicht fallen. Wird beispielsweise der Posten „Schlupfkosten“ mit einem entsprechend hohen Wert belegt, so haben diejenigen Parameterkonstellationen (Individuen) nur sehr geringe Chancen, in die nächste Generation aufgenommen zu werden, welche anfällig für unentdeckte, fehlerhafte Teile sind.

7.4.5 Steuerungssicht

Bei der Betrachtung der Steuerungsabläufe wird der Anwender bei der Erarbeitung des dazu gehörigen Konzeptes unterstützt durch die eigens hierfür entwickelten vQM-Werkzeuge ( Ab-schnitt 5.2.2). In Bild 7.12 ist das vQM-Ablaufdiagramm für den Einsatz des SPC-Funktionsmoduls dargestellt. Neben der graphischen Aufbereitung des groben Ablaufs sowie den damit verbundenen Eingangs- und Ausgangsgrößen werden hier die Informationsflüsse konkret abgebildet.

Bild 7.12: vQM-Ablaufdiagramm zur Anwendung des SPC-Funktionsmoduls

In einem nachfolgenden Schritt werden die einzelnen Aufgaben weiter auf die Methoden-Ebene heruntergebrochen. Das heißt auf diejenigen Einheiten, in denen in der anschließenden Programmierung die jeweiligen Tasks mit der zugrundeliegenden Logik implementiert werden. Hierfür haben sich Schwimmbahndiagramme bewährt. Da hier die Methoden bereits mit ihren endgültigen Namen definiert werden, bilden diese Schaubilder eine wichtige Grundlage bei der methodenübergreifenden Adressierung.

Daten-quellen

Inputdaten Ablauf WZ-Anwendung

Outputdaten Endanwender Prozesseigner

Ende

WZ: Werkzeug : Datenflüsse

Eingriffsregeln

Start

Modul-Import

Modul-Konfig.

Auswertung

vQM-SPC-Modul

Simulations-modell

Methode Eingriffsregeln

Eingriffs-strategie

Ausgelegte Regelkarte

Abschluss-bericht

Prozess-eigner

Qualitäts-beauftragter

SimulationSchichtführer

vQM-Werk-zeugpool

Projekt-Charta

ExpertenModellierung

Anwender GraphicalUser Interface

Page 116: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

98 Aufbau und Anwendung der vQM-Funktionsmodule Kapitel 7

Ein weiteres Werkzeug zur Vorbereitung einer reibungsfreien Vorbereitung zur Programmierung des SPC-Funktionsmoduls ist die vQM-Wechselwirkungsmatrix. Mit ihrer Hilfe lassen sich die Anforderungen der einzelnen – bis zu diesem Zeitpunkt betrachteten – Domänen sowie des Mission Profiles auf ihre Erfüllung hin überprüfen und mögliche Widersprüche identifizieren. In Bild 7.13 ist die Wechselwirkungsmatrix für das vQM-SPC-Funktionsmodul abgebildet. Wie in Kapitel 5.2.2 dargestellt, werden in den Zeilen der einzelnen Domänen die Forderungen aufgelistet, wohingegen in den anschließenden Spalten die Erfüllung bzw. die Nicht-Erfüllung durch die jeweilige Domäne geprüft und dokumentiert wird.

So steht beispielswiese die Forderung nach der Einbindung simulationsferner Quellen im Widerspruch zu den zur Verfügung stehenden Möglichkeiten der Datensicht, da für die im Zusammenhang mit dieser Arbeit aufgebauten abweichungsbetrachtenden Simulationsmodelle keine externen Quellen verfügbar waren. Da diese Anbindung nur ein optionales Feature im Rahmen der prototypischen Anwendung dargestellt und dem hohen Aufwand für deren Realisierung kein nennenswerter wissenschaftlicher Mehrwert gegenüber gestanden hätte, wurde auf die Konnektierung externer Datenquellen verzichtet und die Konzepte der Funktionssicht an diese veränderten Umstände angepasst.

Bild 7.13: vQM-Wechselwirkungsmatrix SPC-Funktionsmodul

Basierend auf dieser Referenzarchitektur kann im Folgenden die Programmierung des entsprechenden Funktionsmoduls begonnen werden. Die eigenen Erfahrungen mit dem in Kapitel 5 theoretisch vorgestellten und in Abschnitt 7.4 anhand eines praktischen Beispiels vorgestellten vQM-Referenz-Modells waren durchweg positiv. Anhand der strukturierten Vorgehensweise in Form der vQM-Adaptionsstrategie konnte ein Konzept entwickelt werden, welches trotz seiner Komplexität in der anschließenden Realisierung keine erwähnenswerten Schwierigkeiten bereitete.

Mis

sion

Pr

ofile

Dat

en-

sich

tFu

nktio

ns-

sich

tC

I-si

cht

CI-SichtFunktions-sicht

Daten-sicht

Organisa-tionsicht

Org

anis

a-tio

nssi

cht

GA-Konfiguration

GA-Einbindung

Einfache Bedienung

Flexible Schnittstellen

Abbildung Qualitätsregelkreis

Automatisierte Optimierung (optional)

Versch. Varianten von Regelkarten

Interventionsalgorithmen

Virtuelles Messgerät (optional)

All-in-One-Funktionsmodul

Graphische Benutzeroberfläche

Formatflexibilität bei Variablen

Eingaben vom Anwender

Abstimmen Abläufe in Sim.-Zeit

Einbindung simulationsferner Quellen

Bereitstellen von Eingabedaten

Abschlussbericht

Datentransfer Modell-Funktionsmodul

Datentransfer Funktionsmodul-Modell

Page 117: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 7 Aufbau und Anwendung der vQM-Funktionsmodule 99

7.5 Anwendungsbeispiel Stereolithographieprozess Zum Abschluss dieser Arbeit wird im Folgenden exemplarisch skizziert, wie das in Abschnitt 6.1 aufgebaute abweichungsbetrachtende Simulationsmodell des Stereolithographieprozesses unter Anwendung der in Kapitel 7 entwickelten virtuellen Qualitätsmanagementwerkzeuge systematisch auf seine Qualitätsfähigkeit hin untersucht wird. Im Anschluss erfolgt die virtuelle Auslegung und automatisierte Optimierung einer Shewhart-Qualitätsregelkarte für den realen Einsatz.

Prüfprozesseignung Das Stereolithographie-Modell verfügt über einen virtuellen digitalen Feinzeiger, der im Zuge der Prüfprozesseignung aus dem Gesamtmodell exportiert und in die virtuelle Testumgebung eingebettet wurde. Die hier angestellten Untersuchungen führten aufgrund der weit gefassten Prozessgrenzen zu einem cg-Wert von 11,11 von Seiten der Simulation. Vergleichsstudien am realen Messaufbau ergaben einen cg-Wert von 10,64, woraus abgeleitet werden kann, dass eine Prognose der zu erwartenden Prüfprozessfähigkeit mit einer Abbildungsgenauigkeit von über 95 % möglich ist.

Maschinenfähigkeit In der nächsten Phase wurde das vQM-MFU-Funktionsmodul in das Gesamtmodell importiert und konnektiert. Hierfür ist im Sinne eines Eingriffs in das Ausgangsmodell nur das Hinzufügen einer einzigen Zeile Quellcode zur Ausleitung der benötigten Daten erforderlich. Die Maschinenfähigkeits-studie ergab einen cm-Wert von 2,1, jedoch einen cmk-Wert von nur 1,1. Somit liegt der Mittelwert der Ergebnisse außermittig in dem Spezifikationsfenster.

Prozessfähigkeit Das vQM-MFU-Funktionsmodul wird nun durch das PFU-Pendant ersetzt. Gemäß der in Abschnitt 7.2 vorgestellten Aufgaben dieses virtuellen Qualitätsmanagementwerkzeugs werden neben der reinen Ermittlung der cp- und cpk-Werte auch Tests auf Normalverteilung und Langzeitstabilität durchgeführt. Bild 7.14 zeigt einen Auszug aus einem Abschlussbericht mit den Ergebnissen zur Langzeitstabilität.

Bild 7.14: Stabilitätsanalyse mit Hilfe der ANOVA im Rahmen der vQM-Prozessfähigkeitsanalyse

5,15

5,10

5,05

5,00

4,95

4,90

y_w

erti

n 10

-3m

Stichprobenmittelwerte

Nummer der Stichprobe1 3 5 7 9 11 13 15 17 19 21 23 25

H0 (stabile Mittelwerte): angenommen, Gesamtmittelwert 5,02 x 10-3m

Page 118: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

100 Aufbau und Anwendung der vQM-Funktionsmodule Kapitel 7

Die Analyse des cp-Wertes ergab, dass der Prozess mit einem Wert von 1,30 möglicherweise als gerade noch fähig hätte eingestuft werden können, jedoch aufgrund der außermittigen Zielwertverteilung und dem damit verbundenen cpk-Wert von 0,6 als „nicht-fähig“ abgelehnt wurde. Nach einer entsprechenden Modifikation des Simulationsmodells, mit der eine mögliche Umgestaltung des realen Prototypers erprobt werden sollte, konnten sowohl die Mittelwertverschiebung als auch die Streuung verringert werden. Abgeleitet wurden eine veränderte Anzahl an Wischerzyklen beim Harz-Auftrag sowie ein häufigeres Wechseln des Flüssigharzes, da die Veränderungen aufgrund des Harzalters als signifikant identifiziert werden konnten.

Regelkartenauslegung und -optimierung Für die Auslegung eines adäquaten Qualitätsregelkreises wurden die Elemente des vQM-PFU-Moduls aus dem Gesamtmodell gelöscht und durch das vQM-SPC-Funktionsmodul ersetzt. Zur Vorbereitung der Simulationsläufe wurden Eingriffsstrategien entwickelt für die Phänomene „untere Eingriffsgrenze verletzt“, „obere Eingriffsgrenze verletzt“, „Run“ und „Trend“. Es folgte nach diversen Testläufen eine Auswahl der zu optimierenden Regelkarte, wobei sich die Shewhart-Regelkarte wegen ihres ausgewogenen Umgangs mit Ausreißern und Trends bewährt hatte. Im Anschluss an die Auswahl konnte mit der Optimierung begonnen werden: Neben dem zu erreichenden Schwellwert wurde die Anzahl maximal zu prüfender Generationen willkürlich auf „7“ festgelegt. Bild 7.15 zeigt, wie im Rahmen dieser sieben Iterationen eine Verbesserung des Fitnesswertes von über 40 Prozent erreicht werden konnte. Hierfür wurden Ergebnisse von über 1.000 Jahren simulierter Fertigungszeit ausgewertet, welche mit Hilfe des virtuellen Qualitätsmanagements binnen weniger Minuten erzeugt werden konnten.

Bild 7.15: Optimierungsverlauf im Rahmen der vQM-Simulationsstudie „Stereolithographie“ (Screenshot aus der Software Plant Simulation, überarbeitet)

Der Einsatz der vQM-Werkzeugpallette im Rahmen eines realen Anwendungsfalls hat gezeigt, dass die virtuelle Auslegung von Qualitätsregelkreisen weit über die Konditionen einer prototypischen Realisierung hinaus einsatzfähig ist. Basierend auf der Abbildungsgenauigkeit des zugrundeliegenden abweichungsbetrachtenden Simulationsmodells können somit bequem und effizient Prognosen über die zu erwartende Qualitätsfähigkeit getroffen werden.

Sum

me

der g

ewic

htet

en

qual

itäts

bezo

gene

n K

oste

n de

s be

sten

In

divi

duum

s di

eser

Gen

erat

ion

(Fitn

essw

ert)

Iterationszyklus des Genetischen Algorithmus(Generation)

Page 119: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 8 Zusammenfassung und Ausblick 101

8 Zusammenfassung und Ausblick Umfassendes und effizientes Qualitätsmanagement über alle Phasen des Produktentstehungsprozesses hinweg ist die essentielle Grundlage der meisten erfolgreichen Unternehmen. Hierbei werden häufig softwarebasierte Simulationsmethoden eingesetzt, um die stetig anwachsenden Herausforderungen zu bewältigen, indem das Design von Prozessen und Wertschöpfungsnetzwerken unter Berücksichtigung der Wirtschaftlichkeit und der Prozessdurchlaufzeit optimiert wird. In vielen Fällen werden dabei Umwelteinflüsse und Streuungen von Maschinenparametern während des Fertigungs-laufes nur unzureichend identifiziert und dementsprechend in den Simulationsmodellen nicht hinrei-chend abgebildet. Somit sind belastbare Vorhersagen über die Qualitätsfähigkeit des Prozesses nicht möglich, welche für eine frühzeitige Korrektur des Fertigungskonzeptes unerlässlich wären.

Deshalb bleibt den Unternehmen meist nichts anderes übrig, als Streuungen des realen Prozesses durch das „Aufpfropfen“ von Qualitätsmanagementmaßnahmen nach dem Beginn der Serienfertigung zu begegnen. Dieses Vorgehen führt jedoch zu einem erheblichen Zeitverlust und verursacht einen hohen finanziellen Zusatzaufwand, da Änderungen häufig nur noch schwer zu realisieren sind und eine Vielzahl von begrenzenden Faktoren unter wirtschaftlichen Gesichtspunkten bereits als unveränderbar hingenommen werden müssen.

Das virtuelle Qualitätsmanagement (vQM) ist definiert als „aufeinander abgestimmte Vorgehensweisen zur effizienten Modellierung, Anpassung, Nutzung und Auswertung von Simulationen bezüglich Generieren von belastbarem Wissen und Auslegen von Qualitätstechniken für Produkte und Prozesse während der Planungsphase“. Es verbindet die Stärken der drei Fachdomänen „Qualitätsmanagement“, „Simulationstechnik“ sowie „Computational Intelligence“ zu einem ganzheitlichen, ausgewogenen Ansatz zur Bewältigung dieser Herausforderungen.

Im Rahmen dieser Arbeit wurden die wissenschaftlichen Grundlagen für den systematischen Aufbau abweichungsbetrachtender Simulationsmodelle und die strukturierte Entwicklung virtueller Qualitätsmanagementtechniken gelegt. Durch die übergreifende Kombination dieser beiden Arbeitsschwerpunkte unter dem gemeinsamen Dach des virtuellen Qualitätsmanagements ist es erstmals möglich, dem Anwender ein durchgängiges, aufeinander abgestimmtes Portfolio an Handlungsempfehlungen, Meta-Architekturen und Werkzeugen bereit zu stellen. Mit diesen wird der Anwender während der gesamten Simulationsstudie hinweg strukturiert und zielorientiert angeleitet, von der Projektdefinition über die Datenakquisition und den Modellaufbau bis hin zur Entwicklung eigener vQM-Funktionsmodule.

Für den Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle wurden die grundlegenden Prinzipien der strukturierten Modellierung von Umwelteinflüssen und Maschinenparameterstreuungen erforscht und in eine holistische Handlungsabfolge überführt. Der Leitfaden unterteilt die erforderlichen Arbeitsschritte in die Phasen „Define“, „Measure“, „Analyse“, „Design“ und „Verify“ und orientiert sich dabei am Design for Six Sigma Schema DMADV, wobei die Inhalte und Werkzeuge der einzelnen Phasen den spezifischen Gegebenheiten der vQM-Modellbildung angepasst wurden.

Der entworfene Leitfaden zum Aufbau abweichungsbetrachtender Simulationsmodelle wurde dabei so allgemeingültig formuliert, dass die Anwendung des Leitfadens produkt-, prozess- und branchenunabhängig erfolgen kann. Durch die Erstellung der drei exemplarisch aufgebauten Simulationsmodelle aus den Bereichen Stereolithographie, Kunststoffspritzguss und Schablonendruck mit dem entwickelten Leitfaden wurde diese Übertragbarkeit auf andere Problemstellungen und Anwendungsfälle mehrfach nachgewiesen.

Page 120: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

102 Zusammenfassung und Ausblick Kapitel 8

Das vQM-Referenzmodell zum Aufbau eigener simulationsbasierter Qualitätsmanagement-werkzeuge besteht aus einer Referenzarchitektur und einer entsprechenden Adaptionsstrategie zur effizienten Planung, Konzipierung und Realisierung von virtuellen Qualitätsmanagementtechniken. Hierbei wird die aus dem Bereich der Informationssysteme bereits bekannte ARIS-Architektur um die Betrachtung der Computational Intelligence erweitert und die Inhalte der bestehenden vier Aspekte „Organisation“, „Daten“, „Steuerung“ und „Funktion“ auf die besonderen Anforderungen der Modellierung von virtuellen Qualitätsmanagementtechniken erweitert bzw. zugeschnitten.

Das erforschte Referenzmodell zur Adaption etablierter Qualitätsmanagementtechniken für den Einsatz in der Virtual Reality wurde unter anderem exemplarisch auf die vollständige Kette der SPC-Werkzeuge angewendet. Somit stehen nun die nachfolgenden erprobten und leistungsfähigen vQM-Funktionsmodule zur Verfügung:

Prüfprozessfähigkeitsanalyse. Maschinen- und Prozessfähigkeitsanalyse. Simulationsbasierte Auslegung von Qualitätsregelkarten (unter dem Einsatz der

Computational Intelligence zur heuristischen Erprobung und Optimierung).

Durch die Anwendung des Referenzmodells auf viele unterschiedliche Problemstellungen hinsichtlich Funktionsumfang und Komplexität konnte nachgewiesen werden, dass die erforschten Ansätze zur Virtualisierung von Qualitätsmanagementtechniken auch über die Grenzen dieser Arbeit hinaus bei der Fortentwicklung eines virtuellen Werkzeugkastens in vollem Umfang eingesetzt werden können.

Im Rahmen dieser Arbeit hat sich auch gezeigt, dass die Simulationsstudien neben der Quantifizierung qualitätskritischer Kenngrößen und der Optimierung der den Prozess umgebenden Regelkreise auch für die Verbesserung der abgebildeten Fertigungsprozesse genutzt werden könnte. Im Zuge weiterführender Forschungsarbeiten wären hierfür Werkzeuge der virtualisierten Versuchsmethodik zu erarbeiten mit dem Ziel, eine flexibel einsetzbare Methodik zur Anwendung der statistischen Versuchsplanung in Simulationsstudien bereitzustellen. Somit wären sowohl eine statistische Absicherung der Studienergebnisse als auch eine effiziente Versuchsplanung und -durchführung gewährleistet.

Eine weitere Möglichkeit zur Anknüpfung an diese Arbeit wird in der Bewertungsmöglichkeit der Abbildungsgenauigkeit von Simulationsmodellen gesehen, welche noch nicht in hinreichender Tiefe in einschlägiger Fachliteratur behandelt wurde und auch den Rahmen der vorliegenden Monographie gesprengt hätte. Obgleich mit der in dieser Arbeit vorgestellten vQM-Kennzahlen-systematik ein erster wichtiger Grundstein gelegt wurde, fehlen weitergehende Untersuchungen zur effizienten Definition des Explorationsraums und Ausgestaltung der Validierungsstudien.

Durch den entwickelten Leitfaden und die implementierten vQM-Funktionsmodule steht auch industriellen Anwendern ohne tieferen wissenschaftlichen Hintergrund nun erstmals eine anwenderorientierte und durchgängige Methodik zur Unterstützung bei der Durchführung von Simulationsstudien zur Verfügung. Diese gewährleistet durch ihren holistischen, strukturierten Ansatz ein zielorientiertes Projektmanagement bei der Erstellung von Simulationsmodellen sowie durch die bereits entwickelten virtuellen Qualitätsmanagementwerkzeuge ein effizientes simulationsoptimiertes Vorgehen bei der Durchführung und Auswertung von Simulationsstudien.

Die von Professor Box eingangs angemahnte „Nützlichkeit von Simulationsmodellen“ wird durch den Beitrag dieser Arbeit deutlich erhöht, da der Anwendungsbereich von Simulationsstudien um die qualitätsorientierte Bewertung und Auslegung von Prozessen erweitert wurde. Hierdurch wird auch die progressive Verbreitung von Simulationsstudien nachhaltig forciert, welche durch ihre effizienzsteigernden Effekte bei entsprechender Umsetzung einen wichtigen Beitrag zum Erhalt der Wettbewerbsfähigkeit erfolgreicher Unternehmen leisten kann.

Page 121: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 9 Literaturverzeichnis 103

9 Literaturverzeichnis [ALLWEYER 2005] ALLWEYER, T.: Geschäftsprozessmanagement. Witten: W3l Verlag, 2005. [AMBERG 1999] AMBERG, M.: Prozessorientierte betriebliche Informationssysteme – Methoden, Vorgehen und Werkzeuge zu ihrer effizienten Entwicklung. Berlin: Springer Verlag, 1999. [AIAG 2002] AIAG (Automotive Industry Action Group, Hrsg.): Measurement Systems Analysis, Reference Manual. Michigan (US): Eigenverlag [BALZERT 2005] BALZERT, H.: Lehrbuch Grundlagen der Informatik. München: Spektrum Akademischer Verlag, 2005. [BANGSOW 2008] BANGSOW, S.: Fertigungssimulation mit Plant Simulation und SimTalk: Anwendung und Programmierung mit Beispielen und Lösungen. München: Carl Hanser Verlag, 2008. [BATANI 1991] BATANI, C.; CERI, C.; NAVATHE, S.: Conceptual Database Design. An Entity-Relationship-Approach. Redwood City (US): Addison Wesley, 1991. [BERGBAUER 2004] BERGBAUER, A. K.; KLEEMANN, B.; RAAKE, D.: Six Sigma in der Praxis – Das Programm für nachhaltige Prozessverbesserungen und Ertragssteigerungen. Renningen: expert Verlag, 2004. [BERLEB 2008] BERLEB & WOLF-BERLEB GBR (HRSG.): Quality Gate. München: 2008. http://www.projektmagazin.de/ glossar/gl-0829.html, abgerufen am 02.01.2008. [BERNECKER 1990] BERNECKER, K.: SPC 3 – Anleitung zur statistischen Prozesslenkung (SPC). DGQ-Druckschrift 16-33. Berlin: Beuth Verlag, 1990. [BERNHARD 2003] BERNHARD, J.; WENZEL, S.; Kollaboratives Modellieren und Experimentieren in einer verteilten, hybriden Simulationsumgebung. In: SOCIETY FOR COMPUTER SIMULATION INTERNATIONAL (HRSG.): Frontiers in simulation, Band 13. 2003, S. 367-372. [BONABEAU 1999] BONABEAU, E.: Editor’s Introduction: Stigmergy. In: MIT Press (Ed.): Artificial Life Journal, Nr. 2, S. 95–96, 1999.

Page 122: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

104 Literaturverzeichnis Kapitel 9

[BOOKJANS 2010-1] BOOKJANS, M.; WECKENMANN, A.: Virtual Quality Management – A new approach for the simulation-based optimization of quality control loops. In: ABRUDAN, I. (Hrsg.): Review of Management and Economic Engieering. Cluj-Napoca, 2010. [BOOKJANS 2010-2] BOOKJANS, M.; WECKENMANN, A.: Virtuelles Qualitätsmanagement – Simulationsbasierte Prozess-validierung für die Elektronikproduktion. In: WAHL, M.; ENGEL, M.: GMM-Fachbericht AmE 2010 - Automotive meets Electronics. Berlin: VDE-Verlag, 2010, S. 148-153. [BOOKJANS 2010-3] BOOKJANS, M.; WECKENMANN, A.: Virtual Quality Management - Validation of measurement systems by the use of simulation technologies. In: SCHMIDT, M.; VOLLERTSEN, F.; GEIGER, M. (EDS.): Laser Assisted Net Shape Engineering 6 Volume 5 Part 2 – Proceedings of the LANE 2010, September 21-24,2010, Erlangen, Germany. Amsterdam: Elsevier B.V. 2010, S. 745-752. [BOOKJANS 2010-4] BOOKJANS, M.; WECKENMANN, A.: Virtual Quality Management - simulation-based validation of measurement systems. In: Proceedings 13th QMOD conference, Cottbus, 2010. [BOX 1987] BOX, G.E.P.: Empirical model-building and response surfaces. New York: John Wiley & Sons, 1987. [BRETZKE 2008] BRETZKE, W.-R.: Logistische Netzwerke. Berlin: Springer Verlag, 2008. [CHMIELEWICZ 1994] CHMIELEWICZ, K.: Forschungskonzeptionen der Wirtschaftswissenschaft. Stuttgart: Schäffer-Poeschel Verlag, 1994. [CLERC 2004] CLERC, M.: Discrete Particle Swarm Optimization, illustrated by the Travelling Salesman Problem. In: ONWUBOLU, G. C.; BABU, B. V. (ED.S): New Optimization Techniques in Engineering. München: Carl Hanser Verlag, 2004. [COLLISI 2002] COLLISI, T.: Ein informationslogistisches Architekturkonzept zur Akquisition simulationsrelevanter Daten. Bamberg: Meisenbach Verlag, 2002. [COREL 2009] COREL CORPORATION: iGrafx Process for Six Sigma – Ein bewährtes Standard-Tool für Six Sigma. Tualatin (US): Eigenverlag, 2009. [COREL 2010] COREL CORPORATION: Produktbeschreibung iGrafx. Internetquelle: http://www.igrafx.de/products/ abgerufen am 16.01.2010.

Page 123: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 9 Literaturverzeichnis 105

[DAVIS 2007] DAVIS, R.; BRABÄNDER, E.: ARIS Design Platform - Getting Started with BPM. Berlin: Springer Verlag, 2007. [DE CASTRO 2002] DE CASTRO, L. N.; TIMMIS, J. I.: Artificial Immune Systems: A New Computational Intelligence Approach. Berlin: Springer Verlag, 2002. [DEMING 1994] DEMING, W. E.: Out of the Crisis. Cambridge (US): Massachusetts Institue of Technology, 1994. [DGQ 1990] DEUTSCHE GESELLSCHAFT FÜR QUALITÄT (DGQ) (HRSG.): SPC 1 – Statistische Prozeßlenkung. DGQ-Druckschrift 16-31. Berlin: Beuth Verlag 1990. [DGQ 1992] DEUTSCHE GESELLSCHAFT FÜR QUALITÄT (DGQ) (HRSG.): SPC 2 – Qualitätsregelkartentechnik. DGQ-Druckschrift 16-32. Berlin: Beuth Verlag 1992. [DGQ 2008] DEUTSCHE GESELLSCHAFT FÜR QUALITÄT (DGQ) (HRSG.): Dokumentation prozessorientierter Managementsysteme – Der Weg zu einer transparenten und sinnvollen Dokumentation. DGQ-Band 12-22. Berlin: Beuth Verlag 2008. [DIETRICH 2003] DIETRICH, E.; SCHULZE, A.: Statistische Verfahren zur Maschinen- und Prozessqualifikation. München: Carl Hanser Verlag, 2003. [DIETRICH 2007] DIETRICH, E.; SCHULZE, A.: Prüfprozesseignung – Prüfmittelfähigkeit und Messunsicherheit im aktuellen Normenumfeld. München: Carl Hanser Verlag, 2007. [DIETRICH 2009] DIETRICH, E.: Statistische Verfahren zur Maschinen- und Prozessqualifikation. München: Carl Hanser Verlag, 2009. [EASY-ROB 2010] EASY-ROB (HRSG.): EASY-ROB 3-D Robot Simulation Tool. Internetquelle: http://www.easy-rob.com/produkt.html, abgerufen am 03.09.2010. [EID 1997] EID, M. S.; MOGHRABI, C.; ELDIN, H. K.: A simulation approach to evaluating quality/cost decision scenarios. In: Computers & Industrial Endgineering Vol. 33. 1997, S. 105-108. [FETTKE 2004] FETTKE, P.; LOOS, P.: Referenzmodellierungsforschung – Langfassung eines Aufsatzes. Download: http://isym.bwl.uni-mainz.de/downloads/Publikationen/Fettke_Loos_2004_Referenzmodellierungs forschung.pdf, abgerufen am 09.06.2010. Mainz: 2004.

Page 124: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

106 Literaturverzeichnis Kapitel 9

[FISCHERMANNS 2006] FISCHERMANNS, G.: Praxishandbuch Prozessmanagement. Gießen: Dr. Götz Schmidt Verlag, 2006. [FLEISCHER 2003] FLEISCHER, J.; SPATH, D.; LANZA, G.: Qualitätssimulation im Serienanlauf: Vorbestimmte Qualitätsfähigkeitskurven von Elementarprozessen. In: wt Werkstattstechnik online 93(2003) H 1/2, 2003, S. 50-54. [FRANCESCHINI 2006] FRANCESCHINI, F.: GALETTO, M.; MAISANO, D.; VITICCHIE, L.: The condition of Uniqueness in Manufacturing Process Representation by Performance / Quality Indicators. In: Quality and Reliability Engineering International, Vol. 22, n.5, Seite 567 - 580, 2006. [GADATSCH 2008] GADATSCH, A.: Grundkurs Geschäftsprozess-Management - Methoden und Werkzeuge für die IT-Praxis: Eine Einführung für Studenten und Praktiker. Wiesbaden: Friedr. Vieweg & Sohn Verlag | GWV Fachverlage, 2008. [GEBHARDT 2007] GEBHARDT, A.: Generative Fertigungsverfahren – Rapid Prototyping, Rapid Tooling, Rapid Manufacturing. München: Carl Hanser Verlag, 2007. [GINGELE 2001] GINGELE, J.: IDEF 9000. Plymouth (US): University of Plymouth, 2001. [GÖRZ 2003] GÖRZ, G.; ROLLINGER, C.-R.; SCHNEEBERGER, J. (HRSG.): Handbuch der künstlichen Intelligenz. Munchen: Oldenbourg Wissenschaftsverlag, 2003. [GOGOLL 1994] GOGOLL, A.; THEDEN, PH.: Techniken des Quality Engineering. In: KAMISKE, G. F. (HRSG.): Die hohe Schule des Total Quality Management. Berlin: Springer Verlag, 1994, S. 329 - 369. [GRABFELDER 2005] GRABFELDER, K.: Genetische Algorithmen - Hausarbeit im Rahmen der Vorlesung künstliche Intelligenz an der FH Furtwangen. Furtwangen, 2005. Website: http://www.heindl.de/KI2004/Genetische-Algorithmen/Genetische%20Algorithmen.pdf Entnommen am 08.04.2007. [GRONAU 2006] GRONAU, N.: Simulation von Geschäftsprozessen. Vorlesungsskript. Potsdam: Universität Potsdam, Lehrstuhl Wirtschaftsinformatik und Electronic Gouvernement, 2006, [HARRY 2005] HARRY, M.; SCHROEDER, R.; Six Sigma – The breakthroug Management strategy revolutionizing the world´s top corporations. New York: Currency press, 2005.

Page 125: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 9 Literaturverzeichnis 107

[HARS 1994] HARS, A.: Referenzdatenmodelle – Grundlagen effizienter Datenmodellierung. Wiesbaden: Gabler Verlag, 1994. [HERING 2003] HERING, E.; TRIEMEL, J.; BLANK, H.-P. (HRSG.): Qualitätsmanagement für Ingenieure. Berlin: Springer Verlag, 2003. [HORN 2004] HORN, S.; WEIGERT, G,; WERNER, S.: Optimization Toolkit for Scheduling Optimization in Semiconductor Back-Ends. In: IEEE (HRSG.): CPMT Proceedings of the 27th International Spring Seminar on Electronics Technology. Sofia (Bulgarien): 2004, S. 266-271. [HRDLICZKA 1997] HRDLICZKA, V.; JAKOBI, H. A.; SCHUMACHER, R.; WENZEL, S.: Leitfaden für Simulationsbenutzer in Produktion und Logistik. München: ASIM - Arbeitsgemeinschaft Simulation, 1997. [IDS SCHEER 2010-1] IDS SCHEER AG (HRSG.): ARIS Platform - Die führende Software für Geschäftsprozessmanagement. Internetquelle: http://www.ids-scheer.de/de/ARIS_ARIS_Platform/7796.html, abgerufen am 10.06.2010. [IDS SCHEER 2010-2] IDS SCHEER AG (HRSG.): ARIS Platform - Produktbroschüre. Internetquelle: http://www.ids-scheer.de, abgerufen am 10.06.2010. [JARRE 2008] JARRE, F.; STOER, J.: Optimierung. München: Carl Hanser Verlag, 2008. [KAMISKE 2008] KAMISKE, G. F.; BRAUER, J.-P.: Qualitätsmanagement von A bis Z – Erläuterungen moderner Begriffe des Qualitätsmanagements. München: Carl Hanser Verlag, 2008. [KIRSCHLING 1994] KIRSCHLING, G.: Qualitätsregelkarten. In: MASING, W. (HRSG.): Handbuch Qualitätsmanagement. München: Carl Hanser Verlag, 1994. [KLEIN 2004] KLEIN, B.: Versuchsplanung DoE – Einführung in die Taguchi/Shainin-Methodik. München: Oldenbourg Verlag, 2004. [KLEPPMANN 2008] KLEPPMANN, W.: Taschenbuch Versuchsplanung – Produkte und Prozesse optimieren. München: Carl Hanser Verlag, 2008. [KRAMER 1998] KRAMER, U.; NECULAU, M.: Simulationstechnik. München: Carl Hanser Verlag, 1998.

Page 126: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

108 Literaturverzeichnis Kapitel 9

[KRAMER 2009] KRAMER, O.: Computational Intelligence – eine Einführung. Berlin: Springer Verlag, 2009. [KRAUSE 2010] KRAUSE, H.-U.; ARORA, D.: Controlling-Kennzahlen - Key Performance Indicators: Zweisprachiges Handbuch Deutsch/Englisch - Bi-lingual Compendium German/English. München: Oldenbourg Wissenschaftsverlag, 2010. [KRUPPKE 2006] KRUPPKE, H.; JOST, W.; KINDERMANN, H.: ARIS – Software, Methode und Instrument. IN: SCHEER, A.-W.; KRUPPKE, H.; JOST, W.; KINDERMANN, H. (HRSG.): AGILITÄT durch ARIS Geschäftsprozessmanagement - Jahrbuch Business Process Excellence 2006/2007. Berlin: Springer Verlag, 2006. [LAW 2007] LAW, A. M.: Simulation modeling and analysis. Boston: McGraw Hill, 2007. [LIGGESMEYER 2009] LIGGESMEYER, P.: Software-Qualität - Testen, Analysieren und Verifizieren von Software. Heidelberg: Spektrum Akademischer Verlag, 2009. [LINß 2005] LINß, G.: Qualitätsmanagement für Ingenieure. München: Carl Hanser Verlag, 2005. [LIPPE 2007] LIPPE, W.-M.: Einführung in neuronale Netze (Vorlesungsskript). Münster: Westfälische Wilhelms-Universität, 2007. Website: http://wwwmath.uni-muenster.de/SoftComputing/lehre/material/ wwwnnscript/startseite.html, abgerufen am 16.02.2007. [LISCHKE 2004] LISCHKE CONSULTING (HRSG.): Design for Six Sigma – Integrierter Lösungsansatz in der Produktentwicklung. Hamburg: Eigenverlag, 2004. [MAGNUSSON 2001] MAGNUSSON, K.; KROSLID, D.; BERGMANN, B.: Six Sigma umsetzen – die neue Qualitätsstrategie für Unternehmen. München: Carl Hanser Verlag, 2001. [MASING 1999] MASING, W. (HRSG.): Handbuch Qualitätsmanagement. München: Carl Hanser Verlag, 1999. [MEYER 2005] MEYER, U. B.; CREUX, S.; WEBER MARIN, A. K.: Graphische Methoden der Prozessanalyse. München: Carl Hanser Verlag, 2005. [MITTAG 1993] MITTAG, H.-J.: Qualitätsregelkarten. München: Carl Hanser Verlag, 1993.

Page 127: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 9 Literaturverzeichnis 109

[MOODY 1994] MOODY, D. L.; SHANKS, G. G.: What Makes a Good Data Model? Evaluating the Quality of Entity Relationship Models. In: LOUCOPOULOS, P. (HRSG.): Lecture Notes In Computer Science; Vol. 881; Proceedings of the13th International Conference on the Entity-Relationship Approach. Berlin: Springer Verlag, 1994. [MÜLLER 2009] MÜLLER, G.: Finite Element Methode - FEM. Internetquelle: http://www.cadfem.de/unternehmen/ portrait/finite-element-methode.html abgerufen am 16.01.2010. [NAHRSTEDT 2006] NAHRSTEDT, H.: Algorithmen für Ingenieure – eine anwendungsorientierte Einführung. Wiesbaden: Vieweg+Teubner Verlag, 2006. [OPP 2005] OPP, K.-D.: Methodologie der Sozialwissenschaften – Einführung in Probleme ihrer Theoriebildung und praktischen Anwendung. Wiesbaden: VS Verlag für Sozialwissenschaften / GWV Fachverlage GmbH, 2005. [PAPULA 2001] PAPULA, L.: Mathematik für Ingenieure und Naturwissenschaftler, Band 3. Wiesbaden: Friedr. Vieweg & Sohn Verlag | GWV Fachverlage GmbH, 2001. [PFEIFER 1996] PFEIFER, T.: Qualitätsmanagement – Strategien, Methoden, Techniken. München: Carl Hanser Verlag, 1996. [PFEIFER 2003] PFEIFER, T.: Quality Management – Strategies, Methods, Techniques. München: Carl Hanser Verlag, 2003. [RABE 2008] RABE, M.; SPIECKERMANN, S.; WENZEL, S.: Verifikation und Validierung für die Simulation in Produktion und Logistik. Berlin: Springer Verlag, 2008. [RAFFÉE 1995] RAFFÉE, H.: Grundprobleme der Betriebswirtschaftslehre. Stuttgart: UTB Verlag, 1995. [RATH & STRONG 2002] RATH & STRONG MANAGEMENT CONSULTING (HRSG.): Six Sigma Pocket Guide – 34 Werkzeuge zur Prozessverbesserung. Köln: TÜV Verlag, 2002. [REHBEHN 2003] REHBEHN, R.; YURDAKUL, Z. B.: Mit Six Sigma zur Business Excellence – Strategien, Methoden, Praxisbeispiele. Erlangen: Publicis Corporate Publishing, 2003. [REIßIGER 2007] REIßIGER, W.; VOIGT, T.; SCHMITT R.: Six Sigma. In: PFEIFER, T.; SCHMITT, R. (HRSG.): Masing - Handbuch Qualitätsmanagement. München: Carl Hanser Verlag, 2007.

Page 128: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

110 Literaturverzeichnis Kapitel 9

[RINNE 1999] RINNE, H.; MITTAG, H.-J.: Prozessfähigkeitsmessung für die industrielle Praxis. München: Carl Hanser Verlag, 1999. [RUSSELL 2004] RUSSELL, S.; NORVIG, P.: Künstliche Intelligenz – ein moderner Ansatz. München: Pearson Studium Verlag, 2004. [SARGENT 1983] SARGENT, R. G.: Validating simulation models. In: IEEE PRESS (ED.): Proceedings of the 15th conference on Winter simulation – Volume 1. Piscataway (NJ), US: IEEE Press, 1983. [SAUER 2003] SAUER, W.: Prozesstechnologie in der Elektronik. München: Carl Hanser Verlag, 2003] [SCHEER 1996] SCHEER, A.-W.: ARIS-House of Business Engineering: Von der Geschäftsprozeßmodellierung zur Workflow-gesteuerten Anwendung; vom Business Process Reengineering zum Continuous Process Improvement. Internetquelle: http://www.uni-saarland.de/fileadmin/user_upload/Fachrichtungen/ fr13_BWL/professuren/PDF/heft133.pdf, abgerufen am 11.06.2010. [SCHEER 2002] SCHEER, A.-W.: ARIS – Vom Geschäftsprozess zum Anwendungssystem. Berlin: Springer Verlag, 2002. [SCHEFFLER 1997] SCHEFFLER, E.: Statistische Versuchsplanung und -auswertung – Eine Einführung für Praktiker. Stuttgart: Deutscher Verlag für Grundstoffindustrie, 1997. [SCHÜTTE 1998] SCHÜTTE, R.: Grundsätze ordnungsgemäßer Referenzmodellierung. Wiesbaden: Gabler Verlag, 1998. [SCHULZE 2007] SCHULZE, A.: Statistische Prozessregelung (SPC). In: PFEIFER, T.; SCHMITT, R. (HRSG.): Masing - Handbuch Qualitätsmanagement. München: Carl Hanser Verlag, 2007. [SCHMITT 2004] SCHMITT, R.: Qualitätsmanagement und Fertigungsmesstechnik – Die Zukunft heißt Integration. In: AACHENER WERKZEUGMASCHINEN-KOLLOQUIUM (HRSG.): Gelassen der Zukunft entgegen – Qualität zeigt den Weg, Messen gibt Sicherheit. Tagungsband. Aachen: Eigenverlag, 2004. [SEIDLMEIER 2006] SEIDLMEIER, H.: Prozessmodellierung mit ARIS® - Eine beispielorientierte Einführung für Studium und Praxis. Wiesbaden: Friedr. Vieweg & Sohn Verlag | GWV Fachverlage GmbH, 2006. [SHEWHART 1931] SHEWHART, W. A.: Economic Control of Control of Manufactured Product. New York: Van Nostrand Press, 1931.

Page 129: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 9 Literaturverzeichnis 111

[SIMPACK 2010] SIMPACK AG (HRSG.): SIMPACK Multi Body Simulation Software – Kinematics and Dynamics. Internetquelle: http://www.simpack.com/kinematics_and_dynamics.html, abgerufen am 03.09.2010. [SLEEPER 2006] SLEEPER, A.: Design for Six Sigma Statistics – 59 Tools for Diagnosing and Solving Problems in DFSS Initiatives. New York: McGraw-Hill 2006. [STÄUBLI 2010] STÄUBLI INTERNATIONAL AG (HRSG.): Stäubli Robotics Suite: Ihr PC-Software-Paket. Internetquelle: http://www.staubli.com/de/robotik/produkte/robotersoftware/staeubli-robotics-suite, abgerufen am 03.09.2010. [SUTTON 1998] SUTTON, R. S.; BARTO, A. G.: Reinforcement Learning: An Introduction. Cambridge (US):The MIT Press, 1998. [SYSKA 2006] SYSKA, A.: Produktionsmanagement – Das A - Z wichtiger Methoden und Konzepte für die Produktion von heute. Wiesbaden: Verlag Dr. Th. Gabler | GWV Fachverlage, 2006. [TAGUCHI 1991] TAGUCHI, G.: System of experimental Design – engineering methods to optimize quality and minimize costs Vol. 1 & 2. New York (US): Quality Resources, 1991. [TECHNOMATIX 2006] TECHNOMATIX GMBH (HRSG.): Technomatix Plant Simulation 7.6 Step-by-Step-Hilfe. Stuttgart: 2006, auf der Programm-DVD enthalten. [THOMAS 2006] THOMAS, O.; SCHEER, A.-W.: Customizing von Dienstleistungsinformationssystemen. In: BULLINGER, H.-J.; SCHEER, A.-W. (HRSG.): Service Engineering – Entwicklung und Gestaltung innovativer Dienstleistungen. Berlin: Springer Verlag, 2006. [TÖPFER 2003] TÖPFER, A.: Six Sigma - Konzeption und Erfolgsbeispiele. Berlin: Springer Verlag, 2003. [TOUTENBURG 2009] TOUTENBURG, H.; KNÖFEL, PH.: Six Sigma - Methoden und Statistik für die Praxis. Berlin: Springer Verlag, 2009. [ULBRICH 2010] ULBRICH, H.: Mehrkörpersimulation. München: TU München, Lehrstuhl für Angewandte Mechanik. Internetquelle: http://www.amm.mw.tu-muenchen.de/index.php?id=47 abgerufen am 16.01.2010.

Page 130: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

112 Literaturverzeichnis Kapitel 9

[VOM BROCKE 2010] VOM BROCKE, J.; FETTKE, P.: Referenzmodellierung. In: KURBEL, K.; BECKER, J.; GRONAU, N.; SINZ, E.; SUHL, L. (HRSG.): Enzyklopädie der Wirtschaftsinformatik – Online-Lexikon. München: Oldenbourg Wissenschaftsverlag, 2010. Internetquelle: http://www.oldenbourg.de:8080/wi-enzyklopaedie/lexikon/daten-wissen/Informationsmanagement/referenzmodellierung, abgerufen am 09.06.2010. [WAGNER 2003] WAGNER, K. W. (HRSG.): PQM – Prozessorientiertes Qualitätsmanagement – Leitfaden zur Umsetzung der ISO 9001:2000. München: Carl Hanser Verlag, 2003. [WAPPIS 2008] WAPPIS, J.; JUNG, B.: Taschenbuch Null-Fehler-Management – Umsetzung von Six Sigma. München: Carl Hanser Verlag, 2008. [WEBER 2008] WEBER, K. H.; SCHÜßLER, M.: Dokumentation verfahrenstechnischer Anlagen - Praxishandbuch mit Checklisten und Beispielen. Berlin: Springer Verlag, 2008. [WECKENMANN 1999] WECKENMANN, A.; GAWANDE, B.: Koordinatenmeßtechnik – Flexible Meßstrategien für Maß, Form und Lage. München: Carl Hanser Verlag, 1999. [WECKENMANN 2008-1] WECKENMANN, A.; BOOKJANS, M. et al.: Virtuelles Qualitätsmanagement. In: GOCH, G. (HRSG.): Berichte zum Qualitätsmanagement - Innovationsqualität - Qualität für Innovationen. Aachen: Shaker Verlag, S. 45-56, 2008. [WECKENMANN 2008-2] WECKENMANN, A.; BOOKJANS, M.: Zuverlässigere Prozesse durch Virtuelles Qualitätsmanagement. In: SPUR, G. (HRSG.): Zeitschrift für wirtschaftlichen Fabrikbetrieb, Ausgabe 6/2008. München: Carl Hanser Verlag, S. 448-451, 2008. [WECKENMANN 2008-3] WECKENMANN, A., BOOKJANS, M.: 6-Sigma based layout of Quality Orientated Process Models. In: Proceedings 11th QMOD conference, Helsingborg, Schweden, 2008. [WECKENMANN 2008-4] WECKENMANN, A. (HRSG.): Berichte aus dem Lehrstuhl Qualitätsmanagement und Fertigungsmesstechnik Friedrich-Alexander-Universität Erlangen Nürnberg – Steigerung der Leistungsfähigkeit der Statistischen Versuchsmethodik durch die Gestaltung anwendungsspezifischer Informationssysteme nach einem Referenzmodell. Aachen: Shaker Verlag, 2008. [WECKENMANN 2009-1] WECKENMANN, A; BOOKJANS, M.: Virtual Quality Management - Simulative Evaluation of Quality Control Charts by use of Quality Orientated Process Models. In: Proceedings 9th PEDAC conference, Alexandria, Ägypten, 2009.

Page 131: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 9 Literaturverzeichnis 113

[WECKENMANN 2009-2] WECKENMANN, A; BOOKJANS, M.: Virtuelles Qualitätsmanagement - Simulationsgestützte Auslegung kostenoptimierter Qualitätsregelkreise. In: THEUVSEN, L. (HRSG.): Berichte zum Qualitätsmanagement – Qualitätsmanagement in Wertschöpfungsnetzwerken. Aachen: Shaker Verlag, Seite 151-166, 2009. [WECKENMANN 2009-3] WECKENMANN, A.; BOOKJANS, M.: Virtual Quality Management – a holistic approach for quality-orientated simulation-based set-up and optimization of process chains during the planning stage. In: ZÄH, M. F. (ED.): 3rd International Conference on Changeable, Agile, Reconfigurable and Virtual Production (CARV 2009) (05.-07.10.2009, Munich, Germany). München : Herbert Utz Verlag, 2009, S. 346-355. [WEIGERT 2004] WEIGERT, G.; WERNER, S.: Simulationsgestützte Maschinenbelegungsplanung in der Bohrerei eines Leiterplattenherstellers. In: ASIM (HRSG.): 11. ASIM-Fachtagung „Simulation in Produktion und Logistik. Berlin: 2004, S. 229-238. [WENZEL 2008] WENZEL, S.; WEIß, M.; COLLISI-BÖHMER, S.; PITSCH, H.; ROSE, O.: Qualitätskriterien für die Simulation in Produktion und Logistik – Planung und Durchführung von Simulationsstudien. Berlin: Springer Verlag, 2008. Normen [DIN ISO 21747] DIN ISO 21747:2007: Statistische Verfahren - Prozessleistungs- und Prozessfähigkeitskenngrößen für kontinuierliche Qualitätsmerkmale. [DIN 66001] DIN 66001:1983: Informationsverarbeitung; Sinnbilder und ihre Anwendung. [ISO 8402] EN ISO 8402:1994: Qualitätsmanagement und Qualitätssicherung – Begriffe. [ISO 9000] DIN EN ISO 9000:2005: Qualitätsmanagementsysteme - Grundlagen und Begriffe. [VDI 3633] VDI 3633: Simulation von Logistik-, Materialfluß- und Produktionssystemen – Begriffsdefinitionen. Berlin: Beuth Verlag, 1996. [VDI 3633-1] VDI 3633-1: Simulation von Logistik-, Materialfluß- und Produktionssystemen – Grundlagen. Berlin: Beuth Verlag, 1993.

Page 132: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

114 Abbildungsverzeichnis Kapitel 10

10 Abbildungsverzeichnis

Nachfolgend wird eine Aufstellung aller graphischen Darstellungen dieser Arbeit gegeben. Wurde die Graphik auf der Basis externer Quellen erstellt, so ist dies unter dem jeweiligen Bildtitel vermerkt. Bild 2.01: Darstellung eines Prozesses Nach: SCHEFFLER, A.-W.: Statistische Versuchsplanung und Auswertung. Stuttgart: Deutscher Verlag der Grundstoffindustrie, 1997. Bild 2.02: Ablauf einer Simulationsstudie Nach: HRDLICZKA, V.; JAKOBI, H. A.; SCHUMACHER, R.; WENZEL, S.: Leitfaden für Simulationsbenutzer in Produktion und Logistik. München: ASIM - Arbeitsgemeinschaft Simulation, 1997, S. 3. Bild 2.03: Simulationstypen Nach: LAW, A. M.; KELTON, W. D.: Simulation Modeling and Analysis. New York: McGraw-Hill, Inc., 1991. Bild 2.04: Zusammenhänge zwischen Problem, Konzept und Modell im Zuge der Modellbildung Nach: SARGENT, R. G.: Validating simulation models. In: IEEE PRESS (ED.): Proceedings oft he 15th conference on Winter simulation – Volume 1. Piscataway (NJ), US: IEEE Press, 1983, S. 334. Bild 2.05: Vorgehensweise bei der Simulation nach der VDI-Richtlinie 3633 Nach: VDI 3633-1: Simulation von Logistik-, Materialfluß- und Produktionssystemen – Grundlagen. Berlin: Beuth Verlag, 1993, S. 9. Bild 2.06: Weiterentwickelter Ansatz nach [RABE 2008] Nach: RABE, M.; SPIECKERMANN, S.; WENZEL, S.: Verifikation und Validierung für die Simulation in Produktion und Logistik. Berlin: Springer Verlag, 2008, S. 5. Bild 2.07: Gegenüberstellung von Top-down- und Bottom-up-Ansatz Nach: VDI 3633-1:1993: Simulation von Logistik-, Materialfluß- und Produktionssystemen – Grundlagen. Berlin: Beuth Verlag, 1993. Bild 2.08: Petri-Netz - ein Vertreter des kontrollflussorientierten Ansatzes Nach: KRAMER, U.; NECULAU, M.: Simulationstechnik. München: Carl Hanser Verlag, 1998, S. 94. Bild 2.09: Kernelemente von IDEF (links: IDEF0, rechts IDEF3) Nach: GINGELE, J.: IDEF 9000. Plymouth (US): University of Plymouth, 2001. Bild 2.10: Aufbau eines einfachen neuronalen Netzes Nach: KRAMER, O.: Computational Intelligence – eine Einführung. Berlin: Springer Verlag, 2009, S. 61. Bild 2.11: Übergang von der binären zur Fuzzy-Logik Formeln aus: KRAMER, O.: Computational Intelligence – eine Einführung. Berlin: Springer Verlag, 2009, S. 76 und 80.

Page 133: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 10 Abbildungsverzeichnis 115

Bild 2.12: Arbeitsweise eines Fuzzy-basierten Reglers Nach: KRAMER, O.: Computational Intelligence – eine Einführung. Berlin: Springer Verlag, 2009, S. 91. Bild 2.13: Situation beim Reinforcement Learning von Industrierobotern Nach: KRAMER, O.: Computational Intelligence – eine Einführung. Berlin: Springer Verlag, 2009, S. 103. Nach: KREUZER, EDWIN J. & LUGTENBURG, JAN-BERND & MEIßNER, HANS-GEORG & TRUCKENBRODT, ANDREAS: Industrieroboter - Technik, Berechnung und anwendungsorientierte Auslegung. Berlin: Springer Verlag 1994, Seite 12. Bild 2.14: Ablauf eines evolutionären Algorithmus Bild 2.15: Rekombination nach der One-Point-Crossover-Methode Nach: KRAMER, O.: Computational Intelligence – eine Einführung. Berlin: Springer Verlag, 2009, S. 27. Bild 2.16: Systematisierung möglicher Deutungen des Begriffs „Referenzmodell“ Nach: FETTKE, P.; LOOS, P.: Referenzmodellierungsforschung – Langfassung eines Aufsatzes. Download: http://isym.bwl.uni-mainz.de/downloads/Publikationen/Fettke_Loos_2004_Referenz-modellierungs forschung.pdf, abgerufen am 09.06.2010. Mainz: 2004, S. 8. Bild 2.17: Beispiel eines Entity-Relationship-Model in der Chen-Notation Nach: GADATSCH, A.: Grundkurs Geschäftsprozess-Management - Methoden und Werkzeuge für die IT-Praxis: Eine Einführung für Studenten und Praktiker. Wiesbaden: Friedr. Vieweg & Sohn Verlag | GWV Fachverlage, 2008, S. 149. Bild 2.18: Überblick ARIS-Systemarchitektur Nach: SCHEER, A.-W.: ARIS-House of Business Engineering: Von der Geschäftsprozeßmodellierung zur Workflow-gesteuerten Anwendung; vom Business Process Reengineering zum Continuous Process Improvement. Internetquelle: http://www.uni-saarland.de/fileadmin/user_upload/ Fachrichtungen/fr13_BWL/professuren/PDF/heft133.pdf, abgerufen am 11.06.2010, S. 10. Bild 2.19: Abgrenzung von Qualitätstechniken Nach: KAMISKE, G. F.; BRAUER, J.-P.: Qualitätsmanagement von A bis Z – Erläuterungen moderner Begriffe des Qualitätsmanagements. München: Carl Hanser Verlag, 2008, S. 223. Bild 2.20: Prozessbeurteilung vor und nach Serienanlauf Nach: SCHULZE, A.: Statistische Prozessregelung (SPC). In: PFEIFER, T.; SCHMITT, R. (HRSG.): Masing - Handbuch Qualitätsmanagement. München: Carl Hanser Verlag, 2007, S. 672. Bild 2.21: Analogie Regelkreis – Statistische Prozessregelung (SPC) Nach: HERING, E.; TRIEMEL, J.; BLANK, H.-P. (HRSG.): Qualitätsmanagement für Ingenieure. Berlin: Springer Verlag, 2003. Bild 2.22: Qualitätsregelkarte mit Warn- und Eingriffsgrenzen Nach: BERNECKER, K.: SPC 3 – Anleitung zur statistischen Prozesslenkung (SPC). DGQ-Druckschrift 16-33. Berlin: Beuth Verlag, 1990, S. 14.

Page 134: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

116 Abbildungsverzeichnis Kapitel 10

Bild 2.23: Ideale und reale Gütefunktion Nach: MITTAG RINNE, H.; MITTAG, H.-J.: Statistische Methoden der Qualitätssicherung. München: Carl Hanser Verlag, 1995, S. 129. Bild 2.24: ARL-Funktion für verschiedene Stichprobenumfänge n Nach: MITTAG, H.-J.: Qualitätsregelkarten. München: Carl Hanser Verlag, 1993, S. 64. Bild 2.25: DMAIC-Zyklus Unter Verwendung der Graphik von: http://decker.typepad.com/welcome/2006/07/marketing_bulls_1.html. Abgerufen am 07.05.2010. Texte nach: TOUTENBURG, H.; KNÖFEL, PH.: Six Sigma - Methoden und Statistik für die Praxis. Berlin: Springer Verlag, 2009. Bild 2.26: 5-Sigma-Schallmauer Nach: BERGBAUER, A. K.; KLEEMANN, B.; RAAKE, D.: Six Sigma in der Praxis – Das Programm für nachhaltige Prozessverbesserungen und Ertragssteigerungen. Renningen: expert Verlag, 2004, S. 111. Bild 2.27: Gängige DfSS-Methoden und ihre Phasen Nach: TOUTENBURG, H.; KNÖFEL, PH.: Six Sigma - Methoden und Statistik für die Praxis. Berlin: Springer Verlag, 2009, S. 32. Bild 3.01: Simulation eines idealen Prozesses Bild 3.02: Zu entwerfende Bestandteile des virtuellen Qualitätsmanagements Bild 4.01: Überblick über den vQM-Ansatz Nach: BOOKJANS, M.; WECKENMANN, A.: Virtual Quality Management – A new approach for the simulation-based optimization of quality control loops. In: ABRUDAN, I. (Hrsg.): Review of Management and Economic Engieering. Cluj-Napoca, 2010. Bild 4.02: Abweichungsbetrachtendes Simulationsmodell Bild 4.03: Ausgangssituation bei einem Re-Design Bild 4.04: Ausgangssituation bei einem Neu-Design Bild 4.05: vQM-Sägezahnmodell im Rahmen eines Prozess-Neu-Designs Bild 4.06: Bewertung unterschiedlicher Modellbildungs- und Projektierungs-Ansätze Bild 4.07: Überblick über die vielschichtigen Stärken des DMADV-Ansatzes Nach: LISCHKE CONSULTING (HRSG.): Design for Six Sigma – Integrierter Lösungsansatz in der Produktentwicklung. Hamburg: Eigenverlag, 2004. Bild 4.08: Übersicht vQM-Leitfaden Bild 4.09: Inhalte der Define-Phase und empfohlene Werkzeuge

Page 135: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

Kapitel 10 Abbildungsverzeichnis 117

Bild 4.10: vQM-SIPOC-Diagramm Bild 4.11: Inhalte der Measure-Phase und empfohlene Werkzeuge Bild 4.12: 2-stufiges Flussdiagramm Bild 4.13: Ursache-Wirkungs-Matrix und die Beiträge von SIPOC und VoC Bild 4.14: Inhalte der Analyze-Phase und empfohlene Werkzeuge Bild 4.15: Zuweisung der Funktionen zu den Modellkomponenten Bild 4.16: Inhalte der Design-Phase und empfohlene Werkzeuge Bild 4.17: Simultaneous Engineering im Rahmen des vQM Bild 4.18: Inhalte der Verify-Phase und empfohlene Werkzeuge Bild 4.19: Bestandteile einer vollständigen vQM-Modelldokumentation Bild 4.20: vQM-Varianzanalyse zum Vergleich von Realität und Modell Bild 5.01: Überblick vQM-Referenzarchitektur Bild 5.02: Organisationsansätze für virtuelle Qualitätsmanagementwerkzeuge Bild 5.03: Aspekte der Datensicht Bild 5.04: Überführung einer realen QM-Werkzeug-Anwendung in einen virtuellen Funktionsgraph Bild 5.05: Übersicht Computational Intelligence Nach: KRAMER, O.: Computational Intelligence – eine Einführung. Berlin: Springer Verlag, 2009, S. 2. Bild 5.06: vQM-Ablaufpläne der Steuerungssicht Bild 5.07: Überblick Adaptionsstrategie Bild 5.08: vQM-Ablaufdiagramm Bild 5.09: vQM-Wechselwirkungsmatrix Bild 6.01: Überblick Stereolithographie-Anlage Bild 6.02: Prozessablauf Stereolithographie Bild 6.03: Ausgefüllte Projekt Charta Bild 6.04: Flussdiagramm Schichtaufbau

Page 136: Virtuelles Qualitätsmanagement - OPUS 4 · DMAIC Akronym für die 5 Phasen des Six Sixma Kernprozesses „Define”, „Measure“, Analyze“, „Improve“ und „Control“ DoE

118 Abbildungsverzeichnis Kapitel 10

Bild 6.05: Ursache-Wirkungs-Matrix Bild 6.06: Auszug aus den durchgeführten Versuchsreihen Bild 6.07: Hierarchischer Aufbau des zu erstellenden Simulationsmodells Bild 6.08: Modelling Key Document für die Modulkomponente “Prototyper” Bild 6.09: Programmierte Umsetzung der Berechnung der maximalen Scan-Geschwindigkeit Bild 6.10: Screenshot der vQM-Modulkomponente „Physische Erstellung“ Bild 6.11: Screenshot des Gesamtmodells „Stereolithographie“ Bild 6.12: Validierung des Simulationsmodells anhand der vQM-Kennzahlensystematik Bild 6.13: Screenshot des Gesamtmodells „Kunststoffspritzguss“ Bild 6.14: Screenshot des Gesamtmodells „Schablonendruck“ Bild 7.01: Überblick vQM-Funktionsmodule Bild 7.02: Migration des Prüfprozesses in die virtuelle Testumgebung Bild 7.03: Screenshot der virtuellen Testumgebung Bild 7.04: Zusammenspiel von vQM-MFU/PFU-Funktionsmodul und Simulationsmodell Bild 7.05: Screenshot des Simulationsmodells „Stereolithographie“ mit dem vMFU-Funktionsmodul Bild 7.06: Screenshot der graphischen Benutzeroberfläche des vPFU-Funktionsmoduls Bild 7.07: Aufbau der realisierten vQM-Kennzahlensystematik Bild 7.08: Graphische Darstellung des vQM-Kennzahlensystems Bild 7.09: Organisationssicht Bild 7.10: Graphische Benutzeroberfläche des vQM-SPC-Funktionsmoduls Bild 7.11: Virtueller Funktionsgraph des vQM-SPC-Moduls Bild 7.12: vQM-Ablaufdiagramm zur Anwendung des SPC-Funktionsmoduls Bild 7.13: vQM-Wechselwirkungsmatrix SPC-Funktionsmodul Bild 7.14: Stabilitätsanalyse mit Hilfe der ANOVA im Rahmen der vQM-Prozessfähigkeitsanalyse Bild 7.15: Optimierungsverlauf im Rahmen einer vQM-Simulationsstudie