Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die...

18
29 APRIL 2009 UNTERNEHMENSRISIKOMANAGEMENT ARBEITSPAPIER MAI 2011 Massimiliano Neri Associate Director Kontakt NORD- UND SÜDAMERIKA +1.212.553.1658 [email protected] EUROPA +44.20.7772.5454 [email protected] ASIEN (AUSGENOMMEN JAPAN) +85 2 2916 1121 [email protected] JAPAN +81 3 5408 4100 [email protected] BESUCHEN SIE Visit: www.moodysanalytics.com E-mail: [email protected] Über den Autor Massimiliano Neri ist stellvertretender Direktor bei Moody’s Analytics, der die Funktion des Best Practices-Spezialisten für Produkte und Lösungen im Bereich Unternehmensrisikomanagement einnimmt. Vor seinem Wechsel zu Moody’s Analytics sammelte Massimiliano umfassende internationale Erfahrungen bzgl. der Förderung von Unternehmensprozessen und der Unternehmensregelmethodologie im Finanzsektor. Massimiliano promovierte in Angewandten Wirtschaftswissenschaften an der Universidad Juan Carlos in Madrid. In der Vergangenheit hielt er mehrere Seminare über die Mikroökonomie von Risiko und Unsicherheit an der Luiss Guido Carli Universität in Rom, der Universidad Rey Juan Carlos in Madrid und am Ludwig von Mises- Institut in den Vereinigten Staaten. Wie Sie den Datenqualitätsmanagement- Herausforderungen von Solvency II gerecht werden. Highlights » Die Solvency II-Richtlinie stellt strenge Anforderungen an die Datenqualität. Als Antwort auf diese Änderungen werden Versicherungsunternehmen nicht umhin kommen, ihre Prozesse anzupassen. Dieses Arbeitspapier wurde für Risikomanager, Aktuare und Solvency II-Projekt-und IT-Manager erstellt. Es betrachtet die neue Richtlinie und skizziert die wichtigsten Anforderungen an die Datenqualität. Desweiterhin werden Best Practices für die Evaluierung und das Management der Datenqualität, einschließlich verschiedener Arten von Datenqualitätsprüfungen und prozessen sowie Audit-und Prüfungsmöglichkeiten beschrieben. Dabei zeigt das Arbeitspapier auf, dass ein zentralisiertes Konzept für das Datenqualitätsmanagement, welches eine Technologie für die Automatisierung dieses Prozesses nutzt, Versicherungsunternehmen dabei helfen kann, über die reinen Datenqualität der Richtlinie hinauszugehen, indem die Vorteile von vollständigen, korrekten und transparenten Daten für eine größere operative Effektivität und eine stärker risikobasierte Entscheidungsfindung hervorgehoben werden.

Transcript of Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die...

Page 1: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

29 April 2009 UNTERNEHMENSRISIKOMANAGEMENT

ArbeitspApierMAi 2011

Massimiliano NeriAssociate Director

Kontakt NORD- UND SÜDAMERIKA [email protected]

EUROPA [email protected]

ASIEN (AUSGENOMMEN JAPAN) +85 2 2916 [email protected]

JAPAN+81 3 5408 [email protected]

BESUchEN SIE Visit: www.moodysanalytics.comE-mail: [email protected]

Über den Autor Massimiliano Neri ist stellvertretender Direktor bei Moody’s Analytics, der die Funktion des Best Practices-Spezialisten für Produkte und Lösungen im Bereich Unternehmensrisikomanagement einnimmt. Vor seinem Wechsel zu Moody’s Analytics sammelte Massimiliano umfassende internationale Erfahrungen bzgl. der Förderung von Unternehmensprozessen und der Unternehmensregelmethodologie im Finanzsektor. Massimiliano promovierte in Angewandten Wirtschaftswissenschaften an der Universidad Juan Carlos in Madrid. In der Vergangenheit hielt er mehrere Seminare über die Mikroökonomie von Risiko und Unsicherheit an der Luiss Guido Carli Universität in Rom, der Universidad Rey Juan Carlos in Madrid und am Ludwig von Mises-Institut in den Vereinigten Staaten.

Wie Sie den Datenqualitätsmanagement-Herausforderungen von Solvency II gerecht werden.

Highlights » Die Solvency II-Richtlinie stellt strenge Anforderungen an die Datenqualität. Als Antwort auf diese Änderungen werden Versicherungsunternehmen nicht umhin kommen, ihre Prozesse anzupassen. Dieses Arbeitspapier wurde für Risikomanager, Aktuare und Solvency II-Projekt-und IT-Manager erstellt. Es betrachtet die neue Richtlinie und skizziert die wichtigsten Anforderungen an die Datenqualität. Desweiterhin werden Best Practices für die Evaluierung und das Management der Datenqualität, einschließlich verschiedener Arten von Datenqualitätsprüfungen und prozessen sowie Audit-und Prüfungsmöglichkeiten beschrieben. Dabei zeigt das Arbeitspapier auf, dass ein zentralisiertes Konzept für das Datenqualitätsmanagement, welches eine Technologie für die Automatisierung dieses Prozesses nutzt, Versicherungsunternehmen dabei helfen kann, über die reinen Datenqualität der Richtlinie hinauszugehen, indem die Vorteile von vollständigen, korrekten und transparenten Daten für eine größere operative Effektivität und eine stärker risikobasierte Entscheidungsfindung hervorgehoben werden.

Page 2: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

2 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Inhaltsverzeichnis Bedeutung der Datenqualität für Solvency II 3

Hinweis zur verwendeten Referenzliteratur 3

Kriterien zur Bewertung der Datenqualität 4

Datendefinition 4

Datenqualitätsbeurteilung 4

Detaillierungsgrad der Beurteilung 5

Anwendbarkeit des Prinzips der Proportionalität 5

Datenabgleich 5

Datenqualitätssysteme- und verfahren 6

Der Datenqualitätsmanagementprozess 6

Erhebung, Speicherung und Verarbeitung von Daten 7

Wirtschaftsprüfer und die versicherungsmathematische Funktion 7

Identifizierung von Datenmängeln 8

Management von Datenmängeln 8

Best Practices von Moody’s Analytics für Beurteilung und Management der Datenqualität 9

Ein zentralisierter Ansatz für die Datenqualität 9

Arten von Datenqualitätsprüfungen 12

Der Datenqualitätsbeurteilungsprozess und der Anwender 12

Prüfung und Nachverfolgung 14

Schlussfolgerungen 16

Weiterführende Literatur 17

uenaly
Sticky Note
Marked set by uenaly
uenaly
Sticky Note
Accepted set by uenaly
uenaly
Sticky Note
Accepted set by uenaly
Page 3: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

3 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Bedeutung der Datenqualität für Solvency II Solvency II ist die erste Richtlinie, die Versicherern strenge Anforderungen an die Datenqualität auferlegt. Risikomanagementexperten sind sich darin einig, dass gute Daten eine genauere Berechnung des Best Estimate (für versicherungstechnische Rückstellungen) ermöglichen. Keine der vorangehenden Versicherungsregelungen schrieb derartig detaillierte Anforderungen an die Datenqualität vor.

Zweifelsohne sind qualitativ gute Daten eine wichtige Voraussetzung für die korrekte Berechnung von versicherungstechnischen Rückstellungen. Die Implementierungsmaßnahmen von Solvency II wurden mit dem Ziel ausgerichtet, als Orientierung für eine einheitliche Vorgehensweise des Datenqualitätsansatzes quer durch Säule 1 zu dienen, und eine genaue Berechnung der Solvenzkapitalanforderung (SCR) und der Mindestkapitalanforderung (MCR) zu ermöglichen.

Vor allem die fünfte quantitative Auswirkungsstudie (Quantitative Impact Study - QIS5) unternahm große Anstrengungen, anspruchsvolle interne Modelle zu entwickeln, welche die Anpassung von SCR- und MCR-Berechnungen nach den Erfordernissen des Unternehmens ermöglichen. Indes ergibt es wenig Sinn, interne Modelle zu verfeinern, ohne vorher sicherzustellen, dass diese auf hochwertigen Daten basieren.

Hinweis zur verwendeten Referenzliteratur Der Ausschuss der Europäischen Aufsichtsbehörden für das Versicherungswesen und die betriebliche Altersversorgung (Committee of European Insurance and Occupational Pensions Supervisors - CEIOPS), welche die Solvency II-Richtlinie verantwortet, wurde im Januar 2011 durch die Europäische Aufsichtsbehörde für das Versicherungswesen und die betriebliche Altersversorgung (European Insurance and Occupational Pensions Authority - EIOPA) ersetzt. Da die gesamte Referenzliteratur von CEIOPS veröffentlicht wurde, verweisen wir im vorliegenden Arbeitspapier weiterhin auf diese Organisation.

CEIOPS hat zahlreiche Konsultationspapiere veröffentlicht, die sich mit dem Thema Datenqualität befassen. Die am weitesten verbreitete Publikation ist CP 43 (später umbenannt in „Versicherungstechnische Rückstellungen–— Artikel 86f Datenqualitätsstandards“1, welche die Datenqualitätsanforderungen für die Berechnung von versicherungstechnischen Rückstellungen behandelt. Dieses Arbeitspapier befasst sich vor allem mit den Kriterien zur Bewertung der Datenqualität und mit den Prozessen und Systemen zum Gebrauch des Datenqualitätsmanagements und der Erhebung, Speicherung und Verarbeitung von Daten.

Ein weiteres Arbeitspapier, das den Aspekt der Datenqualität betont, ist CP 56 (später umbenannt in „Prüfungen und Standards für Interne Modellabnahme“)2, welches den Schwerpunkt auf interne Modelle einsetzende Unternehmen setzt. Keines dieser zwei Papiere setzt das andere außer Kraft; sie sind als komplementär zu betrachten und enthalten übereinstimmungshalber Querverweise.3

Manche Kritiker bemängeln die gelegentlichen Überschneidungen zwischen den beiden Dokumenten.4 Wie dem auch sei, führt eine eventuelle Überschneidung indes zu keiner Verwechslung in der von dem Unternehmen unternommenen übergreifenden Datenqualitätsstrategie. Viele Daten, die zur Schätzung der versicherungstechnischen Rückstellungen und zur Parametrisierung von internen Modellen herangezogen werden, sind ähnlich und sollten dem gleichen Kontrollprozess unterzogen werden.

Wir haben diese Literatur und die Kommentare, die von Versicherungsunternehmen und Verbänden während der Konsultationsperiode vermerkt wurden, geprüft. In diesem Papier weisen wir auf die Bereiche der Richtlinie hin, die Anlass zu besonderen Bedenken gegeben haben, und die hieraufhin vom CEIOPS gefassten Beschlüsse.

ScR - Wichtige quantitative Kapitalanforderung, die in der Solvency-II-Richtlinie definiert ist. Die SCR ist die höhere der zwei von Solvency II geforderten Kapitalstufen und bietet ein Schutzniveau von ungefähr 1 in 200 Jahren.

McR - Wichtige quantitative Kapitalanforderung, die in der Solvency-II-Richtlinie definiert ist. Die MCR ist die niedrigere der zwei von Solvency II geforderten Kapitalstufen und bietet ein Schutzniveau von ungefähr 1 in 6 Jahren.

1 CEIOPS (43/09).2 CEIOPS (56/09).3 „Die Anforderungen der Datenqualitätsstandards für die versicherungstechnischen Rückstellungen (siehe CEIOPS-Ratschläge) gelten gegebenenfalls

auch für interne. 4 Siehe z.B. CEIOPS (56/09), Abs. 5.176.

Page 4: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

4 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Kriterien zur Bewertung der Datenqualität

Datendefinition Im Zusammenhang mit dem Begriff Daten bezieht sich CEIOPS auf die Informationen, die in versicherungsmathematischen und statistischen Methoden zur Berechnung von versicherungstechnischen Rückstellungen verwendet werden.5 Dies triff auch auf Daten zu, die bei der Festsetzung spezifischer Annahmen in Bezug auf die Bewertung von versicherungstechnischen Rückstellungen verwendet werden.6

Datenqualitätsbeurteilung Die Datenqualitätsbeurteilung sollte anhand von drei Kriterien durchgeführt werden.

» Angemessenheit

» Vollständigkeit

» Fehlerfreiheit

Es kann für eine Organisation schwierig sein, Daten zu beschaffen, die gleichzeitig angemessen, vollständig und fehlerfrei sind. Dieses Problem ist das Resultat von praktischen Schwierigkeiten, die sich aus der kontinuierlichen Entwicklung von Versicherungsprodukten, von Risiken und des institutionellen Umfeldes des Unternehmens ergeben.8

In diesem Abschnitt werden die Kriterien erläutert, die benutzt werden, um die Qualität der Daten zu beurteilen. Der nächste Abschnitt beschreibt, was zu tun ist, wenn die Beurteilung Mängel offenbart.

AngemessenheitDaten müssen den abgedeckten Risiken und der Berechnung des für die Abdeckung dieser Risiken erforderlichen Kapitals angemessen sein. Daten, die für das Management der Automobilindustrie geeignet sind, sind vielleicht nicht geeignet zur Verwaltung von Lebensversicherungsrisiken und umgekehrt.

Formal gesehen sind Daten angemessen, wenn sie die folgenden beiden Anforderungen erfüllen.9

– Sie sind geeignet für die Wertermittlung von versicherungstechnischen Rückstellungen (zum Beispiel für die Schätzung der künftigen Geldzu- und -abflüsse von Passiva) und/oder der Festsetzung von Annahmen.

– Sie stehen in einem direkten Zusammenhang mit den zugrundeliegenden Portfolio-Risikotreibern der in Erwägung gezogenen Risiken (genauer gesagt, mit deren Relevanz).

VollständigkeitNach Maßgabe der Richtlinie sind Daten formell vollständig, wenn drei Anforderungen erfüllt sind.10

– Die Daten decken alle wichtigen homogenen Risikogruppen im Verbindlichkeits-Portfolio ab.

– Die Daten verfügen über eine ausreichenden Detaillierungsgrad, um ein umfassendes Verständnis des Verhaltens des zugrundeliegenden Risikos und die Identifizierung von Trends zu ermöglichen.

– Die Daten liefern ausreichende historische Informationen.

Die Vollständigkeit der Daten wird durch Vergleiche mit Daten aus anderen Geschäftssparten oder Risikofaktoren beurteilt.Während der Konsultationsperiode führte die folgende Aussage aus dem Originaltext zu erheblichen Bedenken.

Diese Definitionen charakterisieren Daten nur in Bezug auf Versicherungsverbindlichkeiten Wir empfehlen, dass Versicherungsunternehmen eine breitere Definition des Begriffes Daten erwägen, welche auch Aktiva7 und das Verhältnis zwischen Aktiva und Passiva mit einbezieht, um der Datenqualitätsbeurteilung einen umfangreicheren Geltungsbereich zu verleihen.

5 „Der Begriff „Daten“ bezieht sich auf all jene Informationen, die direkt oder indirekt benötigt werden, um eine Wertermittlung von technischen Rückstellungen vorzunehmen, insbesondere durch die Anwendung von angemessenen versicherungsmathematischen Methodologien“, CEIOPS (43/09), Abs. 3.56.

6 CEIOPS (43/09), Abs. 3.58.7 Zum Beispiel: Marktdaten, Wertpapierkurse, Positionen usw.8 „Änderungen im operativen Umfeld (z. B. gesetzliche Änderungen) können die Angemessenheit der historischen Daten verringern, weil sie für

Prognosezwecke weniger glaubwürdig werden“, CEIOPS (43/09), Abs. 3.23.9 CEIOPS (43/09), Abs. 3.62–3.10 CEIOPS (43/09), Abs. 3.64-5.

Page 5: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

5 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

„Wenn z. B. Abwicklungsdreiecke zur Errechnung der besten Schätzung verwendet werden, ist es notwendig, alle Zahlungen und das Datum, an dem die Zahlung geleistet wurde, separat aufzunehmen, statt nur den gezahlten Gesamtbetrag aufzuführen.“

Diese Aussage löste bei Lebens-und Rückversicherungsgesellschaften, die an einer Zahlungsgruppierung interessiert waren, ernsthafte Bedenken aus. In dem Beschluss, der nach der Konsultation gefasst wurde, unterstrich CEIOPS jedoch, dass alle Zahlungen erfasst werden müssen. In Bezug auf das Lebensversicherungsgeschäft bemerkte CEIOPS: „Da ein voraussichtlich diskontierter Cashflow-Ansatz vorgeschrieben wird, werden historische Informationen generell nur zur Festsetzung von Annahmen benötigt.“11

Aufgrund von Meldeverzögerungen werden Rückversicherer die Möglichkeit haben, das Zahlungsdatum des Zedenten anstelle des eigenen in den Abwicklungsdreiecken anzugeben.12

FehlerfreiheitUm Fehlerfreiheit zu gewährleisten, müssen die Daten vier Anforderungen erfüllen.

– Sie dürfen nicht von Fehlern oder Auslassungen geprägt sein.

– Sie müssen in angemessener Form, zeitnah und konsistent gespeichert sein.

– Sie müssen ein hohes Maß an Aussagewahrscheinlichkeit/Sicherheit aufweisen.

– Die Glaubwürdigkeit der Daten muss durch die Nutzung im Betriebsablauf- und Entscheidungsprozess nachgewiesen werden.

Gemäß der Richtlinie erfordert das Kriterium der Fehlerfreiheit die Durchführung von Daten- und Konsistenzprüfungen.

Detaillierungsgrad der BewertungDie Bewertung der ersten zwei Kriterien (Angemessenheit und Vollständigkeit) sollte auf der Portfolio-Ebene durchgeführt werden. Dennoch muss es bei Bedarf möglich sein, diese Prüfung mit einer feineren Detaillierungsgrad vorzunehmen. Um die Fehlerfreiheit hingegen zu gewährleisten, sollte die Organisation eine Vorgehensweise auf individueller Postenebene in Betracht ziehen.13

Anwendbarkeit des Prinzips der Proportionalität Für Portfolien, denen einfache Risiken zugrundeliegen (was die Beschaffenheit, das Ausmaß und die Komplexität betrifft), wird das Kriterium der Fehlerfreiheit etwas lockerer interpretiert als bei Portfolien mit komplexen Risiken, da weniger Daten benötigt werden. Allerdings sind historische Daten wichtig und sollten erfasst werden, weil sie später einmal relevant werden könnten.

Wenn die Beschaffenheit, das Ausmaß und die Komplexität von zugrundeliegenden Risiken höher sind, wird das Datenqualitäts-Management höheren Standards unterworfen. Dennoch ist es manchmal nicht möglich, in der Anwesenheit von komplexen Risiken größere Datenmengen zu sammeln (zum Beispiel im Falle von Ereignissen mit geringer Häufigkeit). Um die Stabilität des Daten-Managementprozesses sicherzustellen, sollte das Unternehmen in diesem Fall die Verwaltung der internen Informationen mit relevanten externen Informationen ergänzen und Fachurteile von Experten einholen.

DatenabgleichEin wichtiger Aspekt, der mit der Definition des Kriteriums der Fehlerfreiheit zusammenhängt, ist der Vorgang des Datenabgleichs. Dieser Prozess ermöglicht den Versicherungsunternehmen ihre Daten mit externen Referenzen zu vergleichen, um deren Konsistenz zu prüfen. Der Begriff Abgleich bezieht sich dabei auf die Abgrenzung der Gründe für die Abweichungen zwischen Daten und deren Folgen.14

Zum Beispiel würde der Prozess der Hauptbuch-Abgleichung folgendes beinhalten:

– Generierung von Buchungen, um eine auf internen Daten basierende Bilanz aufzustellen.

– Vergleich mit der offiziellen Bilanz.

– Identifizierung und Erläuterung von Abweichungen, sofern vorhanden.

11 Siehe CEIOPS-SEC (106/09), Beschlüsse 67, 73. Original: “as a prospective discounted cash flow approach is specified, historical information is generally only required for the purpose of assumption setting.”

12 Siehe CEIOPS-SEC (106/09), Beschlüsse 66, 68, 73.13 CEIOPS (43/09), Abs. 3.61. 14 In einer ersten Fassung der Richtlinie war es nicht eindeutig, ob Abgleichen nur die Identifizierung der Abweichungen (sofern vorhanden) oder die

Erläuterung der Gründe/Folgen der Abweichungen bedeutete. Daher ist es nicht redundant zu bestätigen, dass ein Abgleichen sowohl die Erläuterung der Abweichungen als auch deren Gründe/Folgen bedeutet.

Page 6: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

6 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Datenqualitätssysteme und VerfahrenDie Unternehmung sollte Systeme und Verfahren einführen, mit deren Hilfe Versicherungsgesellschaften ordnungsgemäß die drei folgenden Bereiche adressieren können.

» Prozess des Datenqualitäts-Managements

» Datenerhebung, Speicherung und Verarbeitung

» Externe Wirtschaftsprüfer und versicherungsmathematische Funktion

Desweiteren erfordert die Verwaltung der Datenqualität das Versicherungsunternehmen Vorgehensweisen definieren, wenn Datenlücken festgestellt werden.

Der Datenqualitäts-Management-ProzessDer Prozess des Datenqualitäts-Managements besteht aus vier wichtigen Schritten, die wie in der folgenden Abbildung dargestellt, in einem Kreislauf durchgeführt werden können.

Schritt 1: Datendefinition Die Richtlinie verlangt, dass die Daten, die das Geschäft des Unternehmens beschreiben, angemessen und vollständig sind. Die Definition der Daten umfasst die Identifizierung der Datenanforderungen, die dieses Kriterium erfüllen. Datenanforderungen sollten eine sachgemäße Beschreibung der einzelnen Posten und deren Beziehungen untereinander enthalten. Unsere Erfahrung mit Kunden zeigt, dass die Pflege der Dokumente, welche die wichtigste Dimension der Segmentierung (zum Beispiel nach homogenen Risikogruppen) umfassen, eine stärkere Datendefinition ermöglichen.

Schritt 2: Datenqualitätsbewertung Die Datenqualitätsbewertung umfasst die Validierung der Daten nach drei Kriterien: Angemessenheit, Vollständigkeit und Fehlerfreiheit. Die Bewertung sollte die Kanäle mit deren Hilfen die Daten gesammelt und verarbeitet werden – sei es durch interne Systeme, externe Dritte oder öffentlich zugänglich elektronische Quellen – berücksichtigen.

Schritt 3: Problemlösung Die Probleme, die während der Bewertung der Datenqualität identifiziert werden, werden an dieser Stelle behandelt. Es ist wichtig, etwaige Dateneinschränkungen zu dokumentieren und die Historisierung der Daten zu ermöglichen, um der Aufsichtsbehörde anhand von historische Daten zu zeigen, dass die Maßnahmen zur Behebung von fehlerhaften Daten gerechtfertigt sind.

Schritt 4: Datenqualitätsüberwachung Die Datenqualitätsüberwachung, welche auf den Indikatoren zur Datenqualität beruht, umfasst die Leistungsüberwachung von zusammenhängenden IT-Systemen. Die Häufigkeit, mit der die Datenqualität anhand von Leistungsindikatoren überwacht wird, rief während der Konsultationsperiode wichtige Kommentare hervor.15 Aus den Beschlüssen geht hervor, dass die Datenqualitätsüberwachung vom Revisionsprozess abgekoppelt ist und dass sie zwei Dimensionen beinhaltet: eine quantitative und eine qualitative. („Für die Beurteilung der Datenqualität können zwar adäquate objektive Maßnahmen und Indikatoren herangezogen werden, doch kann sie nicht von einer Beurteilung durch Sachverständige dissoziiert werden.“)16

15 CEIOPS-SEC (106/09), Beschluss 314–324.16 CEIOPS-SEC (106/09), Beschluss 198. Original: “the assessment of data quality may make use of adequate objective measures and indicators, but it

cannot be dissociated from expert judgment”

Datendefinition

Datenqualitäts-Beurteilung

Problemlösung

Datenqualitäts-

Überwachung

Datenqualitäts-Management

Page 7: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

7 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Die Bewertung der Datenqualität könnte täglich, wöchentlich oder sogar monatlich erfolgen; die Richtlinie gibt keinen Aufschluss darüber, mit welcher Häufigkeit die Beurteilung zu erfolgen hat. Einerseits zieht Moody’s Analytics es vor, eine Überregulierung und eine einheitliche Methodologie zu vermeiden; andererseits empfiehlt es sich unserer Erfahrung nach, den Prozess so häufig wie möglich durchzuführen. Für diesen Ansatz gibt es drei Gründe.

1. Wenn zum Beispiel Daten in versicherungsmathematische Prozesse eingegeben werden, die im Laufe der Tagesgeschäfte durchgeführt werden, ist es eindeutig angebracht, die zuletzt aktualisierte Version der bereinigten Daten zu übernehmen.

2. Es ist hilfreich für Risikomanager und Aktuare den Wünschen der Vorstandsmitgliedern nach neuen Messungen zu entsprechen, insbesondere in Krisenzeiten.

3. Die Datenqualitätsbewertung ist, wie im folgenden Abschnitt erläutert, ein kontinuierlicher Prozess der Überwachung und Anwendung von Maßnahmen, um die Qualität der Daten zu verbessern. Es ist schwierig, eine einwandfreie Kontinuität zu gewährleisten, wenn die Beurteilung der Daten nicht mit der angemessenen Häufigkeit erfolgt.

Erhebung, Speicherung und Verarbeitung von Daten Die Erhebung, Speicherung und Verarbeitung von Daten sollte nach den folgenden Kriterien durchgeführt werden.17

» Transparenz

» Detaillierungsgrad

» Sammlung von historischen Daten

» Rückverfolgbarkeit

Die Eigenschaft der Transparenz bezieht sich auf die Tatsache, dass - im Gegensatz zu einer ‚Black Box‘ - eine logische Verbindung zwischen den Eingaben und Ausgaben bestehen sollte.18

Die Ausführlichkeit der Daten bezieht sich auf den Detaillierungsgrad anhand dessen die Daten im Repository der Versicherungsrisikodaten gespeichert werden. Je feiner der Detaillierungsgrad (die Einzelvertrags-Ebene, die letztendlich durch Modellpunkte zu aggregieren ist), desto robuster wird der nachgelagerte Kalkulationsprozess sein.

Historische Daten sollten regelmäßig gespeichert und gesammelt werden, um bestimmte versicherungstechnische Rückstellungen beurteilen zu können. Vor der Konsultationsperiode wurde von der Originalformulierung verlangt, dass die Versicherungsunternehmen die historischen Daten in einem „allgemeinen“ Sinne sammelten. Allerdings bezieht sich die endgültige Formulierung nur noch auf „relevante Daten“.19 Daher darf bezweifelt werden, ob sich die relevanten Daten in Zukunft ändern könnten, und zwar infolge von Änderungen im betrieblichen Umfeld (zum Beispiel in Form von nationalen aufsichtsrechtlichen Änderungen) oder mit der Einführung von neuen Versicherungsprodukten.

Obwohl Moody’s Analytics die Vermeidung von Überregulierungen und verallgemeinernden Ansätzen präferiert, empfehlen seine Best Practices, dass Versicherungskonzerne so viele historische Daten wie möglich ansammeln.20

Zu guter Letzt bezieht sich die Eigenschaft der Rückverfolgbarkeit auf die wichtige Anforderung, dass die Aktualisierungen der Daten ordnungsgemäß dokumentiert und geprüft werden müssen.

Wirtschaftsprüfer und die versicherungsmathematische Funktion Interne und externe Wirtschaftsprüfer sind verantwortlich für die Kontrolle von spezifischen Datensätzen und die Durchführung einer förmlichen und systematischen Prüfung anhand von Techniken, die gewöhnlich von professionellen Wirtschaftsprüfern eingesetzt werden.21

17 CEIOPS (43/09), Abs. 3.81-85.18 CCEIOPS (56/09), Abs. 5.63. 19 Man findet die Definition von „relevanten Daten“ in der Definition des Angemessenheitskriteriums. „[Sie] steht in einem direkten Zusammenhang mit

den zugrundeliegenden Risikotreibern,“ CEIOPS (43/09), Abs. 3.62.20 Der gleiche Kommentar wurde gemacht und von CEIOPS „vermerkt“ siehe CEIOPS-SEC (106/09), Beschluss 244, 247. Es sollte auch erkannt werden,

dass, obwohl mehr historische Daten besser sind als wenige, die aktuellsten Daten üblicherweise angemessener sind als ältere Daten.21 CEIOPS (43/09), Abs. 3.40-43. Obwohl viele Kommentare, die an das Konsultationspapier geschickt wurden, eine detailliertere Definition der

Rolle und des Umfangs der von Wirtschaftsprüfern und Aktuaren durchgeführten Analyse verlangten, liegt dieser Detaillierungsgrad außerhalb des Anwendungsbereichs der Richtlinie zur Datenqualität und wurde dem CEIOPS (33/09) überlassen.

Page 8: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

8 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Andererseits ist die versicherungsmathematische Funktion der Versicherungsgesellschaft nicht dafür verantwortlich, eine formelle Prüfung der Daten durchzuführen. Die Funktion ist jedoch zur Prüfung der Datenqualität erforderlich, wobei „informelle Untersuchungen ausgewählter Datensätze“ durchgeführt werden, um zu bestimmen und zu bestätigen, dass die Daten dem vorgesehenen Zweck entsprechen.

Identifizierung von Datenmängeln Die Beurteilung der Datenqualität kann negative Ergebnisse aufweisen. Dies kann auf die Anwesenheit von einem oder mehreren der folgenden Faktoren zurückzuführen sein :

» Besonderheiten in der Beschaffenheit oder Größe des Portfolios

» Mängel in den internen Prozessen von Datenerhebung, Datenspeicherung oder Datenqualitätsvalidierung

» Mängel im Austausch von Informationen mit Geschäftspartnern auf zuverlässige und standardisierte Art und Weise

Zahlreiche Mängel sind Beispiele von qualitativ minderwertigen Daten, die sich aus den Besonderheiten in der Beschaffenheit oder der Größe des Portfolios ergeben. Zum Beispiel könnte ein Datendefizit vorliegen, wenn die Häufigkeit von Schadensfällen zu niedrig ist oder wenn das Geschäftsfeld noch zu jung ist, um über ausreichende historische Schadensdaten zu verfügen. Andere Beispiele könnten das Ergebnis eines niedrigen Geschäftsvolumens oder von vielen verschiedenen Schadensfällen sein, welche die Bildung von (homogenen) Klassenwahrscheinlichkeiten beeinträchtigen. Darüber hinaus könnten Änderungen in der Gesetzgebung die Angemessenheit der historischen Daten mindern, da exogene Änderungen im betrieblichen Umfeld die Eignung der angesammelten historischen Daten zur Vorhersage des künftiges Verhaltens reduzieren können.

Sofern der Mangel auf den internen Prozess der Datenerhebung, Datenspeicherung oder Datenqualitätsvalidierung zurückzuführen ist, wird die Verantwortung oft der IT-Abteilung übertragen oder den hohen Kosten der Datenerhebung und -pflege zugeschrieben.22 Wie dem auch sei, kann die Aufsichtsbehörde die IT-Abteilung darum bitten, angemessene Maßnahmen zu ergreifen, um die Eignung des Systems sicherzustellen.23

Während der Konsultationsperiode wurden viele Kommentare zu der Schnelligkeit vorgebracht, mit der ein Datenmangel behoben werden sollte. Im ursprünglichen Text stand, dass die Versicherungsgesellschaft „sofortige Maßnahmen zu treffen habe, um diese Umstände zu beheben“. In der Endfassung jedoch wurde das Wort „sofortige“ durch „angemessene“ ersetzt, was darauf hindeutet, dass die Behebung des Datenmangels einen erheblichen Aufwand seitens der IT-Abteilung erfordern könnte, welche der Priorität nach durchgeführt werden sollte.24

Management von Datenmängeln Um die Qualität der Daten zu optimieren, könnte das Versicherungsunternehmen in manchen Fällen Datenanpassungen vornehmen. Diese Anpassungen müssen gerechtfertigt sein und dokumentiert werden und sollten die unaufbereiteten Daten nicht überschreiben.25 Dies bedeutet, dass eine klare Anforderung für die Rückverfolgung und die Historisierung von Datenänderungen vorgeschrieben ist.

Wenn ein Datenmangel unvermeidlich ist (zum Beispiel aufgrund der Beschaffenheit oder der Größe des Portfolios), kann das Unternehmen weitere Anpassungen an den Daten vornehmen und/oder Annahmen in Form von Näherungswerten implementieren. Diese Näherungswerte können durch die Anwendung einer Sachverständigenbeurteilung eingeführt werden, die die in CEIOPS (33/09) enthaltenen Richtlinien erfüllt. Wie dem auch sei, ist es unter keinen Umständen erlaubt, Näherungswerte als Ersatz für die Übernahme von angemessenen Systemen und Prozessen zu verwenden, welche die angemessene Datenqualität gewährleisten.

Eine Best Practice, die Anpassungen auf kontrollierte, dokumentierte und einheitliche Art vorzunehmen, ist die Sammlung von Datenbereinigungsregeln, die bei unaufbereiteten Daten einzuarbeiten sind. Die Daten müssen unverändert bleiben; die berichtigten Daten müssen mit dem Nachweis der vorgenommenen Änderungen gespeichert werden. Um die Effizienz der Datenqualitätsvalidierung zu erhöhen, sollte die Ausführung von Datenbereinigungsregeln automatisiert und historisiert werden.

22 CEIOPS (43/09), Abs. 3.19.23 CEIOPS (43/09), Abs. 3.22.24 Siehe CEIOPS-SEC (106/09), Beschlüsse 274-285.25 Zum Beispiel „um historische Daten im Falle von Änderungen im betrieblichen Umfeld oder von Änderungen in der Gesetzgebung anzupassen,“

CEIOPS (43/09), Abs. 3.72 Original: “to adapt historical data in case of changes in the operating environment or changes in legislation,”

Page 9: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

9 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Bei einer Datenanpassung sollte die Beurteilung der Datenqualität auf einer detaillierteren Ebene so erfolgen, „als ob sie mit der Absicht durchgeführt würde, einer spezifischen Methodologie zu entsprechen oder die Angemessenheit von spezifischen Annahmen und Parametern zu überprüfen.”26

Wenn die Datenqualitätsbeurteilung darauf hinweist, kann das Versicherungsunternehmen interne Daten durch extern abgerufene Daten (Drittdaten oder Marktdaten) ergänzen. Für den Fall, dass die externen Daten übergenommen werden, können sie den folgenden Qualifizierungskriterien der Datenqualitätsbeurteilung unterzogen werden.27

– Die Angemessenheits- und Vollständigkeitsprüfung sollte auf der Portfolio-Ebene durchgeführt werden; sofern relevant, kann sie auch auf einem detaillierteren Niveau (einzelne Positionen) stattfinden.

– Die Prüfung der Fehlerfreiheit ist problematisch, weil externe Informationen nicht auf der individuellen Ebene gesammelt werden. Daher muss die Prüfung auf Grund der Zuverlässigkeit der Informationsquelle, und der Konsistenz und Stabilität der Datenerhebungsprozesse der Quelle zum Zeitpunkt ihrer Veröffentlichung durchgeführt werden.

Best Practices von Moody’s Analytics für die Beurteilung und das Management der Datenqualität

Ein zentralisierter Ansatz für die DatenqualitätUm einen sauberen und effizienten Ansatz für das Risikomanagement zu gewährleisten, werden Risikoberechnungsmodule mit Dateneingaben (z. B. Hypothesen und Parametern) von einem zentralisierten Risikodaten-Repository (Risiko-Data-Warehouse) gespeist. In diesem Repository können Anwender eine gemeinsame Bedeutung der Daten für alle verschiedenen Projektbeteiligten (Aktuare, IT, Finanztechniker, Risikomanager, Buchhalter usw.) definieren.

Dieser Ansatz wird in der Risikomanagementbranche weithin anerkannt, weshalb die nächste Frage lautet: Wo ist der Datenqualitäts-Managementprozess im Verhältnis zu dem zentralisierten Risikodaten-Repository zu positionieren? Für die Anwendung von Datenqualitätsprüfungen gibt es drei Optionen. Im folgenden Abschnitt werden diese drei Optionen besprochen und ihre Vor-und Nachteile analysiert.

Datenqualitätsmodel Nummer Eins: Datenqualitätsprüfung in dezentralisierten DatenquellsystemenBevor die Daten in das Risiko-Data-Warehouse importiert werden, findet eine Beurteilung der Datenqualität in den Datenquellsystemen statt.

ETL

Risiko-Data-Warehouse

DataScenarioErgebnisse

Datenqualitätsbeurteilungvor dem Import der Daten

Datenquellsysteme

26 CEIOPS (43/09), Abs. 3.86. Original: “as it would be made with a view to fit a specific methodology or to review the appropriateness of specific assumptions and parameters.”

27 CEIOPS (43/09), par. 3.89.

Page 10: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

10 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Eine mögliche Option besteht darin, Datenqualitätsprüfungen während der Transformationsphase des ETL-Prozesses durchzuführen. Aus IT-Sicht ist dies eine natürliche Position für die Datenprüfungen. Allerdings hat diese Lösung mindestens drei Nachteile.

Erstens sind die Datenprüfungen in ein sehr technisches System eingebettet; folglich hat der Anwender (der Risikomanager oder der Aktuar) keinen Zugriff auf die Datenprüfungen.

Zweitens kann die Verwaltung einer größeren Menge von Datenqualitätsprüfungen schwierig werden. Ein ETL-Tool ist gewöhnlich für die Verwaltung zahlreicher Datenflüsse in das Risiko-Data-Warehouse konfiguriert; somit würden Datenqualitätsprüfungen in jedem Datenfluss stattfinden. Folglich können Datenprüfungen von den gleichen Unstimmigkeiten betroffen sein wie im vorherigen Beispiel (wie z.B. die Vervielfachung und Inkonsistenz).

Schlussendlich, und hiermit am allerwichtigsten, würden Datenqualitätsprüfungen, die während der Datenladung vorgenommen werden dazu führen, dass Daten von minderer Qualität herausgefiltert werden und somit nicht alle verfügbaren Daten in das Risiko-Data-Warehouse geladen werden. Moody’s Analytics spricht sich gegen diese Methode aus, da auch Daten von geringer Qualität für die Anwender einen Nutzen haben. Die Anwender können die Daten analysieren, um zu verstehen, warum sie von geringer Qualität sind, und sie können anhand dieser Beurteilung entscheiden, was sie damit tun möchten – sie etwa in Risikoberechnungen einbeziehen, sie vorübergehend bereinigen usw.

ETL

Risiko-Data-Warehouse

DataScenarioErgebnisse

Datenquellsysteme

Datenqualitätsbeurteilungwährend des Datenimports

Diese Option hat den Vorteil, dass der Eigentümer eines jeden externen Datenquellsystems die Datenqualitätsprüfung und die dazugehörigen Datenkorrektur leicht verwalten kann. Dennoch weist dieser Ansatz viele Nachteile auf.

Erstens: Wenn die Kontrolle der Daten von Konflikten zwischen Dateneigentümern beeinträchtigt wird, sind die Anwender der Daten zu Risikozwecken stets Opfer solcher Konflikte; sie sind für die Datenqualität gegenüber der Aufsichtsbehörde verantwortlich, haben zugleich indes nicht die Autorität, die Daten in angemessener Zeit zu bereinigen, da diese Aktivität von anderen abhängig ist.

Zweitens: Die Eigentümer von externen Datensystemen sind häufig IT-seitig positioniert; in solchen Fällen hat der Solvency-II-Anwender keinen Zugriff auf den Datenqualitätsbeurteilungsprozess.

Drittens: Die Verwaltung der Datenqualitätsprüfungen kann umständlich werden. Datenqualitätsprüfungen werden in mehreren Silos durchgeführt, welche die Vervielfachung und Inkonsistenz des Datensatzes verursachen können. In multiplen Systemen ist es oft schwierig, eine verantwortliche Person für die Qualitätsprüfungen der Daten zu identifizieren.

Datenqualitätsmodel Nummer Zwei: Datenqualitätsprüfung anhand von ETL-ToolsDer Import von Daten in das Risiko-Data-Warehouse erfolgt oft über ein Extrahieren-Transformieren-Laden (ETL)-Tool. Die Daten werden aus dem Quellsystem extrahiert, transformiert und dann in das Risiko-Data-Warehouse geladen.

Page 11: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

11 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Datenqualitätsmodel Nummer Drei: Datenqualitätsprüfungen im Data-Warehouse

Diese Option ermöglicht auch Anwendern, die nicht direkt für die Datenqualität verantwortlich sind, den direkten Zugriff auf die Datenqualitätsprüfungen. Das bedeutet, dass die Anwender im Rahmen ihrer gewöhnlichen Modellierungstätigkeiten und Validierungen einen Überblick über die Datenqualitätsbeurteilung bekommen und sich mit jeder einzelnen Prüfung befassen können. Sie könnten zum Beispiel eine Datenprüfung aktivieren oder deaktivieren, um eine Was-wäre-wenn-Analyse durchzuführen (d. h. die Diskrepanz in den Ergebnissen prüfen, indem sie gewisse Daten in einen Berechnungsprozess einspeisen). Desweiteren könnten Anwender auf der Grundlage von den im System aktiven Datenqualitätsprüfungen die Daten, ohne die Einbindung der IT, direkt aktualisieren. Diese Tätigkeiten wären in den zwei vorherigen Ansätzen nicht möglich.

Darüber hinaus (wie im zweiten Modell besprochen) ist es von Vorteil alle Daten, einschließlich Daten minderer Qualität, zu importieren. Dies ermöglicht den Anwendern, Daten von geringer Qualität zu beurteilen und angemessene Maßnahmen zu treffen.

Der größte Nachteil dieses Ansatzes besteht darin, dass Anwender, die inkorrekte Daten permanent bereinigen möchten, auf die Quellsysteme zugreifen müssen. Dies könnte als Einschränkung angesehen werden, da die Datenprüfungen und die Bereinigungsregeln sich an zwei verschiedenen Stellen der IT-Architektur befinden würden. Es sollte aber auch berücksichtigt werden, dass der Eigentümer der sich im Risikodaten-Warehouse befindlichen Daten meistens nicht mit dem Eigentümer der Datenquellsysteme übereinstimmt. Somit könnten IT-Steuerungs-Konflikte durch eine Änderung in den Altsystemen entstehen.

Die Möglichkeit, Daten im Risiko-Data-Warehouse vorübergehend zu berichtigen, während auf die Durchführung der Korrekturen in den vorgelagerten Datenquellsystemen gewartet wird, scheint ein guter Kompromiss zu sein. Somit können der Risikomanager und der Aktuar dieses Problem umgehen und ihre Folgsamkeit gegenüber der zuständigen Aufsichtsbehörde demonstrieren.* *Datenaktualisierungen beschränken sich auf die Anwender, die über die erforderlichen vorgegebenen Berechtigungen verfügen, um diese auszuführen.

ETL

Risiko-Data-Warehouse

DataScenarioErgebnisse

Datenquellsysteme

Datenqualitätsbeurteilungnach dem Datenimport

Page 12: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

12 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Arten von Datenqualitätsprüfungen Best Practices legen nahe, dass Versicherungsunternehmen vier Arten von Datenqualitätsprüfungen in Betracht ziehen sollten.

Technische Prüfungen Diese stellen technische Beschränkungen dar, die sich mit einem oder mehreren Feldern im Datenmodell (sogar in multiplen Datentabellen) beschäftigen, z. B. Beschränkungen bezüglich der referentiellen Integrität. Hier ein mögliches Beispiel für eine technische Prüfung: Der Buchungscode einer Versicherungspolice stimmt mit keiner der Eingaben in der Buchungstabelle für Transaktionen überein.

Funktionsprüfungen Diese stellen funktionelle Zwänge dar, die ein oder mehrere Felder im Datenmodell (sogar in multiplen Datentabellen) betreffen. Zum Beispiel muss das Geburtsdatum eines Kunden vor dem Datum der Wertstellung einer Police liegen, oder das Geschlecht eines Kunden muss entweder männlich, weiblich oder als eine Firma klassifiziert sein.

Betriebswirtschaftliche Konsistenzprüfungen

Betriebswirtschaftliche Konsistenzprüfungen beziehen sich auf eine spezifische betriebswirtschaftliche Bedeutung der Daten und stehen häufig mit Daten, die Versicherungsprodukte beschreiben, in Verbindung. Diese Zwänge können ein oder mehrere Felder im Datenmodell (sogar in multiplen Datentabellen) betreffen. Zum Beispiel muss der Wert der Prämienzahlungszeiträume mit dem des Policentyps übereinstimmen.

hauptbuchabstimmung Gelegentlich kann die Datenladungsaktivität durch vorübergehende Fehler oder den Wegfall von Teilen der Daten beeinträchtigt werden. Wenn - aus Versehen - ein kleiner Teil des Portfolios nicht geladen wird, decken die Datenqualitätsprüfungen keine Besonderheiten auf, die Risikoberechnungen laufen, und die Ergebnisse zeigen keine erhebliche Abweichung (angesichts der geringen Auswirkung der fehlenden Daten). Die Daten werden mit einem Fehler an die Aufsichtsbehörde weitergeleitet. Statt dessen kann, durch die Einführung einer Abstimmungsprüfung, eine einfache Version der Bilanz mit einer Bilanz verglichen werden, welche anhand der importierten Daten rekonstruiert wird.28 Dies kann Probleme verursachen, wie z. B. den Import einer Gruppe von 50 Policen, mit dem Verschwinden des Kommas im Wertfeld, so dass alle Werte mit dem Faktor 100 multipliziert werden. Ein anderes Beispiel betrifft Probleme, die sich im Zusammenhang mit Wechselkursen und ausländischen Tochtergesellschaft ergeben, die den Daten keine gemeinsame Bedeutung zuschreiben.

Jeder Datenqualitätsprüfungstyp wird durch einen anderen Anwendertyp überwacht. Zum Beispiel werden technische Prüfungen von der IT-Abteilung beurteilt und betreut, während Funktionsprüfungen entweder von Anwendern mit einem funktionellen Profil (einem Risikomanager) oder Anwendern mit einem technischen Profil bewerkstelligt werden. Betriebswirtschaftliche Prüfungen werden von Geschäftsanwendern (Risikomanagern und Aktuaren) durchgeführt, die für das Management von Produkten und Einzelpolicen verantwortlich sind. Letztendlich wird die Hauptbuchabstimmung durch ein funktionelles Profil gehandhabt, welches sich an der Schnittstelle zur Buchhaltungsabteilung befindet.

Der Datenqualitätsmanagementprozess und der Anwender Der vorige Abschnitt hat dargestellt, wie wichtig es ist, den Anwendern Zugriff auf den Datenqualitätsbeurteilungsprozess zu gewähren. Der vorliegende Abschnitt bespricht weitere Aspekte dieser Anforderung. Zum Beispiel schreibt die Richtlinie der versicherungsmathematischen Funktion die spezifische Verantwortung einer informelle Datenqualitätsüberprüfung zu.29

Gemäß den Best Practices von Moody’s Analytics sollten Datenprüfungen für den Anwender in natürlicher Sprache ausgedrückt werden und mit größtmöglicher Flexibilität zu bewältigen sein, wie in der folgenden Tabelle dargestellt.

28 Die Bedeutung der Abstimmung mit Rechnungslegungsdaten wird in der Regulierung von CEIOPS (CP 43/09), 1.3. zum Ausdruck gebracht.29 CEIOPS (43/09), Abs. 3.40-43.

Page 13: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

13 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Das Ergebnis der Datenqualitätsüberprüfungen beeinflusst die täglichen Aktivitäten der Aktuaren und Risikomanagern.

Moody’s Analytics empfiehlt, dass Versicherungsunternehmen eine Infrastruktur aufbauen, mit der Anwender die Qualität der Daten in einer benutzerfreundlichen Umgebung, die keinen IT-Eingriff erfordert, beurteilen können. Zum Beispiel könnte ein Aktuar das Qualitätsniveau einer Sterblichkeitstabelle berücksichtigen, bevor er eine bestimmte Aufgabe ausführt. Ein Risikomanager, der ein Back Testing eines bestimmten Modells vornimmt, könnte eine Unstimmigkeit der Daten direkt berichtigen oder das Modell in so weit kalibrieren, um das Problem zunächst einmal zu umgehen.

Des Weiteren sollten Datenqualitätsüberprüfungen verschiedene Schweregrade aufweisen, die von dem Aktuar oder dem Risikomanager bestimmt werden. Zum Beispiel könnte eine relevante Datenqualitätsüberprüfung eine Unstimmigkeit hervorhebe die die Berechnung nicht beeinträchtigt, im Gegensatz zu der Missachtung einer verpflichtenden Datenqualitätsüberprüfung, welche zu einem Ausschluss der Daten aus der Berechnung führen könnte.

Die folgende Abbildung stellt eine benutzerfreundliche Umgebung dar und beschreibt die folgenden drei Hauptaufgaben.

– Eine Liste von fehlerhaften Verträgen

– Für jeden Vertrag die Liste der Datenprüfungen, die durchgeführt wurden

– Für jede Datenprüfung mit einem Fehler eine geografische Identifizierung des archivierten Fehlers, damit der Anwender bezüglich der Daten handeln kann (basierend auf dem Status der Autorisierung des Anwenders)30

30 Natürlich sollte jedes Softwaretool, das diesen Datenqualitätsprozess unterstützt, auch die automatische Berichtigung von Inkonsistenzen ermöglichen.

Die Abbildung zeigt eine Liste von Fehlern in Verträgen, die durchgeführten Datenprüfungen und eine grafische Identifizierung des archivierten Fehlers.

Beispiel für eine Datenprüfung

Page 14: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

14 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Die von den Datenqualitätsprüfungen aufgedeckten Unstimmigkeiten sollten vom Anwender anhand von verschiedenen Detaillierungsebenen analysiert werden – von einer aggregierten Ebene bis zur kleinsten Detailstufe. Unter diesem Gesichtspunkt bietet es sich an, Drill-Down-Technologien wie OLAP-Würfel einzusetzen.

Prüfung und Nachverfolgung Wir haben bereits die Anforderungen der Richtlinie für Prüfungs- und Nachverfolgungstätigkeiten besprochen. In der folgenden Abbildung veranschaulichen wir ein Audit-Beispiel für eine Datenänderung, die am Geschlecht einer versicherten Person vorgenommen wird:

Die folgende Abbildung zeigt eine Tabelle zu Nicht-Lebensversicherungsrisiken.

Mithilfe von OLAP-Würfeln haben die Anwender die Möglichkeit die Daten von der zusammengefassten Darstellung bis hin zum feinsten Datendetaillierungsgrad zu betrachten.

Page 15: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

15 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Abschließend müssen wir die Bedeutung von Audit- und Tracking-Datenänderungen im Kontext einer Konzernkonsolidierung unterstreichen. Die Verwaltung von Daten auf Konzernebene ist komplexer als die Verwaltung von Daten auf einzelgesellschaftlicher Ebene, weil der Datenprüfer und der Anwender weit voneinander entfernt sitzen können. Eine zentralisierte Sicht der Daten, mit denen der ganze Konzern verwaltet wird, gewährleistet die innere Übereinstimmung zwischen den Daten, die in dezentralisierten Gesellschaften der Berechnung des Solvenzkapitals unterliegen, mit dem Leiter der Gruppe.

Außerdem erleichtert dieser Prozess den Audit-Prozess sehr, insbesondere wenn die Aufsichtsbehörde Fragen stellt wie „Wer hat die Daten in diesem Unternehmen geändert und warum?“ und „Wurde in der Berechnung auf Konzernebene die neue oder die alte Datenversion berücksichtigt?“

Weiterhin könnte das Tracking von Daten, welches mit der Aktualisierung des Angebotspreises eines Wertpapiers in Verbindung steht, folgende Auswirkung haben.

Page 16: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

16 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

SchlussfolgerungenSolvency II ist die erste Regelung, die klare Richtlinien zum Management der Datenqualität für Versicherer aufstellt. Dieses Arbeitspapier bespricht vereinfachend den Inhalt der Regulierung, um diese für Risikomanager, Aktuare und Solvency II Projekt-und IT-Manager verständlich zu machen.

Das Durchschnittsversicherungsunternehmen ist auf die Datenqualitätsanforderung der neuen Richtlinie nicht vorbereitet. Dies ist auf mindestens drei Faktoren zurückzuführen.

» Die versicherungsmathematische Funktion wird häufig eingesetzt, um die verfügbaren Daten einem professionellen Urteil zu unterwerfen, damit die bestmögliche Schätzung berechnet werden kann.

» Manche Versicherungsunternehmen sammeln historische Daten seit vielen Jahrzehnten an. Dennoch werden Daten typischerweise für alltägliche operative Zwecke gesammelt, statt zur Berechnung von versicherungstechnischen Rückstellungen.

» Die IT-Altsysteme von Versicherern sind oft veraltet und typischerweise in multiplen Silos quer durch verschiedene Abteilungen organisiert, was zur Duplizierung von Daten und Unstimmigkeiten der Werte führt.

Auch die strikte Anwendung der neuen Richtlinie wird die Sachverständigenbeurteilung, die von der versicherungsmathematischen Funktion ausgeht, nicht eliminieren. Freilich sollte das Unternehmen die Richtlinie mit dem Ziel auslegen, das Expertenurteil so transparent wie möglich zu gestalten, damit es vom obersten Management schnell und problemlos verstanden werden kann.

Die Datenqualitäts-Grundanforderung der Richtlinie richtet sich an den Prozess der Datenqualitätsbeurteilung. Das Vorliegen des Expertenurteils bedeutet, dass dieser Prozess sowohl quantitativ als auch qualitativ die Anforderungen erfüllt. Dieses Arbeitspapier beschreibt eine Reihe von Best Practices, die es Versicherungsunternehmen ermöglichen, die Technologie als Entscheidungshilfe (zur effektiven Anwendung des Expertenurteils) optimal einzusetzen und die quantitativen Aspekte des Datenqualitätsprozesses zu automatisieren.

Dieses Papier zeigt, dass die Anwendung von systematischen Datenqualitätsüberprüfungen es den Versicherungsunternehmen gestattet, die Zuverlässigkeit der Beurteilung zu erhöhen. Im Falle einer Prüfung und Evaluierung der Datenqualität ist die Anwendung einer konsistenten Methodologie für die Datenbereinigung äußerst wichtig, um jegliche Willkürlichkeit zu vermeiden und solide Ergebnisse zu erzielen In diesem Zusammenhang ist es auch wichtig, eine technische Plattform zu nutzen, mit der die Anwender nicht nur die Datenqualität prüfen und verfolgen können, sondern auch die Datenbereinigung verwalten können.

Schließlich werden in diesem Arbeitspapier zwei Vorschläge gemacht, die über die Richtlinie hinausgehen. Zum ersten sollte die Datenqualitätsbeurteilung so häufig wie möglich durchgeführt werden, um zeitnahe Berechnungen zu erlauben. Zum zweiten empfehlen wir, so viele relevante historische Daten wie möglich anzusammeln, da diese sich für die zukünftigen historischen Analysen als äußerst wertvoll erweisen werden.

Page 17: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

17 WIE SIE DEN DATENQUALITÄTSMANAGEMENT-hERAUSFORDERUNGEN VON SOLVENcY II GEREchT WERDEN

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

Weiterführende LiteraturCEIOPS (33/09), „CEIOPS-Empfehlung für Durchführungsmaßnahmen der Stufe 2 im Rahmen der Solvabilität-II-Richtlinie: Kontrollsystem / CEIOPS-Beschlüsse über erhaltene Kommentare“, vormals CP 33, https://eiopa.europa.eu/fileadmin/tx_dam/files/consultations/consultationpapers/CP33/CEIOPS-L2-FinalAdvice-on-System-of-Governance.pdf

CEIOPS (CP 43/09), „Konsulationspapier Nr. 43, Entwurf der CEIOPS-Empfehlung für Durchführungsmaßnahmen der Stufe 2 im Rahmen der Solvabilität-II-Richtlinie: Versicherungstechnische Rückstellungen – Artikel 85 f, Standards für die Datenqualität“, 2. Juli 2009

CEIOPS (43/09), „CEIOPS-Empfehlung für Durchführungsmaßnahmen der Stufe 2 im Rahmen der Solvabilität-II-Richtlinie:Versicherungstechnische Rückstellungen – Standard für die Datenqualität“, vormals CP 43, https://eiopa.europa.eu/fileadmin/tx_dam/files/consultations/ consultationpapers/CP43/CEIOPS-CP-43-09-L2-Advice-TP-Standards-for-data-quality.pdf

CEIOPS-SEC (106/09), „Zusammenfassung von Kommentaren zum CEIOPS-CP-43/09-Konsultationspapier über den Entwurf der Stufe 2-Empfehlung über versicherungstechnische Rückstellungen - Standards für die Datenqualität“,https://eiopa.europa.eu/fileadmin/tx_dam/files/consultations/consultationpapers/CP43/CEIOPS-SEC-106-09-Comments-andResolutions-Template-on-CEIOPS-CP-43-09.pdf

CEIOPS (56/09), „CEIOPS-Empfehlung für Durchführungsmaßnahmen der Stufe 2 im Rahmen der Solvabilität-II-Richtlinie: Prüfungen und Standards für die interne Modellabnahme“, vormals CP 56, https://eiopa.europa.eu/fileadmin/tx_dam/files/consultations/consultationpapers/CP56/CEIOPS-L2-Advice-on-Tests-andStandards-internal-model-approval.pdf

Page 18: Wie Sie den Datenqualitätsmanagement- ArbeitspApier ......Wirtschaftsprüfer und die versicherungsmathematische Funktion 7 ... die benutzt werden, um die Qualität der Daten zu beurteilen.

121005

MOODY’S ANALYTICS UNTERNEHMENSRISIKOMANAGEMENT

© Copyright 2012, Moody’s Analytics, Inc., und/oder seine Lizenzgeber und Partner (gemeinsam als „MOODY’S“ bezeichnet). Alle Rechte vorbehalten. ALLE HIEREIN ENTHALTENEN INFORMATIONEN SIND URHEBERRECHTLICH GESCHÜTZT UND DÜRFEN OHNE DIE SCHRIFTLICHE GENEHMIGUNG VON MOODY´S VON NIEMANDEM VERVIELFÄLTIGT ODER IN SONSTIGER WEISE UND ZU KEINEM ZWECK REPRODUZIERT, UMVERPACKT, WEITERGELEITET, ÜBERTRAGEN, VERBREITET, NEU VERTEILT ODER WEITERVERKAUFT ODER ZUR SPÄTEREN NUTZUNGGANZ ODER TEILWEISE IN JEGLICHER FORM, AUF JEGLICHE WEISE UND MIT JEGLICHEN MITTELN GESPEICHERT WERDEN. Alle hierin enthaltenen Informationen stammen aus Quellen, die von MOODY’S als richtig und zuverlässig eingeschätzt wurden. Wegen der Möglichkeit von menschlichen oder mechanischen Fehlern sowie aufgrund anderer Faktoren werden diese Informationen ohne Mängelgewähr und Garantien jeglicher Art weitergegeben. Insbesondere übernimmt MOODY’S keine ausdrücklichen oder stillschweigenden Zusicherungen oder Garantien im Hinblick auf die Richtigkeit, Aktualität, Vollständigkeit, Marktgängigkeit oder Eignung dieser Inhalte für einen bestimmten Zweck. Unter keinen Umständen übernimmt MOODY’S irgendeine Haftung gegenüber natürlichen oder juristischen Personen für (a) Verluste oder Schäden, die ganz oder teilweise von (fahrlässigen oder sonstigen) Fehlern oder anderen Umständen oder Eventualitäten verursacht werden, die außerhalb der Kontrolle von MOODY’S oder jeglicher Direktoren, leitender Angestellter, Mitarbeiter oder Beauftragter im Zusammenhang mit der Beschaffung, Sammlung, Kompilierung, Analyse, Interpretation, Kommunikation, Veröffentlichung oder Zustellung dieser Inhalte liegen oder für (b) direkte und indirekte Schäden, besondere Schadensfolgen, Folgeschäden, kompensatorischen Schadensersatz oder Nebenschäden jeglicher Art (einschließlich, aber nicht beschränkt auf Schadensersatz für entgangene Gewinne), auch wenn MOODY’S vorab über die Möglichkeit dieser Schäden informiert wurde, die sich aus der Nutzung oder Unfähigkeit zur Nutzung dieser Informationen ergeben. Die Bonitätsprüfungen und finanziellen analytischen Beobachtungen, sofern vorhanden, die ein Bestandteil der hierin enthaltenen Informationen bilden, stellen nur Meinungsäußerungen und keine Darlegungen von Sachverhalten oder Empfehlungen dar, Wertpapiere zu kaufen, verkaufen oder zu halten, und sind dahingehend auszulegen. MOODY’S GIBT KEINE AUSDRÜCKLICHE ODER STILLSCHWEIGENDE GEWÄHRLEISTUNG DER RICHTIGKEIT, AKTUALITÄT, VOLLSTÄNDIGKEIT, MARKTGÄNGIGKEIT ODER EIGNUNG DIESER BEWERTUNGEN FÜR EINEN BESTIMMEN ZWECK UND STELLT KEINE SONSTIGEN MEINUNGEN ODER INFORMATIONEN IN JEGLICHER FORM ODER WEISE ZUR VERFÜGUNG. Jede Bewertung oder sonstige Meinung darf nur als einer von vielen Faktoren einer Investitionsentscheidung betrachtet werden, die von einem Nutzer der hierin enthaltenen Informationen oder in dessen Auftrag getroffen wird, und jeder Nutzer muss dementsprechend für jedes Wertpapier, das er zu kaufen, zu halten oder zu verkaufen erwägt, und für jeden Emittenten und Garantiegeber sowie für jeden Anbieter einer Darlehensunterstützung für den Kauf eines Wertpapiers seine eigenen Recherchen und Bewertungen vornehmen. MOODY’S bestätigt hiermit, dass die meisten Emittenten von Schuldtiteln (einschließlich Unternehmens-und Kommunalschuldverschreibungen, Pfandbriefen, Schuldscheinen und kurzfristig unbesicherter Schuldtitel) und von von MOODY’S bewerteten Vorzugsaktien vor der Zuerkennung etwaiger Bewertungen zugestimmt haben, MOODY’S Honorare zwischen 1.500 USD und circa 2.400.000 USD für die geleisteten Bewertungs-und Ratingdienste zu bezahlen. Moody’s Corporation (MCO) und seine hundertprozentige Ratingagentur-Tochtergesellschaft Moody’s Investors Services (MIS) verfügen auch über eigene Grundsätze und Verfahren, um die Unabhängigkeit der Bewertungen und Ratingprozesse von MIS sicherzustellen. Informationen bezüglich bestimmter Verbindungen, die zwischen Direktoren von MCO und bewerteten Unternehmen und zwischen bewerteten Unternehmen bestehen könnten, die Ratings von MIS besitzen und der SEC eine Beteiligung von über 5 % an MCO auch öffentlich gemeldet haben, werden auf der Website von Moody’s unter www.moodys.com unter dem Titel „Shareholder Relations - Corporate Governance - Director and Shareholder Affiliation Policy“ jährlich veröffentlicht.

Credit Monitor, CreditEdge, CreditEdge Plus, CreditMark, DealAnalyzer, EDFCalc, Private Firm Model, Portfolio Preprocessor, GCorr, the Moody’s logo, the Moody’s KMV logo, Moody’s Financial Analyst, Moody’s KMV LossCalc, Moody’s KMV Portfolio Manager, Moody’s Risk Advisor, Moody’s KMV RiskCalc, RiskAnalyst, RiskFrontier, Expected Default Frequency, und EDF sind Marken oder eingetragene Marken, die sich im Besitz von MIS Quality Management Corp. befinden und unter Lizenz von Moody’s Analytics, Inc. verwendet werden.