Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort...

152

Transcript of Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort...

Page 1: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White
Page 2: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 2

Copyright

Dieses Dokument wurde von S.A.R.L Martin / Dr. Wolfgang Martin verfasst. Alle Daten und

Informationen wurden mit größter Sorgfalt recherchiert und zusammengestellt. Eine Garantie in Bezug

auf Vollständigkeit und Richtigkeit wird ausgeschlossen.

Alle Rechte am Inhalt dieses Dokuments, auch die der Übersetzung, liegen bei den Autoren. Daten

und Informationen bleiben intellektuelles Eigentum der S.A.R.L. Martin im Sinne des Datenschutzes.

Kein Teil des Werkes darf in irgendeiner Form (Druck, Photokopie, Mikrofilm oder einem anderen

Verfahren) ohne schriftliche Genehmigung durch S.A.R.L Martin reproduziert oder unter Verwendung

elektronischer Verfahren verarbeitet, vervielfältigt oder verbreitet werden. S.A.R.L Martin übernimmt

keinerlei Haftung für eventuelle aus dem Gebrauch resultierende Schäden.

Copyright © S.A.R.L. Martin, Annecy, 2004 – 2012

Disclaimer

Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen etc. in diesem Werk

berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne

der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von

jedermann benutzt werden dürften. In diesem Werk gemachte Referenzen zu irgendeinem

spezifischen kommerziellen Produkt, Prozess oder Dienst durch Markenname, Handelsmarke,

Herstellerbezeichnung, etc. bedeutet in keiner Weise eine Empfehlung oder Bevorzugung durch die

S.A.R.L Martin.

Page 3: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3

Vorwort

Das vorliegende White Paper „Performance Management und Analytik“ erscheint jetzt im

August 2012 im neunten Jahr mit der Version 9.0. Im Januar 2004 habe ich dieses White

Paper gemeinsam mit Richard Nußdorfer mit der Version 1.0 begonnen. Nach dem Tode von

Richard Nußdorfer im Oktober 2008 habe ich unser Werk fortgesetzt. Die vorliegende

Ausgabe beschreibt Konzepte, Business-Architekturen und technische Architekturen von

Performance Management und Analytik.

Performance Management ist definiert als ein Geschäftsmodell, das einem Unternehmen

ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander

abzustimmen und konsistent zu halten. Es arbeitet als ein Closed-loop-Modell, um die

Leistung („Performanz“) von Geschäftsprozessen auf operativer, taktischer und strategischer

Ebene aktiv zu managen, i.e. zu planen, zu überwachen und zu steuern. Vom Standpunkt

des Business ist diese Aufgabe auf allen Ebenen prinzipiell gleichartig, aber aus technischer

Sicht treffen hier zwei unterschiedliche Technologien für Performance Management von

verschiedenen Entwicklungsrichtungen aufeinander: Traditionelle Business Intelligence trifft

auf Business Process Management (BPM) und konvergiert im Modell einer service-

orientierten Architektur (SOA).

Nach einigen Jahren mit unterschiedlichen Bezeichnungen wie CPM (Corporate

Performance Management), BPM (Business Performance Management) oder EPM

(Enterprise Performance Management) habe ich mich ab der Version 6.0 entschlossen, nur

noch von „Performance Management“ zu sprechen, und nutze den Begriff gemäß der oben

gegebenen Definition als Dachbegriff für CPM, BPM und EPM. Ab der Version 6.1 habe ich

konsequenterweise auch den Begriff „Enterprise Information Management“ durch

„Information Management“ ersetzt.

Analytik (vom griechischen: ἀναλύειν analyein = auflösen) ist definiert als die Durchführung

einer systematischen Untersuchung eines Sachverhaltes oder eines Gegenstandes

hinsichtlich aller bestimmenden Faktoren oder Komponenten. Der Untersuchungsprozess als

solches ist die Analyse.1 Er dient der Ableitung von Wissen aus internen und externen Daten

und Information für Unternehmenssteuerung ganz im Allgemeinen. Analytik wird immer

wichtiger, denn das Datenvolumen explodiert. Die weltweite Datenproduktion liegt aktuell bei

mehr als 2 Zettabytes (1021 B = 1 Milliarde TB). Willkommen im Big Data, wie man jetzt sagt.

Die drei wesentlichen Treiber dieser Datenexplosion sind Social Media, Video und das

mobile Internet.

Im Big Data steckt großes Potential, vor allem viel Wissen, das man sich nur erschließen

muss. Aber das Potential an Wissen ist nicht so einfach zu erschließen, denn ein solcher

verwobener Mix aus riesigen, unüberschaubaren und fragmentierten Daten macht es

schwierig, die Daten zu identifizieren, zu extrahieren, zu speichern, zu verwalten und zu

analysieren. Hier braucht man neue Ansätze und Technologien für Analytik.

1 siehe http://de.wikipedia.org/wiki/Analytik

Page 4: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 4

Zielsetzung des White Papers. Unternehmen, die Performance Management- oder

Analytik-Lösungen entwickeln wollen, werden sich entscheiden müssen, welche

Basisplattform sie für diesen Schritt wählen werden und welche Best-of-Breed-Produkte

benötigt werden. Dieses White Paper soll Sie bei der Entwicklung von Konzepten und bei der

Entscheidungsfindung unterstützen.

Der Verfasser ist seit 1984 im kommerziellen IT-Business in Managementfunktionen, als

Analyst und strategischer Berater tätig. Davor war er von 1973 bis 1984 als Wissenschaftler

tätig. Er verbindet so Wissenschaft und Praxis und hat sich mit strategischen Überlegungen

und Zukunftsentwicklungen in der IT und den Auswirkungen auf das Business von 1996 bis

2001 als Analyst bei der Meta Group und danach als unabhängiger Analyst

auseinandergesetzt.

Das vorliegende White Paper gliedert sich in zwei Teile. Der hier vorliegende erste,

allgemeine Teil beschäftigt sich damit, Konzepte, Vorteile und Nutzen von Performance

Management und Analytik zu beschreiben und - damit verbunden - die Referenz-Architektur.

Der zweite Teil beschäftigt sich mit im Markt gängigen Anbieter-Lösungen für Performance

Management und Analytik. Um den Lesern eine praktische Übersicht über den aktuellen

Markt zu geben, wurden zu ausgewählten Anbietern spezielle Beschreibungen aufgestellt.

Derzeit verfügbar sind Kompendien zu2:

arcplan, BOARD, Cubeware, epoq, geoXtend, IBM, Informatica, Kapow Software, Lixto,

PitneyBowes/MapInfo, Panoratio, SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller

Die Version 8.1 dieses White Papers ist im März 2012 erschienen. Die hier vorliegende

Version 9.0 ist eine überarbeitete und weiterentwickelte Version. In dieser Version 9.0 sind

neu das Kapitel 2.4 zu Nutzenpotenzialen von Big Data, das Kapitel 7.3 zu NoSQL-

Datenhaltungs- und -Datenbanksystemen, das Kapitel 9.6 zur Entwicklung von Big Data und

Marktschätzungen und das Kapitel 9.8 zur Big Data-Roadmap für Kunden (Nutzer von Big

Data). Ergänzt wurden die Themen BI-Kompetenzzentrum (Kap. 3.4), fachliche Elemente

von Performance Management (Kap. 4.1), analytische Services (Kap. 5.1) und Datenqualität

(Kap. 6.6). Überarbeitet wurden insbesondere die Themen Data Discovery (Kap. 5.2) und

Latenz (Kap. 7). Wie immer wurden die Kapitel 1 (Zusammenfassung) und 9.3 bis 9.5

(Anbieterverzeichnis) auf den neuesten Stand gebracht.

Die Version 9.0.1 bringt einige kleinere Ergänzungen in den Kapiteln 9.3 bis 9.5.

Über Anregungen, Kommentare, Kritik aber auch über Lob freute sich der Verfasser.

Annecy, im Oktober 2012 Dr. Wolfgang Martin, Wolfgang Martin Team

2 Kostenfreier Download auf http://www.wolfgang-martin-team.net in den Sektionen „White Paper“ und „Research

Notes“

Page 5: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 5

Biographie des Verfassers:

© 2012 S.A.R.L. Martin37

Dr. Wolfgang Martin

Dr. Martin ist u. a.

• Mitglied des CRM Expertenrates,

• Ventana Research Advisor,

• Research Advisor am Institut für Business Intelligence der Steinbeis Hochschule Berlin

• Mitgründer und Partner von www.iBonD.net

• Vorsitzender des IIR Forums zu „Stammdaten-Management“.

Vor der Gründung des Wolfgang MARTIN Teams war Dr. Martin über fünf Jahre bei der META

Group, zuletzt als Senior Vice President International Application Delivery Strategies.

Darüberhinaus kennt man ihn aus TV-Interviews, durch Fachartikel in der Wirtschafts- und IT-

Presse, als Autor der Strategic Bulletins zu den Themen BI/CPM, BPM, SOA und CRM (www.it-

research.net) und als Herausgeber und Co-Autor, u.a. „Data-Warehousing – Data Mining – OLAP“,

Bonn, 1998, „CRM–Jahres-Gutachten 2003 – 2004 – 2005 – 2006 – 2007“, Würzburg, 2002, 2003,

2004, 2005, 2007, „CRM Trendbook 2009“, Würzburg, 2009.

Biographie

Dr. Wolfgang Martin ist europäischer Experte auf den Gebieten

Business Intelligence, Performance Management, Analytik, Big Data

Business Process und Information Management, Information Governance

service-orientierte Architekturen (SOA)

Customer Relationship Management (CRM)

Cloud Computing (SaaS, PaaS)

Sein Spezialgebiet sind die Wechselwirkungen technologischer Innovation auf

das Business und damit auf die Organisation, die Unternehmenskultur, die

Businessarchitekturen und die Geschäftsprozesse. The Info Economist zählte

ihn in 2001 zu den 10 einflussreichsten IT Consultants in Europa.

Page 6: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 6

Inhaltsverzeichnis

1 Zusammenfassung (Management Summary) ............................................................................... 8

2 Business Intelligence im Wandel ................................................................................................. 14

2.1 Die Mängelliste traditioneller Business Intelligence ......................................................... 15

2.2 Die Bedeutung von Information im New Normal ............................................................. 16

2.3 Big Data und Echtzeit ......................................................................................................... 19

2.4 Nutzenpotenziale von Big Data .......................................................................................... 20

2.5 Prozess-Orientierung – ein neuer Kontext für BI ............................................................ 24

2.6 Service-Orientierung – das neue Paradigma .................................................................... 28

3 Performance Management – Strategien, Prozesse, Menschen, Metriken und Governance ..... 32

3.1 Prozess- und service-orientierte Business Intelligence ..................................................... 32

3.2 Die Governance: Rollen, Verantwortlichkeiten und Rechte ........................................... 37

3.3 Das Arbeiten mit Performance Management und Analytik ............................................ 41

3.4 Das Business Intelligence-Kompetenzzentrum ................................................................. 43

4 Performance Management – Methoden und Technologien ....................................................... 47

4.1 Die fachlichen Elemente von Performance Management ................................................ 47

4.2 Von Business Intelligence zu Performance Management und Analytik ......................... 50

4.3 Performance Management und Analytik in einer SOA ................................................... 53

4.4 Renaissance von „BI“ im Enterprise 2.0 ........................................................................... 55

4.5 Planung im New Normal ..................................................................................................... 58

5 Analytik – Basis für Performance Management ......................................................................... 61

5.1 Analytische Services ............................................................................................................ 62

5.2 Data Discovery ..................................................................................................................... 65

5.3 Web-Analyse ........................................................................................................................ 69

5.4 Trends im Data Mining ....................................................................................................... 70

5.5 Textanalytik ......................................................................................................................... 76

5.6 Location Intelligence – Die Bedeutung des „Wo“............................................................. 80

5.7 Social Business Intelligence ................................................................................................ 83

Page 7: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 7

6 Information Management ............................................................................................................ 88

6.1 Die Aufgaben von Information Management ................................................................... 88

6.2 Datenintegrationsplattform ................................................................................................ 90

6.3 Informations-Services ......................................................................................................... 92

6.4 Agile Integrations- und Extraktionswerkzeuge im Big Data ........................................... 94

6.5 Meta- und Stammdaten-Management ............................................................................... 96

6.6 Datenqualität – Vorsorge tut Not ....................................................................................... 99

6.7 Information Governance – Schlüssel zu erfolgreichem Information Management .... 104

7 Auf die Latenz kommt es an ....................................................................................................... 107

7.1 Business Activity Monitoring und Complex Event Processing ..................................... 108

7.2 Analytische Datenbanken ................................................................................................. 111

7.3 NoSQL-Datenhaltungs- und -Datenbanksysteme........................................................... 114

8 Performance Management und traditionelle BI: fundamentale Unterschiede ....................... 118

9 Der Performance Management/Analytik-Markt und seine Spieler .......................................... 119

9.1 Trends in Performance Management und Analytik ...................................................... 119

9.2 Taxonomie des Marktes für Performance Management und Analytik ........................ 121

9.3 Klassifikation der Anbieter von analytischen Datenbanken ......................................... 122

9.4 Klassifikation der Performance Management/Analytik-Anbieter ................................ 124

9.5 Klassifikation der Anbieter von Information Management .......................................... 126

9.6 Entwicklung von Big Data: Marktschätzungen .............................................................. 127

9.7 Grundsätze zur PM/Analytik-Plattform- und Werkzeugauswahl ................................ 130

9.8 Roadmap für die Nutzer von Big Data ............................................................................ 131

10 Schlusswort und Literaturverzeichnis ................................................................................... 134

11 Glossar und Liste der Abkürzungen ...................................................................................... 136

12 Die Sponsoren ......................................................................................................................... 145

Page 8: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 8

1 Zusammenfassung (Management Summary)

Performance Management und Analytik sind Methoden, Verfahren und Werkzeuge der

Steuerung im Unternehmen. Sie werden geradezu unabdinglich, wenn Umsätze langsamer

wachsen oder gar stagnieren und zurückgehen, wenn Budgets immer knapper werden, die

Marktdynamik ansteigt und der Wettbewerbsdruck immer weiter zunimmt. Dann steigen die

Anforderungen an das Management signifikant. Das Aufspüren von Profit, rigorose

Kosteneinsparungen, die Intensivierung von Kundenkontakten und effektvoller Einsatz der

wenigen noch verfügbaren Mittel und Ressourcen sind absolute Chefsache. Geopolitische

Unsicherheiten machen das Planen noch schwieriger, gleichzeitig noch wichtiger denn je.

Dazu kommen immer neue Regulierungen wie im Finanzberichtswesen und der

Bilanzkonsolidierung. Nur Unternehmen, die ihren Kurs jederzeit, flexibel und vor allem

schnell zu ändern können, sind in der Lage im heutigen „New Normal“ zu überleben. Ohne

Performance Management und Analytik geht das nicht mehr.

Das New Normal ist das Zeitalter nach der Wirtschaftskrise in 2008. Denn nach dieser Krise

ist und wird nichts mehr so sein wie vorher. "Strategy, as we knew it, is dead," sagt Walt

Shill, Leiter des nordamerikanischen Management Consulting von Accenture.3 Heute geht es

in Unternehmen um Flexibilität im operativen Geschäft und um die Geschwindigkeit, mit der

sich auftuende Gelegenheiten ergriffen und umgesetzt werden können. Wenn Strategien und

Forecasts wöchentlich oder sogar täglich zu ändern und anzupassen sind, dann muss das

so sein und funktionieren. Das New Normal meint darüber hinaus auch das Zeitalter der

Digitalisierung des Unternehmens. Das mobile Internet macht Information allgegenwärtig.

Soziale Medien sorgen für eine bisher nicht gekannte Verbreitungsgeschwindigkeit von

Information. Willkommen im New Normal!

Mit anderen Worten: Traditionelle Steuerung im Unternehmen stößt an ihre Grenzen, da jetzt

die alten Prinzipien von „operational excellence“ nicht mehr ausreichen. Operational

excellence bewirkte eine Industrialisierung des Unternehmens. Industrialisierung bedeutet

Automation und Standardisierung. So werden Geschäftsprozesse beschleunigt und

optimiert, so erhöht man den Durchsatz und verbessert die Qualität. Das brauchen wir heute

und morgen, aber wir brauchen im New Normal noch mehr. Eine Steuerung im Unternehmen

im New Normal erfordert zusätzlich Agilität, die man über die traditionellen

Unternehmensziele Effektivität und Effizienz, die man durch Industrialisierung erreicht,

hinaus braucht. Agilität bedeutet die Fähigkeit einer Organisation zum permanenten Wandel

und die Anpassungsfähigkeit der eigenen Geschäftsmodelle und Prozesse an die Markt- und

Kundendynamik. Auf das schnelle und richtige Agieren in Zeiten des Wandels und

Unsicherheit kommt es an. Da auch der Lebenszyklus von Strategien und Prozessen immer

kürzer wird, werden Änderungen in immer schnelleren Zyklen notwendig.

Unternehmenssteuerung heute und morgen muss agil sein, um als Unternehmen nicht nur

zu überleben, sondern auch zu prosperieren.

3 Siehe Wall Street Journal (25. Jan.2010)

http://online.wsj.com/article/SB10001424052748703822404575019283591121478.html#printMode

Page 9: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 9

Steuerung im Unternehmen beruht daher nicht nur auf den traditionellen Instrumenten der

Unternehmensführung (Planung, Durchführung, Kontrolle und Steuerung), sondern umfasst

drei weitere Komponenten: Governance, Risiko-Management und Compliance. Governance

bezeichnet die verantwortungsvolle, nachhaltige und auf langfristige Wertschöpfung

ausgerichtete Organisation und Steuerung von Aktivitäten und Ressourcen im Unternehmen.

Risiko-Management bezeichnet alle Aktivitäten der Risikoerkennung, Risikoverminderung

und Risikovermeidung. Compliance bedeutet die Erfüllung der von der

Unternehmensleitung gemachten Vorgaben („Policies“) sowie der rechtlichen und regulativen

Vorgaben. Weitere und strengere Regulationen sind in Zeiten der aktuellen Krisen zu

erwarten. Unternehmenssteuerung heute muss diesen Anforderungen gerecht werden.

Agilität, Industrialisierung und Compliance sind heute im „new normal“-Zeitalter für ein Unter-

nehmen entscheidend, ob man zu den Gewinnern oder Verlierern auf dem globalen Markt

zählt.

Ein weiterer großer Vorteil von Industrialisierung, Agilität und Compliance ist die Fähigkeit,

innovative Ideen zügig umsetzen zu können. Neue Produkte und Dienste sowie neue Tarife

lassen sich in kürzester Zeit in den Markt bringen. Traditionelle Prozesse wie das

Mahnwesen können kundenorientiert werden und verloren geglaubte Umsätze wieder

aktivieren. Im Cross-/Up-Selling lässt sich durch den Einsatz des Wissens über den Kunden

neues Umsatzpotenzial erschließen. Frühzeitiges Erkennen von Risiken und Problemen

vermeidet Ausschuss und Retouren. So wird die Wettbewerbskraft entscheidend gesteigert:

Man verblüfft den Mitbewerb und begeistert seine Kunden.

Der Weg heute zu Industrialisierung, Agilität und Compliance besteht aus einem

umfassenden Ansatz zu einem service-basierten Geschäftsprozess-Management. Im Zuge

einer solchen Prozess-Orientierung wird aber oft das Prinzip „Kein Prozess ohne Daten“

übersehen. Parallel zu einem Prozess- und Service-Management muss im Rahmen von

Prozess-Orientierung daher ein Information Management aufgebaut werden.

In den vergangenen Jahren haben Unternehmen Information Management nur im Kontext

von Business Intelligence (BI) gesehen. In umfangreichen Business-Intelligence-Projekten

und Initiativen wurde daran gearbeitet, Information verfügbar zu machen, um eine auf Fakten

basierende Steuerung im Unternehmen zu unterstützen. Die Erfahrungen haben aber

vielfach gezeigt, dass Information zwar oft vorhanden sind, aber nicht in den Kontext der

Geschäftsprozesse gebracht wurden und daher nur von beschränktem Nutzen für die

Steuerung im Unternehmen waren. Um den Nutzen von BI zu erhöhen und um hier einen

Durchbruch zu erzielen, muss ein neuer Weg beschritten werden: Information muss in den

Kontext von Geschäftsprozessen und Business-Services gestellt werden. Das ist die

Grundidee von Performance Management. Dazu braucht man ein über das traditionelle BI

hinausgehendes Information Management.

In einem prozess- und service-orientierten Unternehmen gehören Prozess-

Management, Performance Management und Information Management zusammen.

Page 10: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 10

Business Process Management (BPM) dient dem Managen des Lebenszyklus von

Geschäftsprozessen: Von Analyse und Design über Ablauf und Ausführung bis zum Planen,

Überwachen, Steuern und Anreichern der Prozesse.

Performance Management ist definiert als ein Geschäftsmodell, das einem Unternehmen

ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander

abzustimmen und konsistent zu halten. Das Planen, Überwachen und Steuern von

Prozessen ist Aufgabe von Performance Management innerhalb von BPM.

Analytik bezeichnet sowohl den Prozess zur Gewinnung von Information und der Ableitung

eines Modells zur Nutzung von Information (beispielsweise prädiktive Modelle aus einem

Data Mining-Prozess) als auch das Anreichern von Geschäftsprozessen und Business-

Services durch solche Modelle. Die Idee ist, „intelligente“ Prozesse und Services zu

schaffen.

Die Zielsetzung von Information Management ist es, vertrauenswürdige Daten zu

schaffen. Die Aufgaben von Information Management sind die Definition der Daten (die

Unternehmens-Terminologie), die Modellierung der Daten (die Unternehmens-Semantik),

das Meta- und Stammdaten-Management (Transparenz und Nachvollziehbarkeit), das

Datenqualitäts-Management (Relevanz und Korrektheit), die Datenintegration und die

Datensicherheit und -Schutz.

Performance Management ist ein wichtiger Schritt in Richtung des optimalen Planens,

Überwachens und Steuerns von Geschäftsprozessen auf der Ebene von Operationen,

Taktiken und Strategien. Performance Management basiert auf dem Prinzip der Zuordnung

von Metriken („Kennzahlen“) zu Prozessen. Performance Management beginnt schon mit

der Modellierung und dem Design operativer Prozesse. Metriken müssen gleichzeitig und

parallel mit den operativen Prozessen abgeleitet und entwickelt werden. Ziele müssen

messbar gemacht werden. Zielerreichung muss kontinuierlich kontrolliert werden, und es

müssen Maßnahmen getroffen werden, um die Leistung der Prozesse ständig und auch in

Echtzeit zu kontrollieren. Das schafft Performance Management, weil es als Kreislaufmodell

(„closed loop“) Teil von BPM ist.

Performance Management ist unter den herrschenden Bedingungen der nächste

strategische Schritt in Richtung agiler Steuerung im Unternehmen, damit ich mein

Unternehmen fit mache, um die Herausforderungen des New Normal zu meistern. Der

Leitspruch lautet „Man kann nur managen, was man auch messen kann“.

Mit anderen Worten: Prozesse stellen die Wettbewerbskraft des Unternehmens dar. Daher

sind Prozesse der neue Fokus des Managements (vgl. Nußdorfer, Martin, 2007). Gewinnen

oder Verlieren im Markt hängt von der Qualität, Flexibilität und Compliance der

Geschäftsprozesse ab. Die erforderliche Flexibilität erhält man insbesondere durch eine

Service-Orientierung der Prozesse: Prozesse werden aus Business-Services

zusammengesetzt.

Dabei kommt es auch auf die geeignete IT-Unterstützung mit der richtigen Infrastruktur an.

Eine service-orientierte Architektur (SOA) als Infrastruktur für BPM, Performance und

Information Management ist erforderlich, um den Lebenszyklus von Geschäftsprozessen in

einem Kreislaufmodell zu managen. BPM, Performance Management, Analytik und

Page 11: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 11

Information Management auf einer SOA ermöglichen automatisierte, standardisierte,

zuverlässige, revisionssichere und anpassungsfähige Prozesse mit Compliance über

Geschäftsfunktionen, Abteilungen und sogar Unternehmen hinweg. So spart man Kosten,

begeistert Kunden und Mitarbeiter und erhöht den Umsatz. Dank einer SOA werden

Prozesse von den zugrunde liegenden IT-Systemen und -Anwendungen unabhängig: Ein

Unternehmen kann Prozesse im Einklang mit der Marktdynamik und den Bedürfnissen der

Kunden ändern und segelt so immer am Wind. SOA bedeutet deshalb im Endeffekt

„Software for Change“.

Außerdem macht eine SOA "intelligente" Prozesse möglich: Analytik kann in Prozesse und

Business-Services eingebettet werden.

Analytik ist der Schlüssel für die Planung, Überwachung und Steuerung sowohl der Prozesse

als auch ihrer Leistung („Performance“). Die Aufgabe lautet: Probleme sollen rechtzeitig

erkannt werden, um dem Problem gegensteuernde Maßnahmen rechtzeitig einzuleiten. Das

schafft Frühwarnsysteme ohne die ein Risiko-Management nicht machbar ist.

Ein Beispiel aus dem täglichen Leben erläutert, wie prädiktive Modelle als

Frühwarnsysteme arbeiten: In einem Kaufhaus werden die Verkaufsflächen

rechtzeitig disponiert, geliefert und nachgefüllt, bevor Produkte vergriffen sind. So

wird das Problem vermieden, dass ein Kunde mit Kaufabsicht ein leeres Regal

vorfindet und das Produkt nicht kaufen kann.

Analytik ist heute im Zeitalter von Big Data wichtiger denn je. Big Data bedeutet nicht nur ein

riesiges, immer grösser werdendes Datenvolumen, sondern auch einen Mix aus

strukturierten und unstrukturierten Daten mit komplexen Beziehungen untereinander. Ein

Unternehmen verfügt bereits über große Mengen strukturierter (in der Regel rund 20% aller

Unternehmensdaten) und unstrukturierter Daten (die machen rund 80% aller

Unternehmensdaten aus). Die wahre Flut von Daten wartet im Web auf uns. Es ist aber nicht

nur die schiere Menge an Daten, die eine Herausforderung darstellt, sondern auch die

Menge und Diversität der Quellen: Portale, Web-Applikationen, Social Media, Videos, Photos

und mehr, eben Web-Content aller Art. Big Data treibt jetzt eine neue Klasse von

Integrationswerkzeugen zur agilen Web- und Cloud-Integration und auch den Einsatz

innovativer Datenbank-Technologien, um die Petabytes, sogar Exabytes von Daten

auswerten zu können, da durch die schiere Menge an Daten die bisher im Markt

dominierenden relationalen Datenbanksysteme an ihre Grenzen stoßen: Es etablieren sich

so „Analytische Datenbanken“ und „NoSQL-Datenhaltungssysteme4“, die innovative

Algorithmen zum Zugriff- und Speicher-Management mit innovativen Ansätzen wie Spalten-

Orientierung und innovativer Hardware-Technologie wie In-Memory-Verarbeitung

miteinander verbinden.

Die traditionellen BI-Werkzeuge erweisen sich ebenfalls als unzureichend für Big Data-

Analytik. Data Discovery, eine interaktive Variante von Analytik, steht jetzt ganz vorne in der

Bedeutung. Dazu gehören Filtern und Visualisieren von Daten, kollaborative Werkzeuge zur

Teamarbeit, intuitive Benutzerschnittstellen und eine neue Generation von Geräten wie die

Tablets, damit man in den Fachabteilungen produktiv und erfolgreich arbeiten kann. Im

Fokus steht jetzt auch Location Intelligence, die Erweiterung von Business Intelligence um

4 NoSQL = not only SQL, SQL = sequential query Language.

Page 12: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 12

die Dimension „Raum“. Denn im mobilen Internet konvergieren jetzt Information, Zeit und

Raum. Die Lokalisierungsdaten aus Smartphones und Navigationsgeräten erlauben eben

ganz neue Typen von Analysen. Dazu kommen neue analytische Methoden und Verfahren

zur Analyse auch unstrukturierter Daten, beispielsweise Textanalytik. Textanalytik ist eine

neue Klasse von Analytik, die linguistische Verfahren mit Suchmaschinen, Text Mining, Data

Mining und Algorithmen des maschinellen Lernens verbindet. Das alles ergibt ein komplett

neues Arsenal für Analytik im Unternehmen.

Solche neuen Methoden und Technologien erfordern auch neue Rollen wie die der Data

Scientists, die als Mittler zwischen der IT und den Fachabteilungen den weiteren Ausbau

der Zusammenarbeit treiben, die Verarbeitung von Big Data fördern und helfen, die

Potenziale von Big Data auch zu realisieren. Das erfordert neue Skills und eine

Neuorientierung der IT: Die IT muss in den Zeiten von Big Data den Hauptfokus auf Data

Management legen.

Performance Management und Analytik unterscheiden sich deutlich vom traditionellen

Business Intelligence Ansatz. Der Unterschied besteht nicht nur darin, dass man jetzt mit

dem Big Data umgehen muss, sondern auch darin, dass jetzt im Zuge von Performance

Management und Analytik Entscheidungen in den Kontext von Prozessen und Services

gestellt werden und so auch operativ umgesetzt werden können. Mit traditionellen Business

Intelligence-Werkzeugen (etwa Berichtswesen, Adhoc-Abfragen, OLAP (online analytical

processing), Data Mining etc.) war es immer schwierig, die richtige Information zum richtigen

Zeitpunkt am richtigen Ort für den aktuellen Zweck zu haben. Diese traditionellen Werkzeuge

gaben nicht das her, was man wollte: Ergebnisse, die man direkt auf Geschäftsprozesse und

Strategien anwenden und umsetzen konnte. Der Return on Investment (ROI) solcher

Werkzeuge war in der Regel sehr niedrig, wenn er überhaupt messbar war.

Traditionelle Business Intelligence-Werkzeuge waren zudem meist schwer zu handhaben.

Nur eine Handvoll Experten war in der Lage, aus den traditionellen Werkzeugen die richtige

Information herauszuziehen. Management-Entscheidungen und Maßnahmen wurden daher

eher auf Grund von Vermutungen getroffen, weniger auf Grund von Fakten. Hier wurden

inzwischen viele dieser Probleme beseitigt. „Selbst-Bedienungs-BI (self-service BI)“, vor

allem auch im Rahmen von Data Discovery, erlaubt heute, dass auch gelegentliche Nutzer

von Analytik und Performance Management die Fakten und die Information bekommen, die

sie im Rahmen einer BI-Governance benötigen. Die Benutzerschnittstellen sind in Richtung

Social Media Interfaces weiterentwickelt worden und erlauben eine Nutzung à la Facebook

und Twitter. Mobile Lösungen auf Smartphones und Tablets haben hier den Weg gezeigt,

wie Software-Ergonomie zu sein hat.

Zur Ergonomie gehören nicht nur die Bedienbarkeit der Werkzeuge, sondern auch die

Möglichkeiten der Automation von Arbeitsschritten und analytischen Prozessen. Die

Schwachstellen in der heutigen Praxis mit Business Intelligence wie manuelle

Informationsbereitstellung und manuelle Analyse werden durch zuverlässige und sichere

Automation abgelöst. Das Anreichern von Prozessen durch Analytik mit Hilfe einer SOA stellt

ein weiteres Mittel zur besseren Handhabung dar: Ein Mashing-up5 von analytischen

5 „Mash-up“ (engl. für Vermanschung) bezeichnet die Erstellung neuer Inhalte durch die nahtlose (Re-)

Kombination bereits bestehender Inhalte.

Page 13: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 13

Services mit operativen und kollaborativen Services wird ohne weitere Integrationsaufwände

und total flexibel möglich. Das schafft innovative Geschäftsprozesse und Business-Services

in einer neuen Qualität, die über traditionelle Workflow-Modelle deutlich hinausgeht.

Fazit: Analytik und Performance Management sind eine wesentliche Grundlage von

Steuerung im Unternehmen zur Umsetzung der drei Management-Prinzipien

Industrialisierung, Agilität und Compliance. Sie sind die konsequente Weiterentwicklung der

traditionellen Business Intelligence. Mit Hilfe von Analytik lässt sich das Big Data erschließen

und wertvolles Wissen zur Steuerung im Unternehmen ableiten. Mit Hilfe von Performance

Management kann dieses Wissen über eine Service- und Prozess-Orientierung von den

Unternehmensstrategien bis zum operativen Tagesgeschäft hin umgesetzt und in allen

Aktivitäten eines Unternehmens eingesetzt werden. Man schafft ein intelligentes

Unternehmen. Hierin liegt der Nutzen und Wert von Analytik und Performance

Management.

Page 14: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 14

2 Business Intelligence im Wandel

Performance Management und Analytik können als die Nachfolger von Business Intelligence

verstanden werden. Daher betrachten wir hier zunächst die Entstehung des Begriffs

Business Intelligence, die Ziele, die man mit Business Intelligence verfolgt hat und welche

Probleme zu lösen und Herausforderungen zu meistern waren.

Die älteste bekannte Quelle, in der der Begriff Business Intelligence (BI) verwendet wird,

stammt aus dem Jahre 1958. Im Oktober-Heft des IBM-Journals schreibt Hans Peter Luhn

über „A Business Intelligence System“. 1989 greift Howard Dresner, seinerzeit Analyst bei

der Gartner Group, den Begriff wieder auf, und es ist die Gartner Group, die in den 90er

Jahren diesen Begriff benutzt, verbreitet und bekannt macht. Aber dennoch gibt es heute

immer noch unterschiedliche Auffassungen, was BI ist: Sogar innerhalb eines Unternehmen

gibt es zum Teil unterschiedliche Vorstellungen zu BI und welchen Nutzen sie bringt. Da ist

folgende weitgehend anerkannte Definition hilfreich zum Verständnis, was Business

Intelligence ist und was sie bedeutet:

Als Business Intelligence bezeichnet man die Fähigkeit, Bereitschaft und Fertigkeit, das

Geschäft zu kennen und zu verstehen – oder detaillierter ausgedrückt: Unter Business

Intelligence verstehen wir alle Strategien, Prozesse und Technologien, bei denen aus Daten

Information und aus Information erfolgskritisches Wissen gewonnen wird, so dass

Entscheidungen auf Basis von Fakten getroffen werden, die Aktionen zur Unternehmens-

und Prozesssteuerung auslösen.

Der Anspruch des Konzeptes Business Intelligence ist also, Entscheidungen auf Fakten zu

stellen und bessere Entscheidungen zu treffen. BI soll Antworten geben auf Fragen wie:

Wissen Sie, welche Ihrer Lieferanten zur Erreichung Ihrer Produktionsziele absolut

notwendig sind? Wird deren Lieferunfähigkeit Ihre Produktion stunden- oder gar tagelang

zum Stillstand bringen?

Wissen Sie, welchen Anteil Ihr Unternehmen an den Geschäftseinnahmen Ihrer

Lieferanten hat? Nutzen Sie diese Information, um von den Lieferanten günstige

Konditionen zu erhalten?

Wissen Sie, mit welchen Kunden Sie den größten Gewinn machen? Bieten Sie diesen

Kunden einen überragenden Service, um sie zu binden? Sind Sie in der Lage, Ihren

Kunden zum geeigneten Zeitpunkt höherwertige bzw. andere Produkte zu verkaufen (Up-

Selling/Cross-Selling)?

Wissen Sie bereits im ersten Quartal, dass Sie Ihr Vertriebsziel im vierten Quartal nicht

erreichen werden, weil sie nicht genügend Interessenten (Leads) haben?

Wissen Sie, wie viele Einnahmen Ihnen tatsächlich verloren gehen, weil Ihre Kunden in

Stoßzeiten telefonisch nicht zu Ihrem Call-Center durchkommen?

Page 15: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 15

Wissen Sie, wie viele Geschäfte Ihnen entgehen, weil Sie Cross-Selling-Möglichkeiten im

Direktverkauf, im Handel oder über Internetshops nicht voll ausnutzen?

Wissen Sie, wie viel Geld das für Ihr Unternehmen bedeutet? Wissen Sie, wie Sie dieses

Geld finden, bekommen und dauerhaft behalten können?

BI mit Hilfe von Softwareunterstützung betreiben wir seit den 70/80er Jahren. Haben wir in

dieser Zeit die Antworten gefunden? Nicht immer, denn das Problem ist, wie man all diese

guten Dinge sowohl operativ im Tagesgeschäft als auch auf strategischer Ebene nutzen,

umsetzen und leben kann. Das ist vielfach nicht gelungen. Besonders am Anfang der 2000er

Jahre trat eine große Ernüchterung ein, was das Thema Business Intelligence betrifft. Das

gab einen Schub zu einem neuen Ansatz für Business Intelligence: Performance

Management und Analytik, so wollte man Business Intelligence mit neuem Leben füllen.

2.1 Die Mängelliste traditioneller Business Intelligence

Traditionelle Business Intelligence diente der Entscheidungsunterstützung im Rahmen

strategischer Planung und taktischer Analyse. Die Zielsetzung traditioneller Business

Intelligence war schon richtig: Entscheidungen auf Fakten zu stellen. Leider hat das in vielen

Fällen nicht den erwarteten Mehrwert und die gewünschte Akzeptanz gebracht. Berichte,

Kennzahlen, analytische Applikationen etc., was hat es genutzt? Das Problem ist, wie man

all diese guten Dinge im Unternehmen nutzen und umsetzen kann, denn Information erzeugt

nur dann Wert, wenn man sie nutzt und einsetzt.

Was stimmte nicht an traditioneller Business Intelligence?

Business Intelligence war Bottom-up und nicht prozessorientiert. Das führte zu einem

ungenügenden Einbeziehen der Fachabteilungen. Die wirklichen geschäftlichen prozess-

orientierten Anforderungen wurden nicht adressiert. Damit hat traditionelle Business

Intelligence den Mangel an geschäftlich orientierter Relevanz.

Business Intelligence war ausschließlich ein Informationsbereitstellungsmodell zur

Entscheidungsunterstützung (Bill Inmons „Informationsfabrik“; Inmon, 1996). Damit

waren Daten und die analytischen Prozesse zur Erzeugung von Information untrennbar

miteinander verbunden. Die Konsequenz ist: Inflexibilität und Komplexität. So wird jede

Innovation an der Quelle erstickt. Die Akzeptanz sinkt drastisch.

Business Intelligence konnte Entscheidungen zwar unterstützen, es fehlte aber die

Rückkopplungskomponente, das Treffen von Maßnahmen. Kennzahlen, die nicht im

Kontext von Prozessen stehen, bringen kaum Wert, da sie nicht zu Maßnahmen zur

Prozesssteuerung umsetzbar sind.

Beispiel: Ist auf der strategischen Ebene eine Kennzahl im roten Bereich, dann

müssen – in der Regel immer noch vom Menschen – Entscheidungen getroffen

werden, die taktische und operative Maßnahmen bedeuten. So wird Information

genutzt, basierend auf Fakten entschieden und ein deutlich höherer Mehrwert erzeugt

als im traditionellen Business Intelligence Modell ohne Rückkopplungskomponente.

Page 16: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 16

Operative Aspekte von Business Intelligence wurden nicht mit einem kohärenten Ansatz

abgedeckt. Traditionelle Business Intelligence forderte ein Data Warehouse als die

einzige Quelle von zuverlässiger, qualitativ hochstehender Information. Damit konnte

Business Intelligence nicht im operativen Umfeld eingesetzt werden und wirkte nur im

isolierten Raum taktischer und strategischer Analysen. Die potentielle Wertschöpfung

durch Echtzeitanalysen wurde außen vorgelassen.

Business Intelligence war retrospektiv. Der Fokus lag auf Analyse und Diagnose. Das

Potential prädiktiver Modelle zum rechtzeitigen Erkennen und Vermeiden von Problemen

und Risiken wurde nicht genutzt.

Beispiel: In einem mittelständischen Fertigungsunternehmen wird die Qualität der

Produktion nach Abschluss einer Schicht analysiert. So werden die möglichen

Schwachstellen einer Produktion schnellstens identifiziert, so dass Maßnahmen

ergriffen werden können, die sicherstellen, dass diese Fehlerquellen für die folgende

Schicht eliminiert werden. Pro-aktive BI erzeugt einen deutlichen Mehrwert, den es

auszuschöpfen gilt.

Business Intelligence-Werkzeuge haben vielfach den Informationsverbraucher nicht

ausreichend mit Information versorgt. Daher hatte man entweder das Problem, dass

Information nicht zugänglich war (oder gar versteckt und zurückgehalten wurde), oder

man hatte das Problem einer Datenflut („information for the masses“). Das führt wieder

zu einem drastischen Sinken der Akzeptanz.

Business Intelligence war ein werkzeugbezogener Ansatz, der auf proprietären

Technologien basierte. Jede analytische Komponente spielte ihre eigene Rolle in einem

isolierten Umfeld. Das hat Inkompatibilität und Inkonsistenz geschaffen und zu isolierten

Informationssilos geführt. Auf der Vorstandsebene passten dann die Zahlen nicht

zusammen.

Diese Mängelliste zeigt deutlich auf: Es war an der Zeit, Business Intelligence neu zu

erfinden. Denn die alte Idee, Entscheidungen auf Fakten zu stellen, ist ja nicht falsch. Das

haben die Verfechter von Business Intelligence zwar immer so gesehen, aber jetzt kommt

als wichtigster Treiber für eine Evolution und gleichsam Neuentdeckung von Business

Intelligence der grundlegende Wandel in den Märkten hinzu: Wir sind im New Normal

angekommen, der digitalen Welt, die Big Data produziert und im Big Data lebt. Information

ist zu einem der wichtigster Güter geworden: Unternehmen sind heute „daten-getrieben“.

2.2 Die Bedeutung von Information im New Normal

“A number of new rules will apply in the New Normal. Consumers will have zero tolerance for

digital failure. They will expect to get internet access anytime, anyplace. Internet and

connectivity will be just as ubiquitous as electricity. Consumers will demand fulfillment of their

information needs instantaneously. The effect on companies will be tremendous.”6

6 „The New Normal“ von Peter Hinssen (2010) http://www.peterhinssen.com/books/the-new-normal/synopsis

Page 17: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 17

Das New Normal ist das Zeitalter nach der Wirtschaftskrise 2008. Nach dieser Krise ist und

wird nichts mehr so sein wie vorher. Zugenommen haben deutlich und nachhaltig

Komplexität und Dynamik im Business. Jetzt geht es im Unternehmen um Flexibilität im

operativen Geschäft und um die Geschwindigkeit, mit der sich auftuende Gelegenheiten

ergriffen und umgesetzt werden können. Treiber ist zum einen die neue Verteilung der Macht

zwischen den alten gesättigten und den neuen aufstrebenden und expandierenden Märkten

und zum anderen die ständig steigende Vernetzung der Welt. Wir sind in der digitalen Welt

angekommen: Informationstechnik, Kommunikation, Wirtschaft und soziale Bereiche

konvergieren. Das mobile Internet macht Information allgegenwärtig und immer verfügbar.

Es ist vor allem auch schnell. Information rast um die Weltkugel dank sozialer Netze wie

Facebook und Twitter. Im mobilen Internet konvergieren Information, Zeit und Raum. Das ist

es, was die digitale Welt schafft und ausmacht. Willkommen im New Normal!

Die Herausforderungen im New Normal sind das Meistern der Volatilität und der

Geschwindigkeit der Märkte. Es gibt kaum noch Stabilität. Unvorhersehbarkeit und

zunehmende Veränderungsgeschwindigkeit sind zur zentralen Herausforderung des

Managements geworden. Agilität im Business ist angesagt. Nicht-agil zu sein bedeutet im

heutigen Markt schlicht und einfach Geschäft und Marktpositionen zu verlieren. Das stellt

das Management vor neue Aufgaben: Traditionelle Steuerung im Unternehmen funktioniert

nicht mehr. Information wird zur entscheidenden Ressource zur Bewältigung von Komplexität

und Dynamik der digitalen Welt. (Abb. 1)

1

Märkte und Markttrends

“The New

Normal”

Big Data Social Media,Mobiles Internet

Digitalisierung

alte saturierteMärkte

neue expandierende

Märkte Globalisierung

Komplexitätder Systeme Marktdynamik

Volatilität

Volatilität

© 2012 S.A.R.L. Martin

Abbildung 1: Das „New Normal“ wird durch drei Kräfte bestimmt, der Globalisierung der Märkte, der Digitalisierung der Welt und der Volatilität der Märkte. Die Konsequenz: Nichts ist mehr so, wie es einmal war. Die Globalisierung schafft Spannungen und Verwerfungen, die Volatilität schafft Unsicherheit und Ungewissheit, und die Digitalisierung hat zudem alles in einem bislang unvorstellbaren Masse beschleunigt und Big Data geschaffen.

Page 18: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 18

Traditionelle Steuerung im Unternehmen beruhte trotz eines teilweise sogar massiven

Einsatzes von Business Intelligence-Methoden und Werkzeugen zur

Entscheidungsunterstützung auf Erfahrungswissen. Entscheidungen wurden so intuitiv aus

Erfahrungen der Vergangenheit in die gegenwärtige Situation übertragen und auf die Zukunft

angewendet. Das funktioniert im New Normal nicht mehr, denn Erfahrungswissen führt nur

dann zu „richtigen“ Entscheidungen, wenn das Unternehmensmodell von Vergangenheit,

Gegenwart und Zukunft übereinstimmen. Das ist im New Normal aber nicht die Regel.

Aufgrund der zunehmenden Komplexität und Dynamik sind Erfahrungen aus der

Vergangenheit nicht mehr uneingeschränkt auf die Gegenwart geschweige denn auf die

Zukunft übertragbar. Erfahrungswissen zu nutzen, führt im New Normal in der Regel zu

falschen Entscheidungen. Falsche Entscheidungen sind fatal in der heutigen

Marktdynamik, denn eine Revision von falschen Entscheidungen ist im New Normal nicht

mehr machbar: Die Zeit ist einfach nicht mehr da! Falsche Entscheidungen trifft man auch,

wenn man zu spät entscheidet. Frühzeitig und rechtzeitig Probleme zu erkennen, so dass

man noch rechtzeitig gegensteuern kann, ist insbesondere im New Normal unabdinglich.

Richtige Entscheidungen basieren also auf rechtzeitiger Information und auf einem

Verstehen der Dynamik des Unternehmensmodells, das ein Abbild entsprechend der

Marktlage darstellt.

Im Old Normal war das Unternehmensmodell stabil: Stabile Märkte, vor allem

Wachstumsmärkte, erlauben, ein Unternehmen mit einer Strategie und einer

Organisationsstruktur über einen langen Zeitraum kontinuierlich und gleichmäßig zu

managen und zu steuern. Hier war Erfahrungswissen sehr wertvoll und erlaubte ein gutes

Navigieren in „ruhigen Wassern“. Der Wert von Information zur Steuerung im Unternehmen

wurde zwar erkannt und Information war wichtig, aber keineswegs immer ausschlaggebend.

Das zeigte sich in der Bereitstellung von Reports, die keiner nutzte. Das zeigte sich in der

Nutzung von Spreadsheets, in denen Zahlen so lange „massiert“ wurden, bis Information und

Erfahrungswissen übereinstimmten. Das zeigte sich in mangelnder Akzeptanz von

Dashboards und analytischen Werkzeugen. Das zeigte sich in der im vorigen Kapitel

beschriebenen Mängelliste traditioneller Business Intelligence. Man kam im Old Normal ja

auch „ohne“ durch. Das Geschäft lief vielfach wie von alleine, wenn es einmal richtig

aufgesetzt war.

Im New Normal ist alles anders. Wegen der Dynamik der Märkte und des Geschäftes muss

jenseits von Erfahrungswissen schnell entschieden werden. Jetzt kommt es darauf an, im

richtigen Augenblick die richtige Information zu haben, die für eine zu treffende Entscheidung

die richtige Relevanz hat. Das ist gar nicht so einfach, denn diese richtige Information ist aus

einem riesigen Volumen irrelevanter und damit überflüssiger Information herauszufiltern. Das

ist schwieriger denn je, denn das New Normal produziert mehr und mehr Daten, das „Big

Data“. Die beiden wesentlichen Treiber dieser Datenexplosion sind die Social Media und

das mobile Internet, mit anderen Worten, die Digitalisierung der Welt. Das New Normal treibt

so in reflexibler Art die Komplexität durch Big Data.

Page 19: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 19

2.3 Big Data und Echtzeit

Die „Big Data-Herausforderung“: Immer mehr Nutzer wollen in nahezu Echtzeit die Daten

aus der immer mehr ausufernden Datenflut und aus immer mehr und unterschiedlichsten

Quellen analysieren.

Diese Big Data-Herausforderung beschreibt recht gut, was Big Data ist und was es bedeutet:

Extremes und anhaltendes Wachstum des Datenvolumens. Allein im Jahr 2011 hat die

Menschheit 1,8 ZB neue Daten produziert. (1 Zetta Byte = 1 Milliarde Tera Bytes). Diese

Daten sind zudem mehrheitlich unstrukturiert.

Die Anzahl der Datenquellen nimmt massiv zu. Es sind nicht nur die Social Media,

sondern auch maschinell erzeugte Daten wie die Lokalisierungsdaten aus dem mobilen

Internet oder Messdaten aus intelligenten Ablesegeräten (Telephonie, Strom, Gas,

Wasser, RFID etc.).

Die Anzahl der Mitarbeiter, die Information brauchen und wollen steigt rasant an. Die in

dieser extremen Menge von Daten verborgene Information und das darin verborgene

Wissen wollen sich mehr und mehr Unternehmen und innerhalb der Unternehmen mehr

und mehr Fachbereiche zu nutzen machen.

Information hat den größten Wert, wenn sie neu und aktuell ist. Denn Dinge in der

digitalisierten Welt des New Normal passieren jetzt und überall. Daher brauchen wir

Information in Echtzeit, hier und jetzt.

Jeder dieser vier Trends an sich ist eine große Herausforderung an die

Informationstechnologie. Jetzt gilt es aber diese vier Anforderungen gemeinsam zu meistern,

sonst gibt es keine Antworten und Erkenntnisse! Damit ist klar, dass die traditionellen

Business Intelligence (BI)-Technologien zum Analysieren von Daten nicht mehr ausreichen,

ja, man kann sogar sagen, zum Teil obsolet geworden sind. Diese Herausforderungen, die

Big Data an uns stellt, kommen nun zu den alten Mängeln der traditionellen BI als weitere

Anforderungen an die „neue“ BI hinzu und erzwingen weitere Innovationen. Diese

Innovationen passieren in der Tat jetzt und heute auf allen Ebenen von BI, auf der

Datenhaltungsebene, auf der Information Management-Ebene und auf der Ebene der BI-

Werkzeuge. Das wird in den folgenden Kapiteln beschrieben.

Hinzu kommt, dass heute im New Normal Information in Echtzeit zur Verfügung stehen

muss, damit Entscheidungen rechtzeitig getroffen werden können, denn nur so kann man

proaktiv mittels Kennzahlen Unternehmen und Prozesse überwachen und steuern.

Beispiel: Angenommen, ein Einflussfaktor im Geschäftsmodell eines Unternehmens

ist „Liefertreue“. Dann muss Liefertreue messbar gemacht werden. Beispielsweise

könnte man festsetzen, dass 90 Prozent aller Lieferungen innerhalb von zwei Tagen

erfolgen sollen. Das ergibt eine strategische Kennzahl für diesen Prozess. Eine

operative Kennzahl für diesen Prozess könnte der „Lagerbestand“ gemessen an

einem festgelegten Mindestbestand in einem Warenlager sein. Falls der

Lagerbestand unter die Mindestmenge fällt, wird eine Nachbestellung automatisch

ausgelöst: Das Auskommen der Kennzahl Lagerbestand löst also eine Entscheidung

Page 20: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 20

aus, die eine Maßnahme in Gang setzt. Diese Kennzahl ist daher eine operative

Steuerungsinformation. Sie arbeitet proaktiv als Frühwarngröße, da durch die

Maßnahme das Problem „ausverkauft“ verhindert wird. So wird ein Problem

rechtzeitig erkannt und das Risiko eines Ausverkaufs wird minimiert.

Basierend auf den im Beispiel diskutierten Konzepten kann man jetzt auch „Echtzeit“

definieren.

Definition: Echtzeit im Business bedeutet die richtige Information zum richtigen Zeitpunkt

am richtigen Ort zum richtigen Zweck verfügbar zu haben.

Die „Echtzeit“-Forderung im Business hat also nichts mit der Uhrzeit zu tun. Was für

„Echtzeit“ entscheidend ist, ist die Verfügbarkeit von Information in der Geschwindigkeit, mit

der sie benötigt wird. Monatliche, wöchentliche oder tägliche Informationsbereitstellung kann

also durchaus „Echtzeit“ sein, wenn der zugrundeliegende Prozess entsprechend langsam

abläuft (Beispiel: Fahrplan-Information bei Buchung versus Verspätungs-Information bei der

Reise). Daher spricht man auch besser nicht von „Echtzeit“, sondern von „Rechtzeitigkeit“.7

Das Beispiel zeigt weiter, dass Kennzahlen nicht nur diagnostische Aufgaben haben wie

früher in der traditionellen Business Intelligence, sondern insbesondere auch

vorausschauenden Charakter im Sinne von Vorhersage („Forecasting“) haben. Mittels

solcher Kennzahlen erhalten Prozesse die Fähigkeit, proaktiv und korrektiv zu agieren:

Probleme und Risiken werden rechtzeitig erkannt und behandelt bevor Schäden auftreten.

Das ist Geschäftssteuerung durch Echtzeit-Control. So spart man Zeit, Ressourcen und

Kosten.

2.4 Nutzenpotenziale von Big Data

Im Big Data steckt großes Potenzial, vor allem viel Wissen, das man sich nur erschließen

muss. Aber das Potenzial an Wissen ist nicht so einfach zu erschließen, denn ein solcher

verwobener Mix aus riesigen, unüberschaubaren und fragmentierten Daten macht es

schwierig, die Daten zu identifizieren, zu extrahieren, zu speichern, zu verwalten und zu

analysieren. Bevor wir uns aber die dazu notwendigen Innovationen anschauen, wollen wir

die Nutzenpotenziale verstehen und erkennen, wie wir vom Big Data profitieren können.

Beginnen wir dazu mit zwei Beispielen.

Beispiel: Big Data im Handel. Im Handel kämpft man schon lange mit sehr großen

Datenmengen, den Kassenbon-Daten beispielsweise. In den Kassenbon-Daten

steckt viel Kundenwissen, denn sie eignen sich gut, um die Produktprofitabilität pro

Kunden auszurechnen. Das ist eine wichtige Kennzahl zur Steuerung von

personalisierten Kampagnen und Echtzeit-Produktempfehlungen, also eine im

analytischen CRM typische Kennzahl im Handel für die Outbound- und Inbound-

7 Nur ist „Echtzeit“ leider zu einem neuen Buzz-Wort geworden und führt so gelegentlich zu Irrungen und

Wirrungen.

Page 21: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 21

Kundenkommunikation. Nur konnte man mit den traditionellen BI-Werkzeugen diese

Kunden/Produkt-Profitabilität-Kennzahl nicht ausrechnen, da das zugrunde liegende

Datenvolumen zu groß war und die Analysen einfach zu lange dauerten, um

beispielsweise im Rahmen von Kundeninteraktionen Empfehlungen in Echtzeit

auszusprechen. Mit Big Data-Technologien lässt sich das Problem lösen.

Beispiel: Stimmungsanalysen in den Social Media. Insbesondere die

Konsumgüterhersteller interessieren sich für die Meinungen aller Marktteilnehmer zu

den eigenen Produkten und Marken ebenso im Vergleich dazu zu den Produkten und

Marken der Mitbewerber. Hier bieten die Social Media neue und ergiebige Quellen.

Neben der Chance, Zielgruppen mit chirurgischer Präzision zu bearbeiten, bringen

Social Media aber auch Risiken: In Blogs, Foren und Tweets wird schlicht und einfach

alles über Produkte und Unternehmen gesagt – inklusive echter Lügen:

Expertenforen können schnell und nachhaltig Werbesprüche entzaubern. Zur

Auswertung all dieser Kommunikation in den Social Media beginnt man mit dem

Identifizieren und Extrahieren der relevanten Quellen im Big Data. Dann gilt es, diese

Quellen auszuwerten. Das liefert nicht nur statistische Information, wo und wie viele

Spuren sich im Web und in den Social Media befinden, sondern mit Hilfe von

Stimmungsanalysen (sentiment analysis) lässt sich auch die Tonalität der Beiträge

bestimmen. Auf Basis eines Social Media Monitoring kann im nächsten Schritt eine

Social Media-Interaktion aufgebaut werden. Das Unternehmen kann jetzt auf

relevante Beiträge sofort reagieren und intervenieren. Das bringt Vorteile vor allem im

Kundenservice oder bei der Einführung neuer Produkte im Markt, da sich sofort eine

Kommunikation mit Communities im Web aufbauen und unterhalten lässt. So sind

beispielsweise schon in verschiedenen Service-Call Centern die Agenten auch zu

Social Media-Agenten geworden, die jetzt eine Multikanal-Kommunikation mit den

Kunden über die traditionellen und die Social Media-Kanäle führen können. Das ist

der Schritt von Outbound- und Inbound-Kundenkommunikation zur Unbound-

Kundenkommunikation. So schafft man eine gesteigerte Time-to-Market und eine

höhere Kundenbindung bei einer vergleichsweise überschaubaren Investition.

Wenn man sich diese Beispiele genauer anschaut, dann lassen sich fünf Nutzenaspekte

von Big Data erkennen.

1. Transparenz durch Big Data. Nicht nur Hersteller von Konsumgütern interessieren sich

für Stimmungsanalysen in Social Media, sondern auch die Touristik-Branche. Eine

Hotelkette interessiert sich beispielsweise für das elektronische Feedback ihrer Gäste

und/oder für die Bewertungen der Mitbewerber. Auch eine ganz neue Art der

Wettbewerbsbeobachtung ist mittels der öffentlich zugänglichen Satellitenbilder machbar.

Man kann so Hinweise über Fabrikkapazitäten erhalten, rechtzeitig Expansionen

erkennen oder auch topologische Beschränkungen, die Expansionen des Mitbewerbers

behindern können. Alles wird möglich, wenn all diese Daten im Unternehmen zugreifbar

und auswertbar werden. In der Verbindung mit den Unternehmenskundendaten erhält

man so nicht nur eine 360°-Sicht auf den Kunden, wie immer im CRM gefordert, sondern

sogar eine 360°-Sicht auf den gesamten Markt: Mitbewerber, Kunden der Mitbewerber,

Presse, Marktmultiplikatoren etc. Denn im Big Data spiegelt sich ja der Markt mit allen

Marktteilnehmern wieder.

Page 22: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 22

Um von diesem Nutzenaspekt zu profitieren, muss das „Silo-Denken“ in den

Unternehmen endlich aufhören. Das Sammeln von Fachabteilungs-bezogenen Daten ist

nicht ausreichend, um Kunden- und Marktwissen durch Big Data aufzubauen. Im

Finanzwesen ist es immer noch üblich, Daten über die Finanzmärkte, über den

Zahlungsverkehr und das Kreditwesen getrennt zu halten und nicht über

Abteilungsgrenzen hinweg zu nutzen. Das hindert den Aufbau kohärenter Kundensichten

und das Verstehen der Beziehungen und Beeinflussungen zwischen Finanzmärkten.

2. Testen aller Entscheidungen. Big Data bietet die Möglichkeit, das Treffen von

Entscheidungen grundlegend zu ändern: Big Data-Analyseergebnisse werden als

Hypothesen aufgefasst und dann mittels kontrollierter Experimente werden diese

Hypothesen getestet. Das erlaubt, Entscheidungen und Maßnahmen auf Basis von

getesteten Fakten zu treffen. So lassen sich auch Ursache-Wirkungsbeziehungen von

reinen Korrelationen unterscheiden.

Internet-Unternehmen wie Amazon und eBay waren mit bei den ersten, die solche

kontrollierten Experimente nutzten, um die Konversionsraten von Besuchern ihrer

Webseiten zu steigern. Dazu wurden gezielt bestimmt Funktionen und Verbindungen auf

Webseiten geändert und die Wirkung entsprechend gemessen. So konnten die Faktoren

ermittelt werden, die die Konversionsraten steigern. Mittels des mobilen Internets kann

jetzt die Wirkung von Außenwerbung bezogen auf den Standort gemessen und

entsprechend optimiert werden. Das wird durch die Klickraten auf den QR-Codes auf

Werbeflächen ermöglicht. So lässt sich im Big Data auch ein cross-mediales Marketing

aufbauen. Die Konzepte des kontrollierten Testens von Änderungen von Webseiten

werden heute auch in der realen Welt machbar. Das geschieht nicht nur durch die QR-

Codes, sondern auch beispielsweise mittels Video-Aufzeichnungen von

Kundenbewegungen in Kombination mit Kundeninteraktionen und Bestellmustern, die sich

in Transaktionsdaten verbergen. Durch kontrollierte Experimente lassen sich so Produkt-

Portfolios und -Platzierungen sowie Preise kontinuierlich und gezielt verbessern. Daraus

folgt eine Kosteneinsparung durch mögliche Reduktionen des Produktangebots ohne

Risiko des Verlustes von Marktanteilen und sowie eine Steigerung der Marge durch den

Verkauf höherwertiger Produkte.

3. Personalisierung in Echtzeit. Kunden- und Marktsegmentierung hat eine lange

Tradition. Jetzt mit Big Data gibt es völlig neue Möglichkeiten durch Echtzeit-

Personalisierung von Kundeninteraktionen. Im Handel kennen wir solche Strategien

bereits von den Big Data-Vorreitern wie Amazon und eBay, aber auch von sozialen

Netzen, wo uns Freundschaften vorgeschlagen werden. Natürlich profitiert man auch in

anderen Branchen von solchen personalisierten Kundeninteraktionen, beispielsweise im

Versicherungswesen. Hier können Versicherungspolicen auf den Kunden individuell

zugeschnitten werden. Als Datenbasis dazu dienen kontinuierlich angepasste Profile der

Kundenrisiken, Änderungen in der Vermögenslage oder auch Lokalisierungsdaten.

Kraftfahrzeuge können mit speziellen Sendern ausgerüstet werden, so dass sie über eine

Lokalisierung im Falle eines Diebstahls wiedergefunden werden können.

4. Prozess-Steuerung und Automatisierung. Big Data erweitert den Einsatz von Analytik

zur Prozess-Steuerung und Automatisierung. So können Sensor-Daten von

Produktionsstraßen zur Autoregulierung von Produktionsprozessen genutzt werden.

Page 23: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 23

Damit lassen sich Kosteneinsparungen durch optimalen Materialeinsatz und durch

Vermeidung von menschlichen Eingriffen erzielen, wobei gleichzeitig der Durchsatz

erhöht werden kann. Proaktive Wartung ist ein anderes Einsatzgebiet. Maschinen können

kontinuierlich über Sensoren überwacht werden, so dass auftretende Unregelmäßigkeiten

sofort erkannt werden und rechtzeitig beseitigt werden können, bevor Schäden auftreten

oder es zum Stillstand kommt.

Andere Beispiele stammen aus der Konsumgüter-Branche. Getränke oder auch

Speiseeis-Hersteller nutzen die täglichen Wettervorhersagen, um die eigenen

Nachfrageplanungsprozesse an das aktuelle Wetter anzupassen. Dabei sind die

Messdaten zur Temperatur, zur Niederschlagsmenge und zur täglichen

Sonnenscheindauer entscheidend. Dieses Wissen erlaubt eine Prozessoptimierung durch

die Verbesserung der Vorhersagewerte um einige Prozent.

5. Innovative Informations-getriebene Geschäftsmodelle. Big Data erlaubt auch neue,

innovative Geschäftsmodelle auf der Basis von Information. Preis-Information wurde

früher vielfach vertraulich behandelt. Heute in den Zeiten des Internets und Internethandel

sind Preise in der Regel öffentlich verfügbar. Das erlaubt den Internet- und anderen

Händlern die Preise des Mitbewerb zu überwachen und rechtzeitig auf Preisänderungen

zu reagieren. Das erlaubt aber auch den Kunden, sich über die Preise zu informieren und

so den besten Preis für ein gewünschtes Produkt zu erzielen. Darauf haben sich einige

Anbieter spezialisiert, die über Konsolidierung, Aggregieren und Analyse von

Preisinformation ihr eigenes Geschäftsmodell gefunden haben. Das gilt nicht nur im

Handel, sondern auch im Gesundheitswesen, wo durch solche Information-Anbieter die

Behandlungskosten transparent gemacht werden.

Natürlich darf man nicht die Kritik an Big Data vernachlässigen, denn ein mehr an

Information bedeutet nicht unbedingt gleichzeitig bessere Information. Auch macht die

Quellenvielfalt Probleme, was die Vergleichbarkeit der Daten angeht, denn unterschiedliche

Quellen erzeugen durchaus auch Daten in unterschiedlicher Qualität und Beschaffenheit. Für

den Statistiker erhebt sich dann auch noch die Frage, ob und wie Information aus dem Big

Data überhaupt repräsentativ sein kann.

Trotz der Kritik an Big Data: die Big Data-Vorreiter Amazon, eBay, Facebook und Google

zeigen, dass Big Data-Potenziale existieren und geldwerten Vorteil bringen können. Bei aller

Skepsis zum Hype um Big Data: Die IT-Anbieter investieren große Summen und erwarten

viel von diesem schnell wachsenden Markt. Schließlich sollte man auch nicht vergessen,

dass all die genannten Datenquellen sprudeln. Die Informationsproduktion der digitalen Welt

ist enorm und gleichzeitig stehen mächtige Analyseverfahren aus Mathematik, Statistik,

Linguistik und aus der Welt der künstlichen Intelligenz zur Verfügung, mit denen man in der

Tat Hypothesen finden kann, die sich kein Mensch je ausgedacht hätte. Das ist der Reiz,

genauso wie im traditionellen Data Mining jetzt im Big Data „Nuggets“ zu finden, nur noch

grösser und wertvoller.

Page 24: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 24

2.5 Prozess-Orientierung – ein neuer Kontext für BI

Business Intelligence muss in den Kontext von Prozessen gestellt werden, damit

Geschäftsrelevanz gegeben ist.

Warum sind Prozesse so wichtig? Was erreichen wir hiermit? Blicken wir dazu zurück in die

90er Jahre. Die große Hoffnung war damals, das Unternehmen als Ganzes durch ein ERP-

System IT-mäßig zu unterstützen. Die Unternehmen wurden applikations-orientiert. Alle

unternehmensrelevanten Daten sollten in einer Datenbank abgebildet werden und alle

Geschäftsfunktionen sollten mittels der Standardfunktionalität eines ERP-Systems abgebildet

werden. Dieser Traum ist vorbei. Was haben wir gelernt?

“Ein ERP für alles” funktioniert nicht. Die Mehrheit der Unternehmen hat mehrere

heterogene ERP-Systeme und weitere Legacy- und andere Systeme im Einsatz. Die

durchschnittliche (Median) Anzahl von im Einsatz befindlichen operativen Systemen in

einem größeren Unternehmen ist 50. In globalen Konzernen kommt man schnell auf

Zahlen von mehreren Hundert.

Die Leistungskraft der IT wird in Frage gestellt. Die hohe Zahl von Schnittstellen, um

Punkt-zu-Punkt Applikationen mit anderen Applikationen zu verbinden, treibt die Kosten

für Implementierungen neuer Systeme. Das Budget zur Wartung aller dieser

Schnittstellen blockiert jede Innovation durch IT. IT wurde zur Altlast. Die IT-Abteilung

manchmal sogar zum Bremser.

Der erreichte Grad von Prozessautomation ist bescheiden bis nicht existierend.

Daten müssen meist händisch von einem System ins nächste übertragen werden. Die

Prozessqualität bleibt niedrig, die Fehlerrate aber steigt. Die Kosten bekommt man so

nicht in den Griff.

Der erreichte Grad von Prozessintegration ist bescheiden bis nicht existierend.

Prozesse enden an den Grenzen der Applikationen. Kollaboration mit den Lieferanten,

Partnern und Kunden ist kaum machbar. Das macht die Unternehmen langsam und

senkt die Reaktionsfähigkeit. Wieder steigen die Kosten.

Strategieänderungen und Anpassen der Geschäftsprozesse an

Marktgeschwindigkeit und Dynamik sind nicht möglich. Prozesse sind in den

Applikationen einzementiert und applikationsabhängig. Einen Prozess zu ändern heißt

die Applikation zu ändern und alle Applikationen, mit denen einen Punkt-zu-Punkt-

Verbindung besteht. Die Applikation bestimmt den Takt des Unternehmens, nicht die

Strategie. Applikations-orientierte Unternehmen sind starr und unflexibel. Marktsieger

findet man hier nicht, Marktsieger sind agil.

Stammdaten sind redundant über die Applikationen verstreut. Konsistenz bleibt ein

Traum. Jede Applikation hat ihre eigene Terminologie. Produkt- oder Auftragsnummern

in einer Applikation stimmen mit denen in anderen Applikationen nicht überein. Die

Kollaboration mit Lieferanten und Kunden wird zum Kostentreiber: Jedes Mal, wenn ein

neuer Lieferant, ein neuer Kunde, ein neues Produkt dazu kommt, muss eine neue

Übersetzungstabelle erstellt werden und/oder der neue Begriff in allen

Page 25: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 25

Übersetzungstabellen hinzugefügt werden. Das macht Änderungen langsam,

fehleranfällig und teuer.

Information Management ist nicht machbar. Rechtzeitige Verfügbarkeit und Zugang

zu Information bleibt ein Luxus und ist nicht bezahlbar. Das Unbehagen über den

Zustand der IT ist groß, Outsourcing packt das Übel nicht an der Wurzel. Eine

Auslagerung in individuelle Tabellenkalkulation à la Excel ist keine Lösung, denn so

steigt nur die Inkonsistenz der Daten und von Information. Insbesondere ist man dann

weder revisions- noch betriebssicher.

Das führt uns zu der Kernfrage: Wie lässt sich ein traditionelles applikations-orientiertes

Unternehmen in ein innovatives Prozess-Orientiertes transformieren? Die Antwort heißt

Business Process Management (BPM).

© 2012 S.A.R.L. Martin2

Infrastruktur: SOA

Das prozessorientierte Unternehmen

Geschäftsprozess

Geschäftsprozess

Business Process Management

Planen, Überwachen, Steuern

Anreichern

Metriken, Business-AnalytikModellieren

Analyse, Design, Test,Simulation

Implementieren &

Betreiben

Applikationsüber-greifende Prozess-

und Regel-Maschine

Performance Management &

Analytik

Abbildung 2: Business Process Management (BPM) ist ein Rückkopplungs-Modell („closed loop“). Das Managen der Geschäftsprozesse steht im Zentrum des unternehmerischen Handelns. Die Prozesse werden unabhängig von der implementierten Applikationslandschaft modelliert, ausgeführt, geplant, überwacht, gesteuert und angereichert. Die Infrastruktur dazu ist eine service-orientierte Architektur (SOA). Performance Management ist ebenfalls ein Rückkopplungs-Modell, das innerhalb von BPM das Planen, Überwachen und Steuern der Prozesse und ihrer Performanz übernimmt. Analytik dient der Ableitung von analytischen Modellen und Services, mit denen Prozesse angereichert und dadurch „intelligent“ gemacht werden können. Diese Prozess-Orientierung ist eine Basis-Eigenschaft eines intelligenten und agilen Echtzeit-Unternehmens.

Definition: BPM ist ein Kreislaufmodell, das aus drei Phasen besteht (Abb. 2):

Phase 1: Analysieren, planen, modellieren, testen und simulieren von

Geschäftsprozessen. (Man spricht auch von der „Design-Phase“.)

Page 26: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 26

Phase 2: Implementieren und Betreiben („Ausführen“) von Geschäftsprozessen durch

applikationsübergreifende Arbeitsabläufe („process flow“) mittels einer Prozess- und

einer Regelmaschine auf einer service-orientierten Architektur (SOA) als Infrastruktur.

Phase 3: Planen, Überwachen, Steuern und Anreichern der Prozesse, ihrer Leistung

(Performance) und des Zusammenspiels aller Geschäftsprozesse.

BPM heißt also Synchronisieren der Prozesse mit kontinuierlichem und umfassendem

Planen, Überwachen und Steuern. Diese Synchronisierung hält Geschäftsprozesse

kontinuierlich à jour mit Ereignissen und intelligentem Planen und Vorhersagen.

Geschäftsprozesse werden zur neuen Kommunikationsplattform für Fachabteilungen und IT.

Eine echte und dauerhafte Kooperation und Kollaboration zwischen Business und IT

bahnt sich an. Business Process Management schafft (Abb. 3):

Prozesse, die zu einer gemeinsamen Kommunikationsplattform zwischen Business

und IT werden. Die Spezifikation von fachlichen Anforderungen basiert jetzt auf einer

gemeinsamen Sprache, die von beiden Parteien, den Fachabteilungen und der IT

gesprochen und verstanden wird. Das technische Design von ausführbaren Prozessen

und Backend-Services, die die Geschäftslogik bereitstellen, lässt sich ohne Bruchstellen

und konsequent ableiten, wenn ein gemeinsam erstelltes fachliches Design vorliegt.

Prozesse, die unabhängig von den Applikationen ablaufen. Kollaboration erfordert

durchgängige, integrierte und synchronisierte Prozesse, die quer über existierende

Applikationen und Systeme auf einer Integrationsdrehscheibe ablaufen. Die

Integrationsdrehscheibe besteht aus einem Enterprise Service Bus (ESB) und einer

Datenintegrationsplattform (DI). Dabei ist es wesentlich zu verstehen, dass der Charakter

solcher Prozesse funktions-, abteilungs- und unternehmensübergreifend ist.

Prozesse, die von den Vorteilen der Service-Orientierung profitieren. Eine SOA ist

fachlich getrieben. Die Granularität des Prozessmodells bestimmt die Granularität der

fachlichen Services in einer SOA. Eine SOA bildet darüber hinaus technische Services

von existierenden Backend-Applikationen auf die fachlichen Services ab. Das bedeutet

einen 100% Investitionsschutz in die existierende IT Architektur. Mit Service-Orientierung

gehen wir den nächsten Schritt und bauen auf den existierenden IT Investitionen auf.

Prozesse, die quer über alle zu Grunde liegenden Applikationsdatenmodelle

zugreifen können. Eine Voraussetzung für automatisierte, ereignis-getriebene und

durchgängige Prozesse ist, dass alle prozessrelevanten Daten aus allen Schnittstellen

und betroffenen Systemen nicht nur integriert und synchronisiert werden, sondern auch

in ein gemeinsames applikationsübergreifendes Datenmodell aggregiert werden. Solch

ein gemeinsames Business-Vokabular steht im Mittelpunkt des Stammdaten-

Managements: Eindeutig definierte und zentral gemanagte Metadaten geben eine

gemeinsame konsistente Sicht der gesamten Business-Terminologie für alle

Geschäftsparteien. Das ist wesentlich, wenn neue Produkte, neue Kunden oder neue

Lieferanten ins Netzwerk der Kollaboration aufgenommen werden. Eine einzige

Änderung in den Stammdaten wird sicher und zuverlässig an alle Systeme und

Geschäftsparteien weitergeleitet.

Page 27: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 27

3 © 2012 S.A.R.L. Martin

Das intelligente Unternehmen

Lieferanten KundenUnternehmen

Kollaborativer Prozess Abteilung/

Business ServicePlanung/Steuerung/

Überwachung

Eingebettete BI

Governance,

Risiko-Management

Management-Fokus Industrialisierung von Prozessen (operational excellence)

Flexibilität von Prozessen (agility)

Regeltreue von Prozessen (compliance)

Prozess-Management trifft

Performance Management und Analytik

Abbildung 3: Ein intelligentes Unternehmen setzt nicht nur auf „operational excellence“, sondern auch auf die Flexibilität des Geschäftsmodells („agility“) und auf Regeltreue („compliance“). Eine Voraussetzung dazu ist die Prozess-Orientierung. Das schafft drei unterschiedliche Anwendungsbereiche für die „neue“ Business Intelligence: 1) Performance Management zur Prozess-Planung, -Überwachung und -Steuerung, 2) Analytik im Sinne von Einbettung von BI in die Prozesse, 3) Governance und Risiko-Management. Hier wirkt BI unterstützend im Sinne von rechtzeitiger Bereitstellung von Information mittels Frühwarnsystemen. So wird aus Business Intelligence „Performance Management und Analytik“.

Prozesse, die Services konsumieren und publizieren. Das Umdenken hier führt von

applikations-orientierten zu service-orientierten Architekturen (SOA – Abb. 4). Prozesse

werden jetzt von Regel- und Prozessmaschinen ausgeführt, die operative, analytische,

kollaborative und Informations-Services orchestrieren. Schließlich kann dann ein

Geschäftsprozess selbst wieder ein Service oder eine Gruppe von Services sein. Hier

lässt sich auch eine gewisse Wiederverwendbarkeit erreichen, in dem Funktionalität und

Daten nicht redundant implementiert werden. Redundanz ist ein typisches Problem des

applikations-orientierten Modells. Service-Orientierung hilft, dieses Problem zu

vermeiden.

Prozesse, die Unternehmen in intelligente Echtzeit-Unternehmen transformieren.

Intelligenz kommt aus Geschäftsmetriken, die dazu dienen, Prozesse und ihre Leistung

(Performance) zu steuern und zu kontrollieren. Geschäftsmetriken werden aus den

Unternehmens- und Prozess-Zielen abgeleitet. So lassen sich Prozesse auf Basis von

gemessener Zielerreichung proaktiv mittels Kennzahlen („Metriken“), „Key Performance-

Metriken (KPM)“8, Regeln und prädiktiven Modellen überwachen und steuern. Wir hatten

8 Mitunter werden Metriken auch als „Indikatoren“ bezeichnet, entsprechend dann auch KPMs als KPIs. Wir

bevorzugen die Begriffe Metrik und KPM, da so der klare Bezug zum „Messen“ ausgedrückt wird.

Page 28: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 28

dazu bereits in Kap.2.2. ein Beispiel zum Messen von strategischer und operativer

„Liefertreue“ betrachtet.

Metriken haben also, wie schon gesagt, nicht nur diagnostische Aufgaben, sondern

insbesondere auch vorausschauenden Charakter im Sinne eines Forecasting. Insbesondere

mittels Echtzeit-Metriken erhalten Prozesse so die Fähigkeit, proaktiv und korrektiv zu

agieren. Mit anderen Worten:

Wir haben Business Intelligence neu erfunden. Wir haben Business Intelligence in den

Kontext der Geschäftsprozesse gestellt. Daraus ergeben sich drei Bereiche, in denen

Business Intelligence eingesetzt wird (vgl. Abb. 3):

1. Performance Management

Definition: Performance Management ist ein Geschäftsmodell, das einem Unternehmen

ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander

abzustimmen und konsistent zu halten. Performance Management bedeutet, Prozesse

zu planen, zu überwachen und zu steuern sowie Prozessinhalte als Basis für

Auswertungen und Prognosen zu benutzen.

2. Analytik. Analytik bezeichnet sowohl den Prozess zur Gewinnung von Information und

der Ableitung eines Modells zur Nutzung von Information (beispielsweise prädiktive

Modelle aus einem Data Mining Prozess) als auch die Einbettung und Nutzung dieses

Modells in Geschäftsprozessen.

3. Governance, Risiko-Management und Compliance (GRC). Governance9 bezeichnet

die verantwortungsvolle, nachhaltige und auf langfristige Wertschöpfung ausgerichtete

Organisation und Steuerung von Aktivitäten und Ressourcen im Unternehmen. Risiko-

Management bezeichnet alle Aktivitäten der Risikoerkennung, Risikoverminderung und

Risikovermeidung. Compliance bedeutet die Erfüllung der von der Unternehmensleitung

gemachten Vorgaben („Policies“) sowie der rechtlichen und regulativen Vorgaben. Hier

spielt Business Intelligence im Wesentlichen die Rolle einer rechtzeitigen

Informationsbereitstellung zur Entscheidungsfindung. Das wird im Risiko-Management

besonders deutlich. Hier sind Frühwarnsysteme, also das rechtzeitige Erkennen von

Risiken zwecks Risikovermeidung oder Risikominderung, gute Beispiele für einen

erfolgreichen Einsatz von BI.

2.6 Service-Orientierung – das neue Paradigma

Jetzt bleibt noch die Infrastruktur für BPM und Performance Management zu definieren, so

dass wir Analytik in die Prozesse einbetten können. Das machen wir, wie schon in Abbildung

2 gezeigt, mit einer SOA (Abb. 4). Agilität und Industrialisierung sind aus der Sicht der

9 Prof. Dr. Matthias Goeken, Frankfurt School of Finance & Management, anlässlich der Auftaktveranstaltung der

Zukunftswerkstatt IT, Frankfurt/Main, 19. April 2007

Page 29: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 29

Implementierung von Prozessen mittels IT eigentlich zwei sich widersprechende

Anforderungen, jedoch wenn Prozesse im Kontext einer service-orientierten Architektur

(SOA) gemanagt werden, dann bringt man beide Zielsetzungen zusammen. Denn eine SOA

ist eine spezielle Architektur, die darauf abzielt, „Software for Change“ zu ermöglichen. Das

ist die Zielsetzung von „Service-Orientierung“. Das Prinzip einer Service-Orientierung ist

recht einsichtig und vor allem nicht technisch oder technologisch. Es beschreibt eine

Kollaboration zwischen einem Verbraucher (Konsument, Servicenehmer) und einem

Anbieter (Produzent, Servicegeber). Der Verbraucher will eine bestimmte Funktionalität (ein

“Produkt” oder eine “Dienstleistung - Service”), den ein Anbieter bereitstellt. Eine solche

Kollaboration arbeitet nach den folgenden Prinzipien:

© 2012 S.A.R.L. Martin4

BPM und BI mit einer SOA

Eine SOA ist

• IT Architektur

• Unternehmensarchitektur

• Kollaborationsarchitektur

Service Bus

Information Mgt

Analytik &PerformanceManagement

Portal

Präsentations- &

Kollaborations-

Services im

“social media Stil”

Geschäftsprozess-

Management

B2B

Marktplatz, Lieferanten, Partner,

Händler, Kunden, soziale Medien

DI

ERP

SAP

CRM

SCM

PLM

etc

Backend-Services

Op

era

tive D

ate

n

DW

CAD/CAM

Office-

Applikation

Content

Management

Abbildung 4: Eine SOA (service-orientierte Architektur) beschreibt das Design einer Infrastruktur für Geschäftsprozess-Management. Kern der Infrastruktur ist ein Service Bus, der das Management und Lebenszyklusmanagement der Prozesse und Services unterstützt. Hierzu gehören auch die Backend-Services, die Informations-Services (DI = Datenintegration) und die Metadaten/Stammdaten-Services. Der Service Bus stellt auch die Schnittstelle zu externen Services für B2B dar. Informationsdomänen wie Content Management, Wissensmanagement, Office und CAD/CAM können über den Service Bus auch als Services orchestriert werden. Performance Management und Analytik agieren dabei wie ein „Gehirn“ des prozess-orientierten, intelligenten Unternehmens: Mittels „Intelligenz“ werden die Prozesse und ihre Performance geplant, überwacht und gesteuert. Analytik wird dazu per Services in die Prozesse eingebettet, um Probleme und Risiken rechtzeitig zu erkennen. Das Portal agiert als Mensch-Maschine-Schnittstelle und unterstützt die menschlichen Interaktionen durch Kollaborations- und Präsentations-Services, angereichert durch Web 2.0-Werkzeuge, die eine Benutzerinteraktion im „social media Stil“ unterstützen. (ERP = enterprise resource planning; CRM = customer relationship management; SCM = supply chain management; PLM = product life cycle management; DW = data warehouse; CAD/CAM = computer aided design/manufacturing; B2B = business to business)

Page 30: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 30

Service-Orientierung (SO)

Prinzip 1 – Konsequente Ergebnisverantwortung. Der Service-Geber übernimmt die

Verantwortung für die Ausführung und das Ergebnis des Services. Der Service-Nehmer

übernimmt die Verantwortung für die Kontrolle der Service-Ausführung.

Prinzip 2 – Eindeutige Service Level. Jede Serviceausführung ist eindeutig vereinbart

hinsichtlich Zeit, Kosten, Qualität. Input und Output der Services sind klar definiert und

beiden Parteien bekannt per Service Level Agreement (SLA).

Prinzip 3 – Pro-aktives Event Sharing. Der Service-Nehmer ist über jede vereinbarte

Statusänderung seines Auftrages informiert. Der Service-Geber ist verpflichtet den

Service-Nehmer unmittelbar über unvorhergesehene Ereignisse zu informieren.

Prinzip 4 – Service-Verknüpfung. Ein Service kann zur Leistungserbringung einen oder

mehrere andere Services nutzen. Umgekehrt kann jeder Service von anderen Services

zur Leistungserbringung genutzt werden.

Eine solche Service-Orientierung ergibt ein flexibles Instrumentarium, denn ein Service kann

so als eine Lieferung entsprechend einer Bestellung gemäß den Bedingungen eines SLAs

verstanden werden. Im SLA wird festgelegt, in welcher Zeit, zu welchen Kosten und mit

welchen Ressourcen ein Service geliefert wird. Es wird auch festgelegt, was der Eingang

(Input) in den Service ist und wie der Ausgang (Output) aussieht. Services können auch als

externe Services von Dritten im Sinne von SaaS (Software as a Service) bezogen werden.

Services präsentieren die Geschäftslogik, die traditionell in den Applikationen steckt.

Prozesse haben die Aufgabe, Services – also die Geschäftslogik – gemäß der Prozesslogik

zu orchestrieren und zu choreographieren.

Das Service-Verknüpfung-Prinzip hat eine interessante Konsequenz, wenn man es mit dem

Unterprozess-Prinzip vergleicht: Ein Service verhält sich wie ein Prozess. Die Folge ist, ein

Prozess kann ein Service sein und ein Service ein Prozess. Im Sinne der IT können wir jetzt

definieren:

Definition: Ein Service ist eine Funktionalität, die typischerweise mittels einer Anfrage-

Antwort über eine standardisierte Schnittstelle ausgelöst und gemäß einem SLA konsumiert

wird. Ein Service ist somit eine spezielle Ausprägung einer „Softwarekomponente“.

Jetzt können wir auch eine SOA definieren. Im Ausdruck „SOA“ stecken ja die beiden

Bestandteile „SO = Service-Orientierung“ und „A = Architektur. SO und Service haben wir

bereits definiert, bleibt jetzt noch die Definition des Begriffes „Architektur“. Dieser Begriff hat

leider keine eindeutige Definition, aber unter Zuhilfenahme diverser Online-Lexika lässt sich

ableiten:

Definition: Eine Architektur in der Informatik spezifiziert das Zusammenspiel der

Komponenten eines komplexen Systems. Sie beschreibt die Übersetzung fachlicher

Anforderungen in Bauinstruktionen. Damit hat eine Architektur Charakteristiken und

Konsequenzen.

Jetzt können wir die Charakteristiken einer SOA zusammenstellen:

Page 31: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 31

Eine SOA ist ein Design-Ansatz für eine spezielle Unternehmensarchitektur und für eine

spezielle informationstechnische Software-Architektur.

Im Sinne des Prinzips Servicenehmer und Servicegeber erfolgt eine Trennung der

traditionellen Applikationslogik in eine Prozess- und Geschäftslogik. Hier findet eine

Entkopplung statt.

Eine SOA ist in jedem Falle unabhängig von Technologie. Die Technologie zur

Implementierung kann also frei gewählt werden.

Informationstechnisch gesehen ist die Service-Orientierung eine Evolution von

Komponenten- Architekturen (Funktionsweise gemäß den „LEGO“-Prinzipien)

SOA Services sind fachlich getrieben: Die Granularität der Prozess- und

Regelmodellierung bestimmt die Granularität der fachlichen Services.

Eine weitere Besonderheit einer SOA ist die Standardisierung10. Der Zugriff auf Services

erfolgt nach Standards (Web Services) genauso wie die Orchestrierung und

Choreographierung der Services (business process execution language BPEL) oder

Infrastrukturdienste wie Authentifizierung und Identifizierung. Eine vor Jahren nicht

vorstellbare Zusammenarbeit der verschiedenen IT-Anbieter treibt die Standards recht

zügig voran. So haben beispielsweise Web Services inzwischen eine allgemeine

Akzeptanz im Markt gefunden.

Damit diese Service-Orientierung funktionieren kann, ist ein Business-Vokabular die

Voraussetzung, damit in allen SOA-basierten Prozessen die gleiche Sprachweise verwendet

werden kann. Dazu braucht man ein Repository, in dem alle Meta- und Stammdaten

einheitlich beschrieben sind. Was die Integrationsdrehscheibe für eine SOA ist, ist das

Repository für Meta- und Stammdaten. Die Architektur des Repositories ist also eine Hub-

and Spoke-Architektur, so dass alle Meta- und Stammdaten über alle Backendsysteme

synchronisiert und historisiert werden können. Das ist die Rolle von Stammdaten-

Management. Das wird in Kap. 6 weiter im Detail diskutiert.

Mehr zu SOA findet man beispielsweise bei Martin (2008) und zu SOA Trends und Einsatz in

Unternehmen im deutschsprachigen Raum bei Martin, Eckert und Repp (2010).

Achtung: ROI kommt in der Regel nicht von einer SOA, sondern von den implementierten, SOA-basierten Prozessen.

10

Eine Klassifizierung der Standards findet man auf http://www.computerwoche.de/soa-expertenrat/?p=209

Page 32: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 32

3 Performance Management – Strategien, Prozesse, Menschen,

Metriken und Governance

3.1 Prozess- und service-orientierte Business Intelligence

Wie wir gesehen haben, gehört Business Intelligence in den Kontext von Prozessen und

damit natürlich auch in den Kontext von Strategien und Menschen. Geschäftsprozesse sind

heutzutage funktionsübergreifend, abteilungsübergreifend, ja, sogar

unternehmensübergreifend. Prozesse verbinden die Lieferanten der Lieferanten mit den

Kunden der Kunden innerhalb eines kollaborativen Unternehmensnetzwerkes (vgl. Abb. 3).

Definition: Ein Geschäftsprozess ist….

eine Menge von Aktivitäten & Aufgaben ausgeführt von Ressourcen

(Services geleistet von Menschen & Maschinen)

unter Nutzung unterschiedlicher Information

(strukturiert & unstrukturiert)

mittels unterschiedlicher Interaktionen

(vorhersehbar & unvorhersehbar)

gesteuert von Management-Politiken und Prinzipien

(Geschäftsregeln & Entscheidungskriterien)

mit dem Ziel, vereinbarte Endergebnisse zu liefern

(Strategien & Ziele)

Die Vorteile solcher integrierten und durchgängigen („end-to-end“) Prozesse liegen auf der

Hand:

Kostenreduktion durch schnellere und sichere Prozesse. Durch Automation kommt man

zu einer höheren Geschwindigkeit und Qualität von Prozessen, also zu höherem

Durchsatz bei geringerem Einsatz von Ressourcen.

Schnellere Vermarktung durch integrierte, durchgängige Prozesse. Integrierte Prozesse

verbessern die abteilungs- und unternehmensübergreifende Kollaboration und

beschleunigen Produkt- und Serviceentwicklung.

Risikominimierung durch Steuern und Kontrollieren der Effizienz der Prozesse mittels

Metriken zum Messen der Performanz von Prozessen gemäß dem Leitsatz: Man kann

nur managen, was man auch messen kann.

Maximierung der Flexibilität und Agilität des Unternehmens durch kontinuierliches und

schnelles Anpassen der Prozessmodelle an die Marktdynamik und

Kundenanforderungen. So kann man beispielsweise auf Störfälle und unerwartete

Ausnahmen schneller und flexibler reagieren.

Transparenz und Nachvollziehbarkeit durch die Prozesssicht. Damit werden die Auflagen

der Behörden zur Compliance und die Anforderungen der Prüfer erfüllt. So wird

Revisionssicherheit machbar.

Page 33: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 33

Genau aus diesen Gründen ist „Business Process Management (BPM)“ eine der wichtigsten

Anforderungen, die sich zeitgemäßen Unternehmen stellt. BPM und Performance

Management sind die prozessorientierte neueste Version der Unternehmensführung und

Steuerung: Planung, Ausführung und Performanz Management sind seit jeher die drei

Basiselemente jeden Managements gewesen („mach einen Plan, führe ihn aus und sieh zu,

dass dein Ergebnis in Einklang mit dem Plan bleibt“).

© 2012 S.A.R.L. Martin5

Performance Management – ein Regelkreis

Ergeb-

nisGeschäftsprozess

Agiere Entscheide

Zyklustakt

Ereignisse

Strategie

Ziel

Messe

Abbildung 5: Metrisch-orientiertes Management ist ein Top-down-Modell für informationsbasiertes Management. Messbare Ziele werden aus der Geschäftsstrategie abgeleitet. Auf Basis der Strategie und der Ziele werden parallel Prozesse und Metriken zur effizienten Geschäftssteuerung und kontinuierlichen Optimierung abgeleitet. Informationstechnisch werden dann die Prozesse und die Metriken durch operative, kollaborative und analytische Services im Rahmen einer SOA (service oriented architecture) unterstützt. Auf Basis des Auskommens der Metriken werden Entscheidungen getroffen entweder „manuell“ durch einen Menschen oder automatisiert durch Entscheidungsmaschinen. Entscheidungen führen zu Maßnahmen zur Steuerung von Prozessen und ihren Aktivitäten (taktisches und operatives Performance Management) als auch zur Anpassung und Änderung der Strategie und der Ziele (strategisches Performance Management): Der Regelkreis schließt sich. Wichtig ist die Synchronisierung zwischen dem Messen und der Prozessausführung: Die Geschwindigkeit des Mess- und Steuerprozesses muss der Geschwindigkeit des Geschäftsprozesses entsprechen – Grundvoraussetzung für ein Echtzeit-Unternehmen.

Performance Management im BPM-Modell umfasst alle Prozesse, die sich über alle

Funktionen und Abteilungen innerhalb eines Unternehmens erstrecken und sogar darüber

hinaus Unternehmen mit Unternehmen und / oder Verbrauchern verbinden. Metrisch-

orientiertes Management ist das Top-down-Prinzip von Performance Management zur

Optimierung des Managens eines Unternehmens per Regelkreisansatz (Abb. 5). Die

Business-Strategie bestimmt, welche Geschäftsprozesse vom Unternehmen ausgeführt und

gesteuert werden müssen. Geschäftsmetriken werden an jeden Geschäftsprozess

gekoppelt. Die Geschäftsmetriken werden abgeleitet aus den Zielen, so dass der Prozess

Page 34: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 34

durch Information, Leistungs-(Performanz-)Metriken, Regeln und prädiktive Modelle mess-

und steuerbar wird.

Das Einbetten von Analytik in die Geschäftsprozesse erfordert einen neuen Ansatz zur

Prozess-Modellierung. Das alleinige Modellieren von Prozess-Logik und -Fluss ist nicht mehr

ausreichend. Wir müssen jetzt zusätzlich die Metriken und die Verantwortlichkeiten und

Rollen modellieren. Das bedeutet, Strategie und Ziele mit den Prozessen, Metriken und

Menschen zu verknüpfen, um das Kreislaufmodell zu schaffen. Entscheidend dazu ist eine

Governance.

Beispiel: Überwachen und Steuern des Vertriebsprozesses. Heutige

Vertriebsmethodologien beschreiben und strukturieren die vertrieblichen Tätigkeiten

entlang des Vertriebszyklus, der üblicherweise mit dem Identifizieren eines

Interessenten beginnt und mit dem Zahlungseingang gemäß Rechnung basierend auf

dem abgeschlossen Vertrag endet. Die Methodologie beschreibt die verschiedenen

Stufen der Qualifizierung eines Interessenten bis hin zum Vertragsabschluss, sowie

der Aktivitäten der Lieferung, Rechnungsstellung und Zahlung des Kunden. Die

Anzahl der Stufen hängt von der gewählten Methodologie ab (und spielt in diesem

Beispiel keine Rolle). Performance Management kommt hier mit den Metriken der

Anzahl der qualifizierten Interessenten/Kunden pro Stufe, des geschätzten/realen

Wertes eines Vertrages, der Übergangswahrscheinlichkeit von einer Stufe in die

nächstfolgende und der Übergangszeit von einer Stufe in die folgende. Will man also

als Ziel des Vertriebsprozesses einen Zahlungseingang von x € in einem bestimmten

Monat erreichen, so lässt sich anhand der Metriken schätzen, wie viele Interessenten

in jeder Qualifizierungsstufe man wann braucht, um das Ziel zu erfüllen. Stellt man

fest, dass eine Zielerfüllung nicht möglich ist, so lassen sich die kritischen Parameter

ablesen, die man durch Maßnahmen beeinflussen muss, um eine Zielerfüllung zu

erreichen. So lässt sich der Vertriebsprozess mittels Performance Management pro-

aktiv steuern und kontrollieren.

Metrisch-orientiertes Management basiert auf Information Management (siehe Kap. 6).

Information muss rechtzeitig verfügbar sein (vgl. Kap.2.2), um manuelle oder automatisierte

Entscheidungen für die Kontrolle des Prozesses auszulösen. Das entspricht einem

„information supply chain“-Paradigma: die richtige Information zur richtigen Zeit am

richtigen Ort zum richtigen Informationsverbraucher, der so die richtige Entscheidung treffen

kann. Also bedeutet „rechtzeitig“ die Synchronisierung von Informationsbereitstellung mit

Informationsbedarf.

Eine Menge von Geschäftsmetriken repräsentiert eine Managementpolitik innerhalb des

metrisch-orientierten Managements. Die Idee, die dahintersteckt, ist überzeugend:

Man kann nur managen, was man auch messen kann.

Deshalb ist die Flexibilität zum Ändern und Anpassen aller Metriken eine der wichtigsten

Anforderungen an dieses Modell. Darüber hinaus müssen Geschäftsmetriken konsistent

sein. Metriken verschiedener Prozesse dürfen sich nicht widersprechen. In der Tat sind

Page 35: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 35

Metriken funktions- und prozessübergreifend: die Performanz eines Geschäftsprozesses

kann die Performanz eines anderen Prozesses beeinflussen oder ihm sogar

entgegenwirken.

Zum Beispiel wird die Liefertreue (vgl. Beispiel in Kap.2.2), eine Metrik, die mit der

Supply Chain verbunden ist, die Kundenzufriedenheit beeinflussen, die wiederum

eine Metrik des Kundenbeziehungsmanagements ist.

Diese Fragestellungen werden von so genannten „Business Scorecards“ adressiert. Eine

Business Scorecard verbindet sämtliche Managementpolitiken der Fachbereiche im

gesamten Unternehmen zu einer einheitlichen und konsistenten Unternehmens-

Managementpolitik. Beispiele spezieller Business Scorecards sind Norton / Kaplans Balanced

Scorecard oder das „Six Sigma Modell“. Die Balanced Scorecard ist beispielsweise eine

Menge von Metriken, die nicht nur wie klassisches Controlling auf finanziellen Parametern

basiert, sondern sie berücksichtigt ebenso Kunden-, Mitarbeiter- und Shareholderaspekte

und ermöglicht so Einblick in die Geschäftsperformanz jenseits der rein finanzorientierten

Quartalsergebnisse. Insofern handelt es sich hier um einen speziellen Typ von metrisch-

orientiertem Management. Trotz der großen Vielfalt solcher Modelle, bleibt das große Ziel

immer das gleiche: Wandle Daten in Information und Wissen um und maximiere deren Wert

für das Geschäft durch „closing the loop“, i.e. die Einbringung von Information und Wissen

zur Prozess-Planung, Überwachung und Steuerung.

Performance Management wird angewendet auf alle Geschäftsfelder wie

Kundenbeziehungsmanagement, Supply Chain Management, Personalwesen etc.

Beispiel: Financial Performance Management ist wie jede andere analytische

Lösung ein Prozess mit Rückkopplung („closed loop“), der das Performance und

Information Management finanzieller Prozesse und Information beschreibt. Dieser

Prozess erstreckt sich von Planung, Budgetierung, Forecasting und strategischer

Planung bis zur Prüfung der Richtigkeit gemäß den gesetzlichen Anforderungen

mittels finanzorientierter Metriken. Dazu gehören auch das gesetzliche Berichtswesen

sowie die Bilanzkonsolidierung. Das beschreibt dann auch die gesetzlich geforderte

Regeltreue im Rahmen der Compliance. Financial Performance Management umfasst

auch Profitabilitätsanalyse sowie Werkzeuge wie Simulationen und

Alternativanalysen („what-if-Analysen“). Entscheidungen werden getroffen mittels

finanzorientierter Metriken und Analysen und werden zurückgekoppelt in die

Planungs-, Budgetierungs- und Forecast Aktivitäten: Der Regelkreis wird

geschlossen.

Wie in Abbildung 5 schon angedeutet, findet Performance Management auf drei Ebenen

statt, auf der operativen, der taktischen und der strategischen Ebene (Abb. 6). Business

Intelligence war bisher auf Entscheidungsunterstützung im Rahmen strategischer Planung

und taktischer Analyse ausgerichtet. Dazu dienen langfristig angelegte Metriken, die die

Erfüllung strategischer Ziele messen und überwachen wie zum Beispiel

Kundenzufriedenheit, Kundenwert, Liefertreue, Lieferantenbewertung, Personalfluktuation

etc. Der Begriff der „Langfristigkeit“ bezieht sich dabei auf die Geschwindigkeit, mit der die

zugehörigen Kennzahlen durch Maßnahmen beeinflussbar sind. Dazu wird in der Regel eine

Ebene taktischer Ziele eingezogen, deren Erreichung Schritte auf dem Weg der

strategischen Zielerfüllung darstellen. Maßnahmen, deren Wirkungen der Erreichung

Page 36: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 36

taktischer Ziele dienen, erstrecken sich üblicherweise in einem Zeitraum zwischen einigen

Tagen und bis zu einigen Monaten. Im Zuge der Prozess-Orientierung wird nun Business

Intelligence auch operationalisiert, d. h. operative Prozesse werden mittels Intelligenz auch

kurzfristig überwacht und gesteuert. Operatives Performance Management wird auch

„Process Performance Management“ (PPM) genannt, und es umfasst „Business Activity

Monitoring (BAM)“. BAM-Konzepte diskutieren wir in Kap. 7.1.

Operative Intelligence (BAM + CEP)

kurzfristig –

mindestens am gleichen Tag

Strategische

Planung

Taktische

Analyse

Operative

Maßnahmen

traditionelle

Business

Intelligence

Taktisch

mittelfristig –

Tage, Wochen, Monate

Strategisch

langfristig

6 © 2012 S.A.R.L. Martin

PM & Analytik – Zeitraster und Schichten

Abbildung 6: Performance Management (PM) ist der Prozess, mit Hilfe von Metriken Geschäftsprozesse zu überwachen, Entscheidungen auf Grund dieser Messungen zu treffen und Maßnahmen zur Prozess- und / oder Performanz-Steuerung einzuleiten, ein Closed-loop-Ansatz zur Steuerung im Unternehmen. Performance Management reicht von operativem zu strategischem Performance Management. Ein ganz wesentlicher Bestandteil aller Performance Management-Ansätze ist, die Metriken auch in einem monetären Zusammenhang zu stellen. Dazu bedarf es eines prozessorientierten Rechnungswesens, was aber in aller Konsequenz heute nur in wenigen Unternehmen umgesetzt ist

Die Ideen zu Performance Management stammen aus der Kontrolltheorie: Genauso wie man

eine Raumtemperatur über einen geschlossenen Regelkreis überwachen und steuern kann,

so will man jetzt Geschäftsprozesse auch operativ überwachen und steuern. Die

Überwachung und Steuerung von operativen Systemen wird durch die (Realtime-)

Echtzeitprinzipien der Information Supply Chain ermöglicht. Das Konzept der Information

Supply Chain bedeutet wie bereits gesagt, die richtige Information zur richtigen Zeit am

richtigen Ort für den richtigen Zweck zur Verfügung zu haben. Im Performance Management-

Modell wird also Information als Bringschuld behandelt, i. e. eine eingehende oder

entstehende Information wird über die Publish- and Subscribe-Kommunikationsmethode

zeitnah an alle registrierten Informationsverbraucher propagiert. Im traditionellen Data

Warehouse Modell war dagegen Information eine Holschuld. Der Informationsverbraucher

war dafür verantwortlich, sich seine Information selbst abzuholen.

Page 37: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 37

Ein Beispiel gibt hier der Abgleich des Produktangebotes in einem Web-Shop mit

der Produktverfügbarkeit. Die Produktverfügbarkeit ist eine operative Metrik, die den

Bestand von Produkten an Hand der Verkaufs- und Lieferungs-Transaktionen misst.

Die Produktverfügbarkeit ist also mit den Transaktionen synchronisiert. Sinkt nun die

Produktverfügbarkeit unter einen vordefinierten Schwellenwert, so kann ein Alarm

ausgelöst werden. Ein solcher Alarm könnte eine Nachlieferung automatisch

auslösen. Ist eine Nachlieferung nicht möglich, dann könnte man das Produkt aus

dem Katalog des Web-Shops herausnehmen oder sperren, so dass Kunden das

Produkt nicht mehr bestellen können. Damit ist proaktiv sichergestellt, dass

Kundenaufträge nicht storniert werden müssen, Lieferkosten und Kundenfrust werden

vermieden. Zusätzlich könnte man auch noch automatisch einen Vermerk in den

Web-Shop stellen, wann das Produkt wieder lieferbar wäre.

Man sieht an diesem Beispiel, wie auf der operativen Ebene Prozesse proaktiv mit

Information überwacht und gesteuert werden können – alles „voll“ automatisch, also ohne

händische Eingriffe von Produktmanagern. Übrigens, was bedeutet „Echtzeit“ in diesem

Beispiel? Produktverfügbarkeit wird in der Praxis typischerweise zweimal am Tag gemessen.

Das ist ein Erfahrungswert, bei dem die Kosten des Messens in Einklang stehen mit den

Kosten des Risikos, das aufgrund des Ignorierens der Produktverfügbarkeit entsteht.

Zuerst tauchte operatives Performance Management bei Anbietern auf, die aus der

Prozessmodellierung und der Business Integration kamen, indem sie beschreibende und

graphische Elemente zufügten, um operative Leistungs-Metriken sichtbar zu machen. Mittels

Prozesskostenrechnung kann man solche Metriken dann auch in einen monetären Kontext

setzen. Technisch betrachtet bedeutet das, Zugang zu finanziellen Daten innerhalb eines

Data Warehouse zu haben.

Taktisches und strategisches Performance Management wurde zuerst von Anbietern

traditioneller Business Intelligence Werkzeugen entwickelt, indem sie sich vom Data

Warehouse-Modell und von Business Intelligence-Werkzeugen hin zu analytischen

Applikationen und einem geschlossenen Regelkreis-Modell bewegten. Die beiden

unterschiedlichen Ansätze, ein und dasselbe Problem zu lösen, bringt zwar eine gewisse

Verwirrung in den Markt, aber schon seit 2005 findet eine Konvergenz zwischen operativem

Performance Management einerseits und taktischem, strategischem Performance

Management andererseits statt.

3.2 Die Governance: Rollen, Verantwortlichkeiten und Rechte

Ein entscheidender Erfolgsfaktor für Performance Management und Analytik ist die

Governance. Governance im Allgemeinen bedeutet einen Ordnungsrahmen sowie eine

Steuerung und Überwachung einer Geschäftseinheit gemäß vereinbarten Prinzipien. Diese

Prinzipien können von außen beispielsweise durch den Gesetzgeber vorgegeben sein oder

auch interne Regeln und Management-Politiken darstellen. Governance lässt sich daher auf

unterschiedlichste Domänen anwenden. Bei Governance angewendet auf ein Unternehmen

als Ganzes spricht man von Corporate Governance und angewendet auf die IT im

Page 38: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 38

Unternehmen von IT Governance. Definieren wir daher zunächst Governance ganz

allgemein:

Definition: Governance bedeutet, ein regelkonformes Management und Verhalten

festzulegen und sicher zu stellen. In allen Aktionen unserer Unternehmensressourcen –

Menschen, Maschinen und Systemen – muss sichergestellt sein, dass die Management-

Policies und Leitlinien beachtet und umgesetzt werden.

Governance setzen wir in Performance Management und Analytik zur Beantwortung der

Frage ein: Wer soll wann wo welche Information zu welchem Zweck bekommen? Es geht

also um die Governance der Informationsbereitstellung, die wir jetzt der Einfachheit halber

als „BI-Governance“ bezeichnen. Wir definieren:

Definition: BI-Governance bezeichnet die Menge aller Prozesse und Strukturen zum

Managen und Schützen aller Unternehmens-Information, so dass die richtige Information

und die richtigen Werkzeuge unternehmensweit rechtzeitig zu Analysen und

Steuerungsaufgaben zur Verfügung stehen.

Dazu dient ein Prozessträgermodell, das Rollen, Verantwortungen, Rechte und

organisatorische Einheiten den Prozessen zuordnet. Das traditionelle Prozessmodell, das

sich in der Regel auf die Modellierung der Prozesslogik („die Abläufe“) beschränkte, wird

also nicht nur im Rahmen von Performance Management um die Modellierung der Metriken

erweitert, sondern auch im Sinne der Governance um das Prozessträgermodell.

In einem Prozessträgermodell wird bestimmt, wer die Beteiligten (Mitarbeiter, Partner,

Zulieferer, Kunden etc.) am Prozess sind und für welche Prozesse und Aktivitäten innerhalb

der Prozesse sie verantwortlich sind. So werden die Rollen aller an den Prozessen

Beteiligten sowie die zugehörigen organisatorischen Einheiten in das Prozessmodell mit

aufgenommen. Im metrisch-orientierten Management umfassen diese Prozessträgermodelle

auch Informationsprofile, die die Zuordnung der notwendigen Metriken zur Prozess- und

seiner Performanz-Steuerung beschreiben. Das bedeutet im Endeffekt ein Filtern von

Information. Die am Prozess Beteiligten teilen Daten, Information und Wissen innerhalb ihrer

prozessorientierten Kommunikation und Kollaboration. Daten und Information, die nicht in

diesen Kontext gehören, werden herausgefiltert. Damit entsteht auch das Security-Modell mit

seiner Rechtevergabe quasi als Beiprodukt dieser Top-down-Vorgehensweise. Das Teilen

und Filtern von Information wird durch die Informationsprofile erreicht, die basierend auf dem

Prozessträgermodell den Kontext von Kollaboration beschreiben. Das Informationsprofil stellt

so die Beziehung zwischen Rollen und den zugehörigen Metriken dar und definiert die

Struktur der entsprechenden Business Scorecard. (Abb. 7)

Die Business Scorecard dient der Visualisierung von Information gemäß einem

Informationsprofil. Sie wird in der Regel als Portlet in einem Portal eingebettet (Abb. 8) oder

im mobilen Internet als eine entsprechende App. Ein Portlet genauso wie eine solche App ist

ein Behälter für eine gewisse Menge von Information und/oder kollaborativen Werkzeugen.

Portale sind aus den Ideen früher Intranet- und Extranet-Lösungen entstanden als zentraler

Kontrollpunkt im Sinne einer Mensch-Maschine-Schnittstelle („P2S“, person to system). So

Page 39: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 39

wird ein Portal als ein System verstanden, das Teilen und Filtern von Daten / Information,

Funktionen / Funktionalität, Inhalten / Wissen und Prozessen erlaubt. Dieses Teilen und

Filtern steht natürlich wieder über das Informationsprofil in Zusammenhang mit der

funktionalen Rolle eines kollaborativen Teams innerhalb eines Geschäftsträgermodells. Ein

kollaboratives Team ist eine Gruppe von Menschen, die je nach Aufgabenstellung an das

Team aus den verschiedenen kollaborativen Geschäftsparteien zusammengesetzt wird. Auf

diese Weise unterstützen Portale funktions-, abteilungs- und unternehmensübergreifende

virtuelle Teams. In Sonderfällen kann auch ein einzelner Portalbenutzer als Team gelten. In

diesem Sinne unterstützen Portale die Governance in Performance Management und

Analytik.

PM und Analytik: die Governance

Org

an

isa

tion Compliance

Messwerte,

Kennzahlen

Menschen

MetrikenProzesseK

ult

ur

Unternehmensstrategie / Ziele

7

Governance

externeinterne

Policies Policies

PoliciesPolicies

© 2012 S.A.R.L. Martin

Abbildung 7: Um Unternehmensstrategien operativ unter der Maßgabe der Zielerreichung umzusetzen, müssen Menschen, Prozesse und Metriken miteinander verknüpft werden, um sicherzustellen, dass jeder im Unternehmen so handelt, wie er/sie handeln sollte. Genau das bedeutet „Compliance“, ein pro-aktives, regelkonformes Management und Verhalten. Die Regeln werden durch Policies entweder extern vorgegeben (beispielsweise durch den Gesetzgeber) oder ergeben sich intern aus der Organisation und Kultur des Unternehmens. Das fließt in der Governance zusammen. Die Governance regelt die Relationen zwischen Menschen, Prozessen und Metriken. Die Relationen zwischen Menschen und Prozessen beschreiben die Verantwortlichkeiten und Verantwortungen, die Rollen und Rechte. Die Relationen zwischen Prozessen und Metriken werden durch Messwerte und Kennzahlen beschrieben, die im Sinne des Performance Managements (PM) die Leistung der Prozesse überwachen sollen. Schließlich werden die Relationen zwischen Menschen und Metriken durch Informationsprofile beschrieben, die genau die Menge und Strukturen der Metriken beschreibt, die ein Mensch im Sinne seiner Prozessverantwortung im Rahmen der Governance zur proaktiven Prozesssteuerung braucht. Ein Informationsprofil beschreibt so die Struktur einer Scorecard, mit dessen Hilfe die zugeordneten Metriken visualisiert werden.

Ein Prozess-Portal (vgl. Abb.4) kann verstanden werden als Abstraktionsschicht, die Inhalte

und Dienste bündelt und aggregiert und den Zugang erleichtert. In diesem Sinne bestimmt

der Teamkontext mittels der Rollen und Informationsprofile die Kollaborationsbandweite,

Page 40: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 40

beispielsweise welche Daten / Information, Funktionen / Funktionalität, Inhalte / Wissen und

Prozesse an das kollaborative Team geliefert werden. Das umfasst auch die Business

Scorecard und die entsprechenden kollaborativen Werkzeugen. Jeder Portalbenutzer erhält

seine individuelle Umgebung, die sich weiter personalisieren lässt.

8

Abbildung 8: Beispiel eines BI-Portlets zum Einstieg in „seine“ Business Scorecard (fiktives Unternehmen, Screenshot erstellt mit Cubeware: Verschiedene Komponenten wie Chart, Tabelle mit Trendampeln, Top-1-Tabellen mit Bildampeln, Titeln, Logos und Hintergrund können frei platziert werden. Die Navigation erfolgt über Aktionsschaltflächen.) Zur Visualisierung wird heute vielfach wie in diesem Beispiel zum Stil einer Online-Zeitung gegriffen. Für einen solchen Ansatz hat die Quelle GmbH beispielsweise den BI Award 2008 gewonnen, der auf dem offiziellen Forum BI der Deutschen Messe AG auf der CeBIT 2008 vom BARC vergeben wurde (vgl. Kap. 4.4).

Ein solches „Personenportal“ kann man auch als Integrationstechnologie verstehen: Die

ultimative Integration wird erreicht durch menschliches Eingreifen, beispielsweise kann ein

Benutzer innerhalb seines Teamkontexts einen Transfer zwischen Inhalten und Diensten

durchführen. Kollaborative Werkzeuge in Prozess-Portalen sind sowohl synchrone als auch

asynchrone Werkzeuge, wie E-Mail, Blogs, Co-Browsing, Chat, Foren, Instant-Messaging,

Web-Konferenzen, Wikis usw. Hier lassen sich also insbesondere die Technologien aus den

sozialen Medien (social media) einbringen. Denn Social-Media-Technologien sind service-

orientiert, passen also bestens in die SOA-Infrastruktur von Portalen11 und unterstützen die

11 Die Rolle der Portale und ihre Bedeutung im BPM und SOA sind dargestellt in Martin und Nußdorfer (2006).

Page 41: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 41

Kollaboration von Menschen und Teams. Im mobilen Internet wird das wieder über

entsprechende Apps geleistet, wobei in der Regel eine App einem Mashing-up

verschiedener Portal-Services entspricht. Da heutzutage fast jeder in irgendeiner Form im

Privatleben soziale Medien und mobile Geräte nutzt, erwartet man auch, dass

Softwarelösungen im Unternehmen in gleicher, mindestens ähnlicher Weise funktionieren.

Das ist im Endeffekt ein wichtiger Erfolgsfaktor, um Begeisterung durch Technologie zu

schaffen und so im Endeffekt auch Akzeptanz der Governance.

Fazit: Ziel einer BI-Governance ist das Umsetzen der BI-Strategie in der Praxis – BI also im

Sinne von Performance Management und Analytik zu leben – und im Tagesgeschäft

erfolgreich ein- und umzusetzen.

3.3 Das Arbeiten mit Performance Management und Analytik

Jetzt ist die Frage der Nutzung von Information zu diskutieren. Welche Fähigkeiten und

Unterstützung braucht man, um erfolgreich, effektiv und effizient aus Information mittels

Performance Management und Analytik Wissen abzuleiten und Entscheidungen zu treffen?

Hier setzt sich langsam die Erkenntnis durch, dass man einen kombinierten Ansatz aus

organisatorischen Maßnahmen und technischen Möglichkeiten einsetzen muss, um mit

Performance Management und Analytik erfolgreich zu sein. Man setzt von diesen beiden

Seiten aus an. Früher und zum Teil immer noch heute stand und steht in vielen

Unternehmen die Technologie ganz vorne. BI-Lösungen wurden in der Regel von der IT

ausgesucht. Nur die technologischen Aspekte und Konzepte zählten. Der Mensch als Nutzer

von BI-Technologie wurde typischerweise vernachlässigt. Die Bedienbarkeit von

Werkzeugen war ja – so glaubte man – in Schulungen erlernbar. Das war aber ein Irrtum und

stets auch ein Grund, der viele BI-Projekte zum Scheitern brachte, denn traditionelle

Business Intelligence-Werkzeuge fanden trotz intensiver Schulungen bei weitem nicht immer

die notwendige Akzeptanz. Besondere Business-Analysten oder Poweruser bildeten sich

heraus, die BI-Aufgaben in den Abteilungen übernahmen. Information wurde zum Luxusgut,

das nicht allen Mitarbeitern zur Verfügung stand.

Um aus dieser Sackgasse herauszukommen, stellten konsequenterweise viele BI-Berater

und Unternehmen jetzt den organisatorischen Ansatz ganz nach vorne und die Technologie

hintenan. Das aber ist auch nicht der Weisheit letzter Schluss: Richtig ist, dass es ohne

organisatorische Maßnahmen nicht geht, aber umgekehrt greifen organisatorische

Maßnahmen nur dann, wenn die Mitarbeiter mitziehen. Dazu ist Akzeptanz notwendig, aber

eine Begeisterung der Mitarbeiter noch besser. Zur Begeisterung der Mitarbeiter kann und

sollte Technologie beitragen. Daher ist auch die Technologie ein kritischer Erfolgsfaktor von

Business Intelligence, besonders auch um den wahren Wert und Nutzen von Information zu

erfahren. Organisatorische und technische Aspekte von Performance Management und

Analytik müssen daher ausgewogen werden, auf beide kommt es an.

Page 42: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 42

Zur Begeisterung der Mitarbeiter gehört eine technologisch perfekte Unterstützung der

organisatorischen Maßnahmen. Im Zeitalter von sozialen Netzen, Smartphones und Tablet-

Rechnern muss die Bedienbarkeit aller Werkzeuge der Business Intelligence einfach

stimmen. Da die Informationsbedürfnisse im Rahmen der BI-Governance über die jeweilige

Rolle der Mitarbeiter bestimmt wird, müssen hier Organisation und Technologie Hand in

Hand gehen. Die Werkzeuge müssen also nicht nur die notwendige Ergonomie bieten,

sondern auch den Rollen entsprechend eingerichtet werden können (Abb. 9). So wird eine

BI-Governance nicht als einengendes Regelwerk empfunden, sondern von allen Mitarbeitern

auch gelebt. Mit einem einfachen, intuitiven und visuellen Bedienen der Werkzeuge

entsprechend seiner Rolle schwinden Berührungsängste, werden Barrieren abgebaut und

die notwendige Begeisterung aufgebaut. Das schafft Motivation: So erreicht man das Ziel

von Governance, ein regelkonformes Management und Verhalten aller Mitarbeiter in

Business Intelligence.

Rollen in PM und Analytik

IT/DBA

Entwicklung,

Integration

Controller,

PlanerBusiness-

Analysten

Manager, Konsumenten,

Geschäftsleitung

Informatiker,

Statistiker

SDK

rollenbezogene

Klienten

analytischer

Applikations-Server

Big Data Operative

Daten

Data

WarehouseFiles, XML,

SpreadsheetsEvents &

Services

Governance

Fach-

experten

© 2012 S.A.R.L. Martin9

Abbildung 9: Voraussetzung für den Erfolg mit Performance Management und Analytik ist eine Kombination von organisatorischen Maßnahmen und state-of-the-art Technologie und Architektur. Bei der Technologie sind entscheidend eine intuitive Bedienbarkeit der Werkzeuge, Automatisierung der Informationsbereitstellung und Analyse, rollenbezogene Werkzeuge im Sinne einer Governance und schließlich eine ausgereifte Datenintegration und Konnektivität. Die Architektur sollte service-orientiert sein, damit die Konnektivität eine leichte und flexible Integrierbarkeit bietet und so Agilität schafft. (DBA = Datenbank-Administrator; SDK = Software Development Kit; diese dienen der Erweiterbar- und Anpassbarkeit der Business Intelligence Plattform.)

Eine Akzeptanz von BI-Werkzeugen beruht nicht nur auf der leichten, intuitiven

Bedienbarkeit der Werkzeuge, sondern auch auf den Möglichkeiten der Automation von

Arbeitsschritten und analytischen Prozessen. Die Schwachstellen in der heutigen Praxis mit

Business Intelligence wie manuelle Informationsbereitstellung und manuelle Analyse müssen

Page 43: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 43

durch zuverlässige und sichere Automation abgelöst werden. Hier kommt es jetzt auf die

Qualität der Werkzeuge im Sinne ihrer Architektur und Prozessorientierung an.

Eine geeignete Technologie schafft neben guter Bedienbarkeit und Automation von

Arbeitsschritten auch eine Autonomie von der IT: Man kann im Rahmen der Business

Intelligence-Governance aufgrund der Ergonomie der Werkzeuge viele Aufgaben in der

Fachabteilung selbständig zu lösen. Hier spricht man heute von Selbstbedienungs-BI (self-

service BI, vgl. Kap. 5.2). Damit wird Business Intelligence zu einer Selbstverständlichkeit im

Tagesgeschäft. So steigt die Effizienz der Mitarbeiter. Sie können sich wieder voll auf ihre

fachlichen Tätigkeiten konzentrieren, da die Technologie sie geeignet unterstützt und nicht

mehr Selbstzweck ist. Umgekehrt wird durch die höhere Autonomie der Fachabteilung in

Sachen Business Intelligence auch die IT von Routineaufgaben entlastet. Die Governance

gibt hier eine bessere und klar definierte Arbeitsteilung zwischen IT und Fachabteilung vor,

die sich aufgrund der nutzerfreundlichen Eigenschaften der Werkzeuge auch so umsetzen

lassen. So entspannt sich in vielen Fällen das Verhältnis zwischen IT und Fachabteilungen.

3.4 Das Business Intelligence-Kompetenzzentrum

Eine BI-Governance besteht wie jede Governance aus vier Elementen: einer

Organisationsstruktur, den BI-Governance-Prozessen, den entsprechenden Management-

Policies und einer Technologieplattform. BI-Governance-Prozesse und Policies dienen der

Steuerung und Überwachung des Business Intelligence-Programms im Unternehmen. Diese

Prozesse und Policies sind Prozesse zur Strategie, zum Design, zur Implementierung und

zum Betrieb von Business Intelligence im Unternehmen. Dazu kommt noch ein

kontinuierlicher Verbesserungsprozess, der sicherstellen soll, dass Erfahrungen und

Lerneffekte kontinuierlich zur Verbesserung des BI-Programms beitragen. Dieses Modell der

BI Governance-Prozesse entspricht dem ITIL V3-Modell und nutzt so die Best Practices, die

man im Service-Management gelernt hat.

Ein BI-Kompetenzzentrum ist eine in vielen Unternehmen genutzte Organisationsstruktur

von BI-Governance. Es ist eine funktionsübergreifende Einheit im Unternehmen, die als

interdisziplinäres Team verantwortlich ist, den Einsatz von BI im Unternehmen zu fördern. Es

besteht aus einem Leitungsgremium, dem ein BI-Sponsor vorsitzt, dem eigentlichen

Kompetenzzentrum und den Business-Analysten und Data Stewards. Der Sponsor sollte aus

der Geschäftsführung oder dem Vorstand kommen, damit die BI-Strategie und die Policies

der BI-Governance im gesamten Unternehmen auch durchgesetzt werden können. Die

Business-Analysten und Data Stewards sitzen in den Fachbereichen und sind dort über die

Information Governance eingebunden. Hier trifft sich die BI-Governance mit der Information

Governance. Auf die Aufgaben einer Information Governance und ihre Beziehung zur BI-

Governance gehen wir im Kapitel 6.7 im Einzelnen ein.

Das BI-Kompetenzzentrum zentralisiert das Management der BI-Strategie und der BI-

Methoden, -Standards, -Regeln und -Technologien (Abb. 10). Sein Leitsatz ist: Das BI-

Kompetenzzentrum plant, unterstützt und koordiniert BI-Projekte und sorgt für den

effizienten Einsatz aller Ressourcen und der Technologie. Seine Aufgaben sind:

Page 44: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 44

Steuerung der Anwendungslandschaft für Performance Management und Analytik,

Standardisierung von Methoden und Werkzeugen,

Koordination von Fachabteilungen und IT in Sachen Performance Management und Analytik,

Erkennen und kommunizieren von Best Practices von BI-Szenarien,

Methodische und fachliche Unterstützung in allen Fragestellungen und aller Projekte in Performance Management und Analytik,

Querschnittsaufgaben von internem Marketing über Schulungen bis hin zum Change Management,

Bereitstellung der Daten mittels Information Management in der richtigen Datenqualität. Das kann allerdings auch durch ein eigenes Information Management Kompetenzzentrum geleistet werden (vgl. Kap. 6.7).

Typischerweise werden die traditionellen BI-Rollen der Business-Analysten und Poweruser

jetzt organisatorisch dem BI-Kompetenzzentrum zugeordnet. Dabei wandeln sich die Rollen

entsprechend. Aufgrund der deutlich besseren Softwareergonomie von Analytik- und

Performance Management-Werkzeugen werden die Business-Analysten weniger Zeit zur

Informationsbeschaffung auf Zuruf verbringen müssen. Das gibt ihnen mehr Zeit für

interaktive Analyse („Data Discovery“), was zu einer höheren Wertschöpfung im

Unternehmen führt. Als weitere Aufgabe kommt dazu, die fachlichen und technischen

Elemente von Analytik und Performance Management (vgl. Kap.4.1 und 4.2) zu managen.

Das bedeutet insbesondere das Identifizieren und Kommunizieren von Best Practices für

analytische Szenarios gemeinsam mit den Informationskonsumenten. Wenn ein

Informationskonsument mit einer neuen, noch nicht dagewesenen Herausforderung

konfrontiert wird, wie eine Analyse aufgesetzt oder weiterverwendet oder wie die richtige

Information dazu gefunden werden kann, wird gemeinsam mit den Business-Analysten des

BI-Kompetenzzentrums ein neues Szenario kollaborativ entwickelt. Solche Lösungen werden

als Szenarien im BI-Portfolio zur Wiederverwendung eingestellt und kommuniziert. Das BI-

Kompetenzzentrum lernt so beständig und verbessert stetig sein Lösungsportfolio. Das

entspricht einem kontinuierlichen Verbesserungsprozess.

Big Data-Analytik erfordert darüber hinaus neue Skills und Rollen, die sich organisatorisch

gesehen am besten im BI-Kompetenzzentrum ansiedeln lassen. In einigen Unternehmen wie

Amazon, eBay, Facebook, Google, Twitter u.a., die sich schon einige Zeit mit Big Data

beschäftigen, haben sich Rollen wie Data Scientists gebildet. Das sind Mitarbeiter mit

folgendem Profil:

Technische Expertise: Tiefe Kenntnisse in einer Natur- oder Ingenieurs-Wissenschaft

sind notwendig.

Problembewusstsein: die Fähigkeit, ein Problem in testbare Hypothesen aufzubrechen.

Kommunikation: die Fähigkeit, komplexe Dinge per Anekdoten durch einfach

verständliche und gut kommunizierbare Sachverhalte darzustellen.

Kreativität: die Fähigkeit, Probleme mit anderen Augen zu sehen und anzugehen

(„thinking out oft he box“).

Page 45: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 45

“Data scientists turn big data into big value, delivering products that delight users, and

insight that informs business decisions. Strong analytical skills are given: above all a data

scientist needs to be able to derive robust conclusions from data.” Daniel Tunkelang,

Principal Data Scientist, LinkedIn

Im Endeffekt wird so Datenmanagement wieder zur eigentlichen und Hauptaufgabe der IT12,

während das Beherrschen der Prozesse und der Analytik die Hauptaufgabe der

Fachbereiche ist.

Das Ergebnis der Einrichtung eines BI-Kompetenzzentrums wurde in vielen BI-Programmen

aufgezeigt: So lassen sich BI-Vorhaben schneller voranbringen und Überschneidungen

vermeiden. Beides senkt die Kosten. Als ständige Einrichtung kann das BI-

Kompetenzzentrum sowohl innerhalb der IT-Organisation als auch in einer operativen

Fachabteilung wie dem Finanzressort angesiedelt sein. Für BI-Kompetenzzentren gilt

grundsätzlich: Sie sind unternehmensspezifisch und sollten auf jeden Fall an die Kultur und

Business-Ethik des Unternehmens angepasst sein. Darüber hinaus gibt es aber eine Reihe

von Erfolgsfaktoren, die man unbedingt beachten sollte.

Die Überzeugung aller Beteiligten und Stakeholder vom Wert eines BI-

Kompetenzzentrums ist entscheidend. Hier ist vor allem auch die Rolle des Sponsors

gefragt, damit das BI-Kompetenzzentrum auch nachhaltig gegen Widerstände auf allen

Unternehmensebenen implementiert werden kann. Eine entsprechend deutlich

kommunizierte Position des Vorstands ist erfolgsentscheidend.

Ein BI-Kompetenzzentrum sollte ein Mission-Statement haben, das die Ziele und

Kompetenzen klar definiert. Dazu gehört auch die Einbindung in die Prozesslandkarte

des Unternehmens. So werden mögliche Widerstände und Gerangel um Kompetenzen

rechtzeitig geregelt und vermieden.

Die Einführung eines BI-Kompetenzzentrums sollte nicht in einem Big-Bang erfolgen,

sondern schrittweise. In den ersten Schritten sollten die Aufgabenfelder angegangen

werden, die den höchsten erkennbaren Mehrwert haben und bei denen sich Erfolge

möglichst rasch und zügig einstellen und kommunizieren lassen.

Ein BI-Kompetenzzentrum ist ein Dienstleister. Das Portfolio der Dienstleistungen ist

sauber zu definieren und zu beschreiben, damit allen im Unternehmen klar ist, wie sie

vom BI-Kompetenzzentrum unterstützt werden können, wie sich dadurch ihre eigene

Arbeit und ihr eigener Aufgabenbereich ändert und welche Schnittstellen es gibt.

Ein kontinuierlicher Verbesserungsprozess (der ja zu jeder Governance gehört) muss

etabliert werden. Dazu gehört insbesondere das Messen der Leistung des BI-

Kompetenzzentrums mit Metriken wie durchschnittliche Umsetzungsdauer von

Anforderungen, Anzahl gelöster Fälle, Steigerung des Reifegrades der BI im

Unternehmen etc. und natürlich auch das Einhalten von vereinbarten Service Level

Agreements.

12

Das unterstreichen einige neuere Marktstudien, siehe den Beitrag bei InformationAge http://www.information-

age.com/channels/information-management/features/1687078/its-focus-shifts-to-data-management.thtml

Page 46: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 46

Das Team im BI-Kompetenzzentrum sollte interdisziplinär sein. Die Kompetenzen

umfassen eben IT, fachspezifisches und unternehmensspezifisches Know How. Nur so

kann eine erfolgreiche Kommunikation des BI-Kompetenzzentrums mit den

Fachabteilungen und der IT gewährleistet werden. Das bedeutet auch, dass eine

gewisse Zahl von altgedienten Experten aus den Fachbereichen in einem BI-

Kompetenzzentrum mit innovativem technologischen und Prozess-Know How integriert

und kombiniert werden muss.

10 © 2012 S.A.R.L. Martin

Managen eines BI-Kompetenzzentrums

Standards

virtuelles CC

zentrales CC

Best Practices

Kultur von “Kompetenz-Zentren”

Du

rch

setz

un

gs

kra

ft

Der Leiter des BI-Kompetenzzentrums

Koordiniert Ressourcen & vermeidet Divergenzen aggregiert & koordiniert Projekte

setzt die Meilensteine

koordiniert das Budget

managt Abhängigkeiten

priorisiert optimiert den Betrieb von BI

managt Performanz & Wert

Konstruiert Metriken Kommuniziert Best Practices Definiert Methodologie und

Standards Optimiert Nutzerkompetenz Wählt die Technologie Garantiert die

Unternehmenssicht Berichtet an den BI-Sponsor

BI-Kompetenzzentrum

Pro

jekt 1

Pro

jekt n

Lenkungsausschuß

Querschnittsaufgaben

Programm

DirektorProjekt-Leiter Methodologist

...Internes Marketing & Kommunikation

Abbildung 10: Ein BI-Kompetenzzentrum kann unterschiedlich organisiert werden und so auch mit unterschiedlicher Durchsetzungskraft und Befugnissen ausgestattet sein. Die Darstellung unten zeigt die Architektur, oben die gelebte Kultur. Man kann mit dem einfachen Sammeln und Vermarkten von Best Practices beginnen, dann in einem Folgeschritt Standards aufstellen und kommunizieren und schließlich entweder virtuell oder zentral die proaktive Nutzung der Standards fördern und den BI-Projekten zentrale Dienste zur Unterstützung anbieten.

Page 47: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 47

4 Performance Management – Methoden und Technologien

Performance Management arbeitet anders als traditionelle Business Intelligence. Da standen

Werkzeuge im Mittelpunkt wie OLAP, Spreadsheets, Berichte, Adhoc-Abfragen, statistische

und Data Mining Werkzeuge. Performance Management kommt mit neuen fachlichen und

technischen Elementen. Ziel ist, dass jeder an Prozessen Beteiligte aus Analytik Nutzen

ziehen kann ohne zum Analytik-Spezialisten zu werden. Das beschränkt sich nicht nur auf

die Mitarbeiter des Unternehmens, sondern umfasst auch die Lieferanten, Partner, Händler,

sogar die Kunden. Analytik muss in diesem Sinne für jedermann konsumierbar sein.

4.1 Die fachlichen Elemente von Performance Management

Metrik und Key Performance-Metrik – Wie wir schon gesehen haben, beschreiben

Metriken, wie die Leistung eines Prozesses zu messen und zu managen ist und / oder wie

ein Prozess zu überwachen und zu steuern ist. Sie werden durch Metrisierung der

Unternehmens- und Prozess-Ziele abgeleitet. Metriken werden wie Sensoren entlang der

Prozessstrecke eingesetzt, um ein proaktives Erkennen von Problemen (also beispielsweise

das absehbare Nichterreichen des geplanten Endergebnisses) zu ermöglichen, so dass man

rechtzeitig gegensteuern kann. (vgl. das Beispiel: Überwachen und Steuern eines

Vertriebsprozesses auf S.34)

Eine Metrik besteht aus Kennzahlen und ihren Skalen, um das Auskommen der Kennzahl zu

interpretieren, zu bewerten und Entscheidungen zu treffen. Bei der Modellierung eines

Prozesses sollen ja auch gleichzeitig die Metriken modelliert werden. Dabei wird auch die

Skala festgelegt. In der Regel wird eine Skala aus der Planung abgeleitet, weil dort die

Prozessziele festgelegt werden. Eine Skala könnte aber auch durch ein Service Level

Agreement vorgegeben oder durch Management-Politiken bestimmt sein.

Eine Key Performance-Metrik (KPM) ist eine zusammengesetzte, aggregierte Metrik.

Liefertreue ist beispielsweise eine Key Performance-Metrik, die sich aus einer Metrik wie

Lieferzeit aggregiert über alle Kunden und über einen vordefinierten Zeitraum

zusammensetzen könnte. Einem Mitarbeiter werden typischerweise im Rahmen seiner

Rollen und Verantwortlichkeiten viele Metriken zugeordnet sein, aber nur wenige KPM. In der

Regel werden die KPM mit den persönlichen Zielen der Mitarbeiter verbunden und können

so auch einen gehaltsrelevanten Einfluss haben.

Die Interpretation des Auskommens einer Metrik und das Treffen der richtigen

Entscheidungen zum Einleiten von Maßnahmen werden von den Ressourcen vorgenommen,

die im Sinne der Informationsprofile der BI-Governance verantwortlich sind. Das können also

Menschen oder Systeme sein. Im Beispiel der Liefertreue als KPM ist ein

Entscheidungsträger, also ein Mensch verantwortlich. Bei einem solchen menschlichen

Eingreifen werden die Skalen üblicherweise visualisiert durch Verkehrsampeln, Tachometer

oder andere geeignete Symbole. Grüne, gelbe oder rote Anzeigen beschleunigen das

Page 48: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 48

Erkennen von Abweichungen und Ausnahmen und erleichtern so die Interpretation des

Auskommens der KPM oder Metriken. Gut bewährt hat sich auch eine zusätzliche Anzeige

des Trends einer Metrik. So kann eine rot anzeigende Ampel dann einen grünen Trend

haben, wenn der aktuelle Wert der Metrik zwar immer noch rot ist, aber doch eine

Verbesserung gegenüber dem letzten Status zeigt. Im Web-Shop-Beispiel (Steuern des

Produktkatalogs per Produktverfügbarkeit; S.36) wird die Interpretation automatisch durch

eine Entscheidungsmaschine, also ein System vorgenommen – eine Visualisierung ist hier

nicht unbedingt notwendig.

11

Abbildung 11: Beispiel einer Strategy Map eines Balanced Scorecard-Modells realisiert mit Actuate/Performancesoft. In der hier gezeigten Strategy Map werden die Eingangs- und Prozess-Metriken in einer Ursache-Wirkungsbeziehung zu ihren entsprechenden Ausgangsmetriken dargestellt. Diese visuelle Darstellung der Strategie erlaubt der Organisation ihre Effektivität zu bewerten, in dem man die KPMs jedes Unternehmensziels verfolgt.

Business Scorecard – Die Business Scorecard hatten wir bereits in Kap. 3.2 als

Visualisierung eines Informationsprofils kennengelernt. Sie ist eine konsistente, umfassende

Gruppe von Metriken gemäß einer Managementpolitik, um die Performanz (Leistung) einer

Gruppe von Prozessen, einer Sparte oder des gesamten Unternehmens zu überwachen und

zu steuern. Konsistenz bedeutet insbesondere, dass Metriken sich nicht widersprechen und

so Konflikte zwischen Rollen und kollaborativen Teams schaffen, die in unterschiedlichen

Kontexten arbeiten. Der Begriff wurde ursprünglich für strategisches Performance

Page 49: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 49

Management entwickelt, er lässt sich aber problemlos auf die anderen zeitlichen Ebenen

übertragen. Bekannte Modelle von Scorecards sind die schon genannte Balanced Scorecard

von Kaplan und Norton (www.bscol.com), das Scorecard-Modell von Baldridge

(www.quality.nist.gov) und das Six Sigma Modell (www.isixsigma.com). In der Praxis zeigt

sich aber, dass die wenigsten Unternehmen eines dieser Modelle eins-zu-eins umsetzen,

sondern meist basierend auf solchen Modellen ein unternehmensspezifisches Scorecard-

Modell entwickeln und nutzen. Neu im Vergleich zu traditionellen Business Scorecards ist

jetzt die Verbindung der Scorecard-Metriken mit den Geschäftsprozessen im Rahmen der BI-

Governance (vgl. Kap. 3.2).

Strategy Maps – Strategy Maps (Abb. 11) zeigen, wie eine Strategie ausgewogen aufgebaut

wird und wie der unternehmerische Erfolg über Ursache-Wirkungsketten entsteht. Die

vorhandenen Kennzahlensysteme der traditionellen BI waren bisher zu stark auf die Daten

der Finanzbuchhaltung abgestimmt und beachteten zu wenig die Investitionen in Mitarbeiter,

Informatik, Kundenbeziehungen bzw. Netzwerke mit Lieferanten und Partnern. Das auf den

klassischen Kennzahlen aufbauende Planungs- und Reportingsystem wie die Bilanz-G+V

und Cash Flow Planung stellte daher keine Basis für die Messung und Steuerung dieser

Werte dar. Ohne ein wirkliches Performance Management können diese Werte nicht sinnvoll

geplant und gesteuert werden. Dies führt zu einem radikalen Umdenken und zum Steuern

über Ursache-Wirkungsketten. Die innerhalb der Strategy Map formulierte

Unternehmensstrategie legt die Ziele für die Wertschöpfungsprozesse fest. Die Business

Scorecard übersetzt diese in konkrete Vorgaben und Messgrößen. Daraus ergeben sich

bestimmte strategische Initiativen oder Aktionsprogramme. Diese wiederum sind

entscheidend für das Erreichen der Vorgaben. Natürlich dürfen Strategy Maps und Business

Scorecards nicht statisch sein. Ändern sich die Rahmenbedingungen, sind auch die

Prioritäten der Unternehmensstrategie anzupassen.

Geschäftsregeln – Geschäftsregeln repräsentieren die prozessübergreifende

Entscheidungslogik im Sinne des Fachwissens und der Managementpolitiken (vgl. Definition

eines Geschäftsprozesses auf S. 32). Die Modellierung der Regeln geschieht entweder per

Top-down-Ansatz à la Expertensystem oder prädiktive Modelle werden per Bottom-up-

Ansatz generiert (beispielsweise ein Kunden-Verhaltensmodell, das in einer Data Mining

basierten Kunden-Verhaltensmodellierung erstellt wird). Eine Modellierung der Regeln, die

den Top-down- mit dem Bottom-up-Ansatz kombiniert, ist hier state-of-the-art.

Geschäftsregeln müssen zentral und von den Geschäftsprozessen unabhängig in einem

Regel-Repository verwaltet werden, da eine Regel in mehreren Prozessen genutzt werden

kann und ein Prozess natürlich mehrere Regel nutzen wird. Baut man Geschäftsregeln fest

in Prozesse ein, so landet man in kurzer Zeit in einem Wartungs- und Pflegechaos, da dann

die Konsistenz der Regeln gefährdet ist. Außerdem behindert man so eine

Wiederverwendbarkeit von Regeln.

Ereignis/Alarm – Ereignis-Orientierung ermöglicht Alarm-Services. Ein Ereignis ist

gekennzeichnet durch das Eintreffen von prozess-externer Information, die einen

Ausnahmezustand kennzeichnet.

Beispiel: Im Marketing-Prozess „Kampagnenmanagement“ stellt eine Kampagne

eines Mitbewerbers, die in unsere Kampagne eingreift, ein Ereignis dar, das es zu

erkennen gilt und dessen Wirkung man gegensteuern sollte. Ein solches Ereignis

Page 50: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 50

wirkt operativ. Es gibt aber auch strategische Ereignisse wie der Eintritt eines neuen

Mitbewerbers in den Markt. Hier sind unter Umständen alle Vertriebs- und

Marketingprozesse auf den Prüfstand zu stellen und gegebenenfalls neu zu

modellieren. Jetzt kommt es auf die Geschwindigkeit an, mit der die neuen Prozesse

implementiert werden können, sonst verliert man leicht Marktanteile. Das ist einer der

Gründe, warum man von der Applikationsorientierung zu SOA-basierten

Geschäftsprozessen geht.

Tritt ein Ereignis ein, so muss in einem ersten Schritt das Ereignis erkannt und identifiziert

werden. In einem zweiten Schritt sollte ein Alarm ausgelöst werden. Das bedeutet eine

automatische Versendung einer Nachricht an die Verantwortlichen, die die Aufgabe der

Prozesssteuerung haben. Das kann entweder ein Mensch oder auch eine Maschine

(System) sein. Hier helfen die schon genannten BAM-Werkzeuge. Bei operativen

Ereignissen wird hier das Modell der Echtzeit wichtig: Die gesamte Information, die

notwendig ist, um ein Ereignis zu verarbeiten, sollte im Augenblick des Eintreffens des

Ereignisses zur Verfügung stehen, um auf Basis dieses Wissens die richtige Entscheidung

zu treffen. Echtzeit ist hier wieder als Synchronisierung der Informationsbereitstellung mit der

Geschwindigkeit des Prozesses zu verstehen. Wenn der Abstand zwischen Ereignis und

Reaktion auf das Ereignis immer kleiner wird, wird man zur Automation der Reaktion

gezwungen sein. Solche „Reaktionsautomaten“ sind beispielsweise die

Vorschlagsmaschinen auf manchen Webseiten. Stand der heutigen Technologie sind

Regelmaschinen oder Regel-Services zur Automatisierung von Entscheidungen (Mehr dazu

finden Sie in Kap. 4.3 und 7.1).

Informationszugriff (BI-Widgets). BI-Widgets erleichtern den Zugriff auf Information und

analytische Inhalte, indem sie fristgerechte, personalisierte und intelligente Informationen für

jedermann liefern. Über eine einfache Drag-and-Drop-Oberfläche der Software können

Endanwender direkt vom eigenen Desktop oder mobilen Gerät aus problemlos auf wichtige

BI-Inhalte zugreifen, sie organisieren und anpassen. Das ermöglicht einen vereinfachten

Zugang zur Analytik, erhöht die Produktivität für Endanwender und verringert die Kosten im

IT-Betrieb durch diese Art der Selbstbedienung.

Informationsverteilung (Broadcasting): Darunter versteht man Services, die

personalisierte Botschaften per SMS, E-Mail, Fax, Twitter, Pager, Mobil-Services oder auf

sonstigem Weg auch an Millionen von Empfängern senden. Als Technologie haben hier RSS

(„real simple syndication“) Feeds im Zuge der Ausbreitung von Web 2.0-Konzepten eine

führende Rolle eingenommen. Durch Ausnahmesituationen und sich wiederholende

Ablaufpläne als Auslöser können Ereignisse automatisch erstellt und an Prozesse und

Menschen im Unternehmen oder an externe Gruppen übermittelt werden. Der Inhalt kann

individuell auf den Empfänger zugeschnitten werden, womit eine Informationsüberfrachtung

vermieden wird und die Sicherheitsanforderungen erfüllt werden.

4.2 Von Business Intelligence zu Performance Management und Analytik

Im Zuge der Prozess-Orientierung der Unternehmen findet die Evolution von BI zu

Performance Management und Analytik statt. Die fachlichen Elemente hierzu erfordern

Page 51: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 51

zusätzliche BI-Werkzeuge und Services, eine neue Architektur für den Einsatz von BI-

Werkzeugen und Services in Performance Management und Analytik (Abb. 12) sowie ein

neues Denken. Wir machen bei den BI-Werkzeugen und ihrer Nutzung den nächsten Schritt,

von Business Intelligence zu Performance Management und Analytik. Die substanziellen

Unterschiede zu BI sind:

© 2012 S.A.R.L. Martin12

Metrisierte Ziele

Prozesse & Metriken

PM und Analytik- Referenzarchitektur

Anreichern durch

Analytik

Geschäftsstrategie

interaktive

Analytik

Pe

rfo

rma

nce

Ma

nag

em

en

t

Datenintegrationsplattform

analytische Prozesse

Kollaboration

adaptiv dynamisch

analytische

Services Bu

sin

es

s-V

oka

bu

lar

(Me

ta D

ate

n)

Abbildung 12: Referenzarchitektur für Performance Management und Analytik. Sie ermöglicht ein Vergleichen der Produktangebote der verschiedenen Anbieter. Herzstück ist die Kopplung der Modellierung von Prozessen, Metriken und Governance sowie die Top-down-Metrik-Implementierung mittels analytischer Services und Bottom-up mittels interaktiver Analyse („Data Discovery“). Die Basis für Performance Management ist eine Datenintegrationsplattform, die parallelen und simultanen Zugriff auf externe und interne operative und dispositive Daten per Services im Rahmen einer SOA erlaubt. So wird das traditionelle Data Warehouse zu einer Komponente der Datenintegrationsplattform. Der „single point of truth“ befindet sich heute im Business-Vokabular, nicht mehr im Data Warehouse (vgl. Kap. 6).

Performance Management und Analytik sind jetzt Prozess-getrieben, nicht mehr

Daten-getrieben. Analytik verbindet die Unternehmensstrategie mit Prozessen und mit

Menschen gemäß ihrer Rolle in kollaborativen Teams: Nutzen und Wert von Information

werden so für alle Mitarbeiter, ja sogar für Kunden, Partner und Lieferanten im

Wertschöpfungsnetz eines Unternehmens erzielbar. Analytik zielt jetzt voll auf die

Fachbereiche und deutlich weniger auf die IT.

Analytik ist prädiktiv. Analytik ist vorwärts schauend. Es gilt Probleme zu identifizieren und

zu lösen, bevor sie auftreten. Damit ist Analytik eine Voraussetzung für Risiko-Management.

Es geht um Antworten auf unvorhergesehene Ereignisse, um neue Einsichten und über das

Risiko-Management hinaus auch um das Aufspüren neuer Gelegenheiten.

Page 52: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 52

Eingebettete Analytik – von Strategie zum Operativen. Eine SOA macht es möglich: Die

Anreicherung operativer Prozesse durch eingebettete Analytik ermöglicht ein

Synchronisieren von Informationsbereitstellung mit der Geschwindigkeit der Prozesse, so

dass Entscheidungen und Maßnahmen rechtzeitig getroffen werden können. Mittels

eingebetteter Analytik werden Prozesse intelligent und ereignis-orientiert.

Performance Management und Analytik brauchen ein Information Management.

Traditionelle Business Intelligence forderte ein Data Warehouse als die einzige Quelle von

zuverlässiger, qualitativ hoch stehender Information. Damit konnte Business Intelligence

nicht im operativen Umfeld eingesetzt werden und operierte nur im isolierten Raum

taktischer und strategischer Analysen. Die potenzielle Wertschöpfung durch

Echtzeitanalysen wurde außen vorgelassen. Analytik in einer SOA hat parallelen Zugriff auf

operative und dispositive Daten und Information. Dazu braucht man Informations-Services

(Abb. 13), die von einer Datenintegrationsplattform (man sagt auch: Enterprise Service Data

Bus) bereitgestellt werden. Per Mashing-up werden simultan Daten aus dem Data

Warehouse und operativen Systemen als Informations-Services zusammengesetzt und

bereitgestellt. In einer SOA wird das Data Warehouse jetzt zu einem Lieferanten von

Backend-Services (vgl. Abb. 4) und liefert insbesondere historische Daten. Mehr zum Thema

Information Management finden Sie in Kap. 6.

Interaktive Analytik – analytische Prozesse und Kollaboration. Interaktive Analytik (auch

“Datenexploration” oder „Data Discovery“ genannt) ist ein ad hoc, dynamischer, einfach zu

handhabender, analytischer, kollaborativer Prozess mit dem Ziel, neue Analytik wie Profile,

prädiktive Modelle, Scores, Segmentierungen etc. zu entwickeln zum besseren Verstehen

von Märkten, Kunden, Risiken etc. In diesem Sinne ist interaktive Analytik eine Bottom-up-

Entwicklungsumgebung für Metriken und prädiktive Modelle. Mehr zu interaktiver Analytik

finden Sie im Kapitel 5.2 zu Data Discovery. ein typisches Beispiel für interaktive Analyse ist

die Ableitung von prädiktiven Modellen, die man per Data Mining, Text Mining, Textanalyse

oder traditionellen statistischen Verfahren aus den Daten heraus findet und dann mittels

einer Regelmaschine zur Steuerung operativer Prozesse nutzt.

Beispiel: Betrachten wir den Prozess der Kreditvergabe. Die Standardregeln, um

eine Kundensituation auf Kreditwürdigkeit zu prüfen, lassen sich relativ leicht durch

einen Finanzberater aufstellen. Mit Hilfe von Data Mining könnte man nun zusätzlich

eine Segmentierung des Kundenbestandes ermitteln, die das Risiko des Kunden

modelliert, den Kredit nicht zurückzahlen zu können. Eine Kombination von

Expertenregeln und der generierten Segmentierung kann dann das Regelwerk zur

Kreditvergabe im Workflow eines automatisierten Kreditvergabeprozesses darstellen,

der dem Kunden in Selbstbedienung erlaubt, seinen eigenen Kreditantrag zu

bearbeiten.

Weitere typische Beispiele findet man im Cross-/Up-Selling und in der

Kundenbestandssicherung. Wichtig ist, dass besondere analytische Kenntnisse oder

Kenntnisse von analytischen Werkzeugen zur Anwendung der prädiktiven Modelle nicht

notwendig sind. Hier gilt: Analytik wird so einsetzbar nicht nur für Tausende, sondern im

Endeffekt für Millionen und mehr Informationskonsumenten.

Analytik macht so den Schritt zu intelligenten Prozessen: Operative Prozesse werden mittels

eingebetteter Analytik mit Intelligenz angereichert und auch kurzfristig überwacht und

Page 53: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 53

gesteuert. Die Einbettung geschieht per Service-Orientierung. Aus BI-Werkzeugen werden

analytische Services. Diese analytischen Services werden genutzt, um die Komponenten

von Performance Management im Rahmen einer SOA zu implementieren (vgl. Abb. 13).

4.3 Performance Management und Analytik in einer SOA

© 2012 S.A.R.L. Martin13

Service-Modelle einer SOA

Data Integration

Plattform

Analytische

Services

Kollaborative

Services

Operative

Services

Informations-

Services

Drittanbieter-

Services (SaaS)

Zugriffs-

Services

Applikations-

Services

En

twic

klu

ng

s-

Serv

ices

IT M

an

ag

em

en

t-

Serv

ices

Infrastruktur-Services

Enterprise Service & Service Data Bus

Geschäftsprozess

Rule-

Services

Operationale

Daten

Data

Warehouse

Externe

DatenUnstrukturierte

DatenBig Data

Portal

Repository

Mobile, Apps

Abbildung 13: Geschäftsprozesse orchestrieren und choreographieren Services gemäß dem SOA-Modell. Die grundlegende Idee der Service-Orientierung ist die Trennung von Prozess-Logik und Geschäfts- und Entscheidungslogik. Es gibt fünf Service-Modelle von fachlichen Services: Informations- und Daten-Services, analytische Services, Rule-Services, operative Services und kollaborative Services: Die fachlichen Services setzen sich aus technischen Services zusammen, die von Drittanbietern (beispielsweise aus der „Wolke“ als SaaS – Software as a Service), aus den existierenden Applikationen und unterschiedlichen Datenquellen stammen können. Darüber hinaus braucht man Entwicklungs-Services, um neue Services zu bauen, und IT-Management-Services, um Administration, Ausführung und Sicherheit von Services zu managen. Der Enterprise Service Bus genauso wie der Enterprise Service Data Bus kann als intelligente Middleware zur Service- und Daten-Brokerage verstanden werden. Hierzu gehört auch ein Repository zur Service-Registrierung und zur Publikation aller verwendeten Services in Service-Katalogen. Die Benutzer-Schnittstelle zu Prozessen oder Services ist entweder eine traditionelle Portal-Lösung, die heute Social Media-Funktionalität umfassen sollte, oder eine Schnittstellen zu mobilen Geräten, die in der Regel über Apps realisiert wird.

Wir haben bereits das Konzept einer SOA kennengelernt. Abteilungs- und Unternehmens-

übergreifende Prozesse werden SOA-basiert als Composite Applications (oder: Business

Mash-ups) – siehe dazu Nußdorfer und Martin (2007) oder Martin (2008) – implementiert,

die die fachliche Logik komponieren und orchestrieren (vgl. Abb. 4). Diese fachliche Logik

wird bereitgestellt als Services aus den existierenden Applikationen oder aus neuen

Page 54: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 54

Services, die entwickelt oder eingekauft werden müssen, um heute bestehenden Lücken in

der Service-Landschaft zu schließen.

Prinzipiell gibt es fünf Service-Modelle für Geschäftslogik (Abb. 13):

Operative Services. Sie stellen transaktional-orientierte Geschäftslogik zur Verfügung,

beispielsweise Anlegen neuer Kunden, neuer Produkte oder neuer Kundenauftrag.

Kollaborative Services. Dies sind Services, die menschliche Interaktionen und Mensch

zu Mensch Kommunikation unterstützen, beispielsweise Aufsetzen eines Meetings,

Suchfunktionen und Kommunikationsdienste wie eingebettete E-Mail, Chats, SMS,

Stimme etc. Web 2.0-Werkzeuge lassen sich ebenfalls so nutzen, da die in der Regel

auch service-orientiert sind.

Rule-Services. Mittels Regeln beschreibt man Entscheidungslogik. Ein Prozess nutzt

typischerweise mehrere Regeln, während eine Regel in verschiedenen Prozessen

genutzt werden kann. Daher muss man Prozesslogik und Entscheidungslogik strikt

voneinander trennen und fasst in einer SOA Regeln als Services auf, die von der

Prozessmaschine orchestriert werden. So erhält man Rule-Services als eine Kategorie

von Services. Ein Rule-Service kann auch als Kapselung komplexer Regeln verstanden

werden. Mit anderen Worten, ein Rule-Service kann einen anderen Rule-Service als

Untermodell aufrufen.

Analytische Services. Diese Services stellen analytische Geschäftslogik zur Verfügung,

beispielsweise einen Schwellenwert für Produktverfügbarkeit, ein prädiktives Modell für

Kundenverhalten oder Kundenrisiko, einen Forecasting-Service für die

Vertriebssteuerung etc.

Informations- und Daten-Services. Solche Services liefern zusammengesetzte

Information, die kombiniert werden kann aus strukturierten und unstrukturierten,

operativen und analytischen, internen und externen Datenquellen wie beispielsweise

Kundenadresse, Kundenwert, Liefertreue etc. Informations- und Daten-Services

umfassen auch Meta- und Stammdaten-Services.

In diesem White Paper beschränken wir uns auf die Diskussion von analytischen Services

(Kap. 5.1) und Informations- und Daten-Services (Kap. 6). Vorher machen wir aber noch eine

Bemerkung zu den Rule-Services. Mit Hilfe der so implementierten Entscheidungslogik

lassen sich menschliche Entscheidungen automatisieren: Die Regelmaschine wird als

Entscheidungsmaschine eingesetzt. Entscheidungsmaschinen sollten eine

Planungskomponente enthalten, die eine gezielte Verfolgung von Ereignissen durch ein

Aufsetzen von Nachfassaktionen erlaubt. Hier können ebenfalls regelbasiert die Maßnahmen

definiert werden, die als Folge eines Ereignisses zu treffen sind, z. B. ein Anruf eines

Kundenberaters aus dem Call Center drei Tage nach dem Besuch einer Webseite mit einer

positiven Response des Kunden. Entscheidungsmaschinen erlauben so beispielsweise

intelligente Interaktionen mit Kunden, wobei Entscheidungsmaschinen in Echtzeit eine

Reaktion auf ein durch den Kunden provoziertes Ereignis ermöglichen. Das findet besonders

im Cross- / Up-Selling im Call Center und auf Webseiten Anwendung.

Page 55: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 55

4.4 Renaissance von „BI“ im Enterprise 2.0

Der Begriff Enterprise 2.0 wurde im Jahre 2006 von Andrew McAfee geprägt13. McAfee hat

auch eine kurze und griffige Definition geliefert:

Definition Andrew McAfee: Enterprise 2.0 bezeichnet die Nutzung von Social-Media-

Konzepten mittels Social-Software-Plattformen in einem Unternehmen oder zwischen

Unternehmen und seinen Kunden und Partnern.

Bei Enterprise 2.0 geht es um das Nutzen und Nutzenkonzepte von Social Media-

Technologie im Unternehmen, nicht um Social Media-Technologien an sich. Enterprise 2.0

erfordert also zum Teil erhebliche Änderungen in der Unternehmenskultur, insbesondere in

der Kommunikationskultur, denn die Nutzung von Social-Software-Plattformen bedeutet,

dass sie gemeinschaftlich bearbeitet, gepflegt und genutzt werden und zwar als Ergänzung

zu den existierenden organisatorischen und technischen Strukturen.

Bevor wir das diskutieren, sollte man sich nochmal vor Augen führen, wie Social Media

entstanden sind und sich entwickelt haben. Es begann mit dem Begriff Web 2.0.

Web 2.0-Konzepte. Web 2.0 entstand als soziale Initiative zur Nutzung des WWW: Jeder

macht mit, ist gleichzeitig Konsument und Produzent. Doch die Web 2.0-Konzepte gehen

über die Kommunikation von Mensch zu Mensch im Sinne von Twitter oder Facebook weit

hinaus. Schauen wir mal auf Web 2.0 mit anderen Augen.

Der Begriff Web 2.0 geht zurück auf Tim O’Reilly, der den Begriff mit anderen erfunden hat.

Gehen wir von seinem fundamentalen Artikel „What is Web 2.0“14 von 2005 aus und denken

weiter. Da kommen wir zu folgenden Thesen, die Enterprise 2.0 mit Business Intelligence

zusammenbringen:

Von Applikationen zu Services. Das heißt weg von monolithischen Applikationen, hin

zu einer Service-Orientierung. Die Web 2.0-Idee ist, Services für Mash-ups jedem

Konsumenten im Web verfügbar zu machen. Per Mash-ups wird der BI-Anwender und

Informationskonsument zum Informationsproduzent und so gezielt und kontrolliert in das

Managen des Lebenszyklus von analytischen Prozessen und Services eingebunden. Im

BI-Umfeld gibt es heute dazu die sogenannten CPM-Toolkits (vgl. Kap. 9.2).

Beispiel: Eine Datenanalyse bringt vielleicht als Ergebnis ein bestimmtes

interessantes Datenmuster, aber eine Visualisierung der Daten zum besseren

Verstehen und Interpretieren der Daten erfordert eine Anwendungsprogrammierung

durch die IT. Das aber ist entweder gar nicht möglich, weil dazu in der IT die

Ressourcen fehlen, oder es ist zu teuer, dauert zu lange oder vermutlich sogar

beides. Aber, wenn man per Mashing-up als Informationskonsument selber die Daten

in ein Kartierungssystem bringen kann, dann ist eine Visualisierung schnell, einfach

und kostengünstig machbar. Das treibt dann die Analyse weiter.

13

Siehe „Enterprise 2.0 – The Dawn of Emergent Collaboration” http://adamkcarson.files.wordpress.com/2006/12/enterprise_20_-_the_dawn_of_emergent_collaboration_by_andrew_mcafee.pdf

14 Siehe http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html?page=1

Page 56: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 56

Volle Flexibilität heißt also das Prinzip. Das ist ja auch der Sinn und Zweck einer SOA,

wie wir in Kapitel 2.5 gesehen haben. Das Web 2.0-Konzept ist also auch ein SOA

Konzept: kollaborative Services werden mit analytischen Services verknüpfbar.

Architektur zur Kollaboration. Auch dieses Web 2.0-Konzept überträgt sich voll auf

eine SOA. Das Basiskonzept einer SOA, das per Servicelevel-Agreement (SLA)

kontrollierte Bereitstellen und Konsumieren von Services, ist ein Kollaborationsmodell par

excellence.

Nutzung kollektiver Intelligenz. Hier geht es im Original bei Tim O’Reilly erst einmal um

den Open Source Gedanken. Aber wenn man etwas weiter denkt und das Web 2.0-

Konzept „Jeder macht mit“ auf die Zusammenarbeit IT und Business anwendet, dann

werden Anwender zu Entwicklern. Ist das vorstellbar? Ja, das ist heute schon in

ausgewählten Bereichen machbar. Business Intelligence hat hier eine gewisse

Vorreiterrolle. Bereits in den 80/90iger Jahren sollten die Anwender ihre Reports und

Analysen selber machen. Das war damals nicht unbedingt von Erfolg gekrönt, aber heute

greift hier das Web 2.0-Konzept des „Vertrauens in Anwender als Mitentwickler“. Hier

kann man auch wieder an die Prinzipien der Mash-ups denken, aber es geht auch um

das Arbeiten in Teams, denn BI dient zwar dem Treffen besserer Entscheidungen, aber

Entscheidungen werden meistens in Teams getroffen, man spricht ja auch von einem

„board room style of decision making“. Hier entsteht die Chance zu einer völlig neuen

Kollaboration zwischen IT und Business – allerdings stecken wir hier noch in den ersten

Anfängen, aber die eingeschlagene Richtung stimmt.

Simple Schnittstellen und Modelle. Light Weight Programming sagt hier Tim O’Reilly.

Ein solches „Keep it simple“ ist ein gutes Prinzip, wenn es um Design und

Implementierung von Services in einer SOA geht. Simple Schnittstellen, sogar

standardisiert, das sind beispielsweise Web Services, ein heute weitgehend praktizierter

Weg bei SOA-Implementierungen. Das macht im BI das Einbetten von Analytik in

Geschäftsprozesse und damit das Anreichern von Prozessen durch Intelligence

einfacher denn je.

Medienübergreifende Software. Das passt auf eine SOA. Hier kommt alles zusammen.

Jetzt wachsen per SOA die bisher so unterschiedlichen IT-Disziplinen wie Business

Intelligence, Geschäftsprozess-Management, Document Management, Office etc.

zusammen. Das ist gegenüber traditioneller BI ein entscheidendes Element, denn BI

sollte nicht nur strukturierte Information auswerten, sondern besonders in der

Kombination mit unstrukturierter Information können sich völlig neue Einsichten ergeben.

Im Kapitel 5.5 zu Textanalytik kommen wir darauf zurück.

Der Long Tail-Effekt. Auch das Web 2.0-Konzept des Erreichens des "Long Tail" mittels

Communities ist ein Prinzip, das sich in einer SOA wiederfindet, wenn man das Konzept

von „Software as a Service“ (SaaS) mit einer SOA verbindet. Dann kann man den Long

Tail Effekt als die Business Opportunity sehen, solche Services in einem

Geschäftsmodell erfolgreich zu nutzen, denn im WWW lassen sie sich besser finden.

Genutzt wird das heute beispielsweise von Google und eBay. Aber bis das Einzug in die

Unternehmens-IT findet, muss noch einiges in Sachen Sicherheit und Zuverlässigkeit

getan werden.

Page 57: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 57

Die Web 2.0-Konzepte ermöglichen so eine neue Form der Kollaboration und der

Kommunikation. Sie stellen in der Tat weitreichende kollaborative Services in einer SOA zur

Verfügung (vgl. Abb. 13).

Enterprise 2.0 und Business Intelligence. In Kapitel 2.5 (vgl. Abb. 3) hatten wir bereits

ausgeführt: In einem Unternehmen brauchen wir Industrialisierung, Agilität und Compliance.

Wir hatten auch schon auf die gegensätzlichen Stoßrichtungen von Industrialisierung und

Agilität hingewiesen. Industrialisierung meint Automatisierung und Standardisierung,

während Agilität insbesondere auch für Kreativität und Innovation steht. Die Konzepte einer

Serviceorientierung im Sinne eines Kollaborationsmodells bringen diese beiden Gegensätze

zusammen. Das hatten wir bereits technisch diskutiert. Mit dem Nutzen von Web 2.0-

Konzepten als kollaborative Services kommt nun auch eine soziale, menschliche

Komponente dazu.

Beispiel: Einführung einer Online-Zeitung als web-basiertes, intelligentes Reporting.

(Quelle GmbH, Sieger BI Award 2008 der CeBIT 2008) Die Jury begründete ihre

Entscheidung mit dem innovativen Vorgehen bei der Realisierung und den neuartigen

Ansätzen des Wissensaustausches, wie sie aus dem Web 2.0 bekannt sind. Quelle

hat mit der Integration von Bildern, Textelementen und klassischen Kennzahlen eine

anwenderfreundliche und innovative Lösung geschaffen. Die Nutzung eines Wikis zur

Definition von Kennzahlen und Wissenssammlung zur richtigen Interpretation von

Berichten und Analysen sorgt für hohe Anwenderakzeptanz. Die Lösung von Quelle

liefert nicht nur reine Zahlen, sondern macht Inhalte und Nutzen des Berichtswesens

für jeden Anwender transparent. (aus: is report,

http://www.isreport.de/index.php?id=779 )

Das zeigt uns die Richtung, in der wir uns mit BI im Enterprise 2.0 bewegen müssen, um als

Marktsieger zu bestehen. Wir hatten ja bereits in Kapitel 2.1 die BI-Mängelliste diskutiert.

Diese alten, bekannten Probleme lassen sich in einem Enterprise 2.0 anders angehen und

entsprechend der Enterprise 2.0-Prinzipien lösen:

Alles hängt von den Mitarbeitern ab. Das Mitmachen der Mitarbeiter muss gefördert

werden. Eine Moderation der Kommunikation ist sehr hilfreich wie die Praxis bei der

Quelle GmbH gezeigt hat.

Mit konkreten Anreizen können Mitarbeiter dazu motiviert werden, sich aktiv am Aufbau

und der Belebung der Anwendungen zu beteiligen. Das kann unter anderem durch

Prämien für intensive Mitarbeit oder durch die Bewertung von Inhalten durch die Nutzer

geschehen.

Um die anfängliche Hemmschwelle bei den Nutzern aufzuweichen, können ganze

Anwendungen in die Enterprise 2.0-Umgebung verlagert werden. Damit kommt die

„kritische Masse“ von Information und Teilnehmern, die für einen Erfolg nötig sind,

zustande. Quelle GmbH hat das mit dem Reporting per Online-Zeitung erreicht.

Starke Motivation für ein aktives Engagement ist vielfach die persönliche Reputation des

Mitarbeiters. Anonyme Beiträge sollten nicht zugelassen werden.

Page 58: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 58

Das Management muss seinen Mitarbeitern Vertrauen entgegen bringen. Die Kontrolle

der Gemeinschaft ist nicht zu unterschätzen. Das ist ein ganz wesentliches Web 2.0-

Konzept. Mut zur Offenheit muss sein!

Eine einfache, schnell verständliche und leicht lernbare Oberfläche ermöglicht es

Mitarbeitern mit unterschiedlichem Wissensstand, sofort und ohne Umwege, am System

teilzunehmen. Quelle GmbH hat das mit einer intuitiven Visualisierung geschafft.

Fazit: Unternehmen sollten die Einbeziehung von Social Media-Konzepten in Betracht

ziehen und auch eine Roadmap entwickeln, wie man ein Enterprise 2.0 bauen kann. Denn

Enterprise 2.0 bietet die Chance Industrialisierung mit Innovation und Kreativität zu vereinen.

Es bietet die Chance durch das Konzept des „Jeder macht mit“ Wissenspotentiale im

Unternehmen zu erschließen, die sich sonst nicht so einfach aktivieren lassen. Insbesondere

kann eine Enterprise 2.0-Initiative eine Renaissance von BI bewirken, da sich so BI mit

Wissensmanagement verbinden lässt und man dadurch die Benutzerakzeptanz deutlich

steigern kann.

4.5 Planung im New Normal

Neben dem Überwachen und Steuern von Prozessen gehört ja auch das Planen zum

Performance Management. Heute im New Normal ist Planen schwieriger und komplexer

denn je, denn im New Normal gibt es vorhersagbare langfristige Trends nicht mehr. Auch

wenn heute die Konjunktur brummt, kann es schon morgen wieder zu Ende sein. Mit

anderen Worten: Wie soll man und wie kann man in einer solchen Welt überhaupt planen?

Die traditionelle Jahresplanung versagt im New Normal zum Teil vollständig, denn wer weiß

schon wie Markt und Kunden in einem Jahr aussehen werden. Mit alten

Planungsgewohnheiten und Methoden kommt man heute nicht mehr weiter. Denn die im

New Normal geforderte Agilität der Unternehmen bedeutet nicht nur die rasche Umsetzung

von neuen Kundenanforderungen, die schnelle Reaktion auf Marktänderungen und die

rasche Änderung von Prozessen bei Strategieänderungen, sondern setzt auch eine agile

Planung voraus.

Agile Planung bedeutet ein Umdenken in der Planung. Früher war Planung in den meisten

Unternehmen eine reine Finanzplanung plus einer meist von der Finanzplanung isolierten

strategischen Planung. Bei gut aufgestellten Unternehmen gab es eine Verbindung,

manchmal sogar eine Integration von strategischer und Finanzplanung. Außen vor blieb in

der Regel die operative Planung. Agile Planung bedeutet nun einen integrierten,

durchgängigen Planungsprozess. Strategische, operative und Finanzplanung bedingen ja

einander, daher muss hier die alte Lücke in den voneinander isolierten Planungen von

Ressourcen, Programmen, Produkten, Prozessen, Services etc. geschlossen werden.

Agile Planung meint aber noch mehr. Die Planungszeiten müssen verkürzt werden.

Rollierend oder treiber-basiert zu denken ist jetzt absolut zwingend. Rollierende, treiber-

basierte oder Gegenstrom-Planung sind zwar überhaupt nicht neu, aber jetzt im New Normal

setzen sich bei mehr und mehr Unternehmen solche Planungsmethoden durch. Dazu

kommen zeitnahe Forecast-Szenarien. Man stellt nicht mehr nur einen Plan auf, sondern

entwickelt gleich mehrere Szenarien unter verschiedenen Annahmen, um der Volatilität zu

Page 59: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 59

begegnen. Denn aufgrund der Volatilität im New Normal kann es gewaltige Sprünge in der

Planung geben, können sich Planungsziele grundsätzlich ändern. Das Problem ist die

ausreichende Reaktionsgeschwindigkeit. Weiter denkende Planer setzen hier

Simulationsverfahren und Modellrechnungen ein, um die verschiedenen Szenarien auch

bewerten zu können und um zu Entscheidungshilfen zu kommen. So schafft man sich einen

Planungshorizont, der gleichsam ein Fahren des Unternehmens auf Sicht erlaubt und so das

schnelle Reagieren ermöglicht.

Agile Planung bedeutet auch eine viel stärkere Interaktion und Kommunikation zwischen

allen an der Planung Beteiligten. Der Mensch muss nach vorne gestellt werden: Es geht um

das Einbinden aller. Hier finden bereits Ideen aus den Social Media an vielen Stellen

Eingang. Wikis als Wissensbasis und als Hilfsfunktion sind heute fast schon die Regel. Hier

ist die Zielsetzung eine gemeinsame Sprache zwischen den Controllern und den anderen

Fachbereichen zu schaffen. Es gilt in diesem Zusammenhang auch die Lücke zwischen

Controlling und Buchhaltung und Finanzen zu schließen, denn auch die Finanzplanung

selbst muss agil werden: Finanzierungsspitzen müssen im Zuge eines Risiko-Managements

identifiziert und vermieden werden.

Planung im New Normal

strategisch

(langfristig)

Finanzplanung

(mittelfristig)

Monate, bis zu einem Jahr

operativ

(kurzfristig)

Prozessgeschwindigkeit

strategische

Planung

Budgetierung

operatives

Tagesgeschäft

14

„agile Planung“ Portfolio-

Management

© 2012 S.A.R.L. Martin

Abbildung 14: Unter den heutigen Marktbedingungen des New Normal sind alternative Planungsmethoden (Jahresplanung greift nicht mehr!) und kollaborative Planungswerkzeuge im „Social-Media-Stil“ ein Muss. Weiterhin ist eine integrierte Planung notwendig, die die Planungslücke zwischen strategischer und Finanzplanung einerseits und operativer Planung andererseits schließt. Mit Hilfe von Portfoliomanagement schafft man den integrierten Planungskreis: Planung wird agil.

Dokumentierungs- und Kommentierungsmöglichkeiten zu Berichten sind Pflicht in einer

agilen Planung und von allen Beteiligten ganz besonders gefordert. Jeder soll gleichsam

„gezwungen“ werden, sich mit den Zahlen zu beschäftigen und Abweichungsanalysen zu

kommentieren. Ganz wichtig ist es auch, Autonomie für die an den Planungsprozessen

Page 60: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 60

Beteiligten zu schaffen, in dem Basisfunktionen an die Nutzer ausgelagert werden. Jeder will

selbstständig arbeiten können, seine Graphiken selber produzieren und Daten verdichten

können. Das aber nicht in einer isolierten Spreadsheet-Umgebung, sondern in

Zusammenarbeit und Interaktion mit allen Beteiligten. Hinzu kommt auch mehr und mehr die

Forderung nach Mash-ups.

Agile Planung bedeutet also neue Planungsmethoden und Social-Media-Stil Kommunikation

und Kollaboration in der Planung, plus die Integration von strategischer Planung,

Finanzplanung und operativer Planung. Die Lücke insbesondere zwischen strategischer und

Finanzplanung einerseits und operativer Planung andererseits gilt es zu schließen. Dazu

müssen die traditionellen isolierten Planungssilos aufgelöst und in eine integrierte

Planungsplattform übergeführt werden. Hier werden dann die Methoden und Werkzeuge von

strategischer Planung und Finanzplanung mit denen operativer Planung zusammengeführt.

Portfolio Management nimmt hier eine zentrale Rolle ein. Es ist ein guter Ansatz, um durch

Abgleichen der Strategie gegen die knappen Ressourcen – Menschen und Geld – das

Business zu optimieren. Dazu wird die strategische Planung und Finanzplanung verbunden

mit Investment Analyse, Kapazitätsplanung, Nachfrage-, Programm-, Ressourcen- und

Change-Management. Durch ein solches Planungsinstrumentarium schafft man eine

integrierte Planung: Die operative Planung der Prozesse folgt somit direkt aus der

strategischen und Finanzplanung. So schließt sich der Planungskreis entsprechend dem

Steuerungskreis von Prozessen in einem „echten“ Performance Management. (Abb. 14)

Page 61: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 61

5 Analytik – Basis für Performance Management

Analytik lässt sich in drei aufeinander aufbauenden Klassen von Werkzeugen und Methoden

einteilen:

Basis-Analytik. Hier geht es um die einfache Feststellung: Was ist passiert? Das

entspricht im Wesentlichen dem, was man in der traditionellen BI gemacht hat: Reporting

(Batch-Berichte aus der Konserve, interaktive Reports mit drill-down und drill-up, vgl.

Abb. 15), Dashboards, Alarmfunktionen und Empfehlungen.

Abbildung 15: Basis-Analytik: Das am weitesten verbreitete traditionelle BI-Werkzeug ist Excel. Setzt man Excel aber zur individuellen Datenhaltung ein, dann besteht die Gefahr, in einer inkonsistenten BI-Landschaft zu enden. Aber wenn man Excel als reines Front-end nutzt, dann kann es auch service-orientiert eingesetzt werden. Zudem besticht es durch große Benutzerfreundlichkeit sowie durch eine Vielzahl von Add-in-Angeboten, die die Funktionalität teilweise sehr gekonnt erweitern. Hier als Beispiel das Excel-Add-in OneBoard von pmOne. Es macht mit wenigen Mausklicks aus einer Datentabelle (oben) eine aussagekräftige Business-Grafik mit mehreren Datenarten (Ist-, Plan- und Forecast-Daten) und einem Abweichungsbaum, der einfach und verständlich die relative Plan-Ist-Abweichung darstellt. Das Notationskonzept orientiert sich an den SUCCESS-Regeln

15 von Dr.

Hichert.

15

Mehr zu den Success-Regeln von Dr. Hichert finden Sie auf http://www.hichert.com/de/success/

Page 62: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 62

Standard-Analytik: Jetzt will man wissen: Warum ist es passiert? Auch hier dominieren

immer noch die Werkzeuge der traditionellen BI wie interaktive analytische Dashboards

mit drill-down und drill-up, OLAP, analytische Workflows zwecks Automation, anpassbare

Daten-Mash-Ups und BI-Widgets.

fortgeschrittene Analytik (advanced analytics): Hier geht es um Vorhersagen, was

geschehen wird und um das Aufspüren neuer Gelegenheiten. Hier werden jetzt Data und

Text Mining, Textanalytik, Location Intelligence, analytische Modelle und

statistische/prädiktive analytische Funktionen sowie Visualisierung eingesetzt.

5.1 Analytische Services

In einer SOA als Infrastruktur für Geschäftsprozess-Management wird eingebettete Analytik

mittels analytischer Services implementiert. Analytische Services sind gekapselte,

komponenten-basierte Module zur Publikation von analytischer Geschäftslogik, die per

(Web-) Services kommunizieren (Abb. 13). Dazu gehören analytische Inhalte wie

beispielsweise anpass- und erweiterbare Templates für alle Arten von Metriken in einer

Business Scorecard und analytische Werkzeuge. Wie bei den anderen Modellen von

Services gehören dazu auch Entwicklungs-Services zum Managen des Lebenszyklus der

Services – Implementieren, Anpassen und Pflegen. So erweitert Analytik die traditionelle auf

das Data Warehouse fixierte BI, indem BI per Metriken und prädiktiver Modelle in den

Kontext von Strategie, Zielen, Prozessen, Menschen und Governance gestellt wird und per

Services implementiert wird.

Reporting- und Analyse-Services – In einer SOA wird die Funktionalität der Basis- und

Standard-Analytik mittels Komponenten implementiert, die analytische Services bereitstellen,

die in jeden Geschäftsprozess zwecks Anreicherung eingebettet werden können. In einer

SOA können analytische Services Informations- und Datenservices zur Datenversorgung

nutzen, so dass zusammengesetzte Daten aus operativen und dispositiven Systemen

verfügbar werden. Analytik kann jetzt in Echtzeit eingesetzt werden, wann immer es

geschäftsrelevant ist. Zudem können durch Mashing-up zusammengesetzte Reporting- und

Analyse-Services flexibel komponiert werden.

Planung und Simulation – Die Planung ist ein typischer abteilungsübergreifender Prozess,

der am besten als SOA-basierter Prozess implementiert wird. Die Planungsfunktionalität wird

somit über Planungs- und Simulationsservices implementiert, die volle Flexibilität und

Anpassungsfähigkeit an sich ändernde Geschäftsszenarien bieten. Der Vorteil einer

Implementierung der Planung im Rahmen einer SOA liegt auf der Hand: Der

Planungsprozess kann aus allen möglichen analytischen oder sonstigen Services

zusammengesetzt werden. Hierbei werden Redundanzen in der analytischen Funktionalität

vermieden, die durch Planungsanwendungen in einer herkömmlichen Data-Warehouse-

/Business-Intelligence-Architektur typischerweise entstehen. So fördert man eine rigorose

und revisionssichere Planung durch einen kontrollierten SOA-basierten Prozess statt

Planungsprozesse von Hand und auf der Basis von Tabellenkalkulationen durchzuführen.

(Abb. 16) Eine SOA-basierte Planung ist insofern auch die beste technologische

Voraussetzung für eine Planung im New Normal (vgl. Kap. 4.5).

Page 63: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 63

15

Abbildung 16: Planung und Simulation mit Cubeware Cockpit V6pro: Die Lösung bildet unterschiedlichste Planstände ab und unterstützt verschiedene Planungsfunktionalitäten wie Top-down, Bottom-up, Gegenstromverfahren und Simulation. Die Plandaten werden dezentral erfasst, zentral und strukturiert abgelegt und können periodisiert, zusammen mit Ist-Daten sowie in Form von Soll-Ist-Analysen, Zeitreihenanalysen, Forecasting-Analysen oder »Was-wäre-Wenn«-Szenarien ausgewertet werden.

Dashboard-Services – Eine Instrumententafel („Dashboard“) (Abb. 17) visualisiert große

Mengen von Information aus unterschiedlichen Datenquellen in verdichteter Form. Der Grad

der Verdichtung und die Visualisierungsform sind ziel- und adressatenabhängig. Sie wird zur

Implementierung einer Business Scorecard eingesetzt und entsprechend in ein Portal als

Portlet eingebettet (vgl. Kap. 3.2). Das Informationsprofil der Business Scorecard beschreibt

die Personalisierung von Dashboards, damit jeder Verantwortliche genau die richtige

Information gemäß dem Prozessträgermodell bekommt. Zu einem Dashboard sollte auch

eine Benachrichtigungsfunktion gehören, so dass in bestimmten Situationen (Eskalation,

Ereignis / Alarm) auf wichtige Information automatisiert hingewiesen wird. Das führt zu einer

„aktiven“ Instrumententafel: nur solche Fälle, die Entscheidungen und menschliches

Eingreifen verlangen, werden angezeigt und den Entscheidungsträgern durch message-

basierte publish-and-subscribe Kommunikationsmethoden (beispielsweise RSS feeds)

mitgeteilt. So kann ein „Management by Exception“ aufgebaut werden.

Eine flexible Weiterentwicklung der Berichtsmöglichkeiten von Instrumententafeln sind die

sogenannten „Briefing Books“. Ein Briefing Book besteht aus Kapiteln, die alle analytischen

Page 64: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 64

Services entsprechend dem Profil des Informationskonsumenten den Kapiteln zuordnen und

so strukturieren. Es bietet daher eine komplette strukturierte Umgebung, die die gesamte

Information zum Überwachen und Steuern gemäß dem Governance-Modell in intuitiver Form

interaktiv und visuell bereitstellt (Abb. 18).

Abbildung 17: Beispiel für ein Dashboard realisiert mit Cubeware Cockpit V6pro: Das Dashboard liefert einen schnellen Überblick über die Hauptkennzahlen des Unternehmens und wie sich verschiedene strategische Bereiche aktuell entwickeln. Hier kommen verschiedenste Layout-Komponenten zum Einsatz. Ihre Platzierung geschieht per „Drag & Drop“ an der Oberfläche. Jede Dashboard-Komponente basiert auf DataViews unterschiedlicher Würfel. Ein Drill-Through und Adhoc-Abfragen nach weiteren Details zu den vom Dashboard angezeigte Information ist jederzeit machbar. Die Erstellung und Anpassung von Dashboards ist hoch ergonomisch und kann fast ausschließlich vom Nutzer selbstständig vorgenommen werden.

Information Management – Während traditionelle BI-Werkzeuge auf einer Data

Warehouse-Architektur aufsetzten, ist wie bereits gesagt eine Datenintegrationsplattform die

Basis für Performance Management und Analytik. Eine Datenintegrationsplattform verbindet

auf der technischen Ebene Performance Management und Analytik mittels eines Enterprise

Service Data Bus mit operativen Datenbanken auch in Echtzeit und dem Data Warehouse,

das jetzt nur noch Backend-Dienste für analytische Services zur Verfügung stellt (vgl. Abb. 4

und 13). Datenintegration stellt Informations-Services zur Verfügung, um Daten, aber auch

Meta- und Stammdaten zu analysieren, Datenmodelle abzuleiten, Daten und Metadaten

aufzubereiten und zu profilieren, sowie ETL- (extraction, transformation, load) Dienste. Mehr

zu Information Management und Echtzeit-Konzepten finden Sie im Kapitel 6 und 7.

Page 65: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 65

Abbildung 18: Beispiel für ein Briefing Book realisiert mit Actuate. Eine intuitive Nutzung wird durch die Nachbildung eines Buches unterstützt. Links sieht man die definierten Kapitel, die sich über Reiter aufschlagen lassen. Jedes Kapitel hat hier noch Unterkapitel, dargestellt durch die Reiter rechts oben. Dazu kommt noch eine Blätterfunktion zum Umschlagen der Seiten.

5.2 Data Discovery

Interaktive Analytik – Eine Anreicherung von Prozessen durch eingebettete Analytik wird in

der Regel durch interaktive Analytik (Datenexploration) ermöglicht. Metriken werden nicht nur

Top-down aus Strategie, Zielen und Prozessen abgeleitet, sondern können auch aus Daten

Bottom-up abgeleitet und entwickelt werden. Dazu dient die interaktive Analytik. Hier wurden

bisher zumeist traditionelle BI-Werkzeuge eingesetzt (Adhoc-Abfragewerkzeuge, OLAP,

statistische Werkzeuge, Data und Text Mining, Textanalytik. etc.), die jetzt aber auf der

Datenintegrationsplattform arbeiten. Weite Verbreitung hat vor allem die interaktive Analyse

per OLAP gefunden.

Definition: OLAP (online analytical processing) ist eine Methode innerhalb der Analytik,

die schnelle und interaktive Zugriffe auf relevante Information ermöglicht. Es bietet

insbesondere komplexe Analysefunktionen, die sich durch Multidimensionalität auszeichnen.

Das bedeutet die Anordnung der verschiedenen Metriken (Kennzahlen) entlang

unterschiedlicher Dimensionen, beispielsweise Umsatz in Bezug auf Kunde, Produkt,

Region, Berichtsperiode etc.

Page 66: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 66

Zu weiteren Details zu OLAP verweisen wir auf Nigel Pendse’s Webseite „What is OLAP“16.

Data und Text Mining sowie Textanalytik behandeln wir in den Kapiteln 5.4,

beziehungsweise 5.5.

Die traditionellen BI-Werkzeuge zur interaktiven Analytik haben allerdings nicht die

Akzeptanz gefunden, die man erwartet hatte. Ihr Einsatz erforderte Experten, die mit den

Werkzeugen erst nach entsprechendem Training umgehen konnten. Denn diese

traditionellen BI-Werkzeuge hatten in der Regel die in der BI-Mängelliste (vgl. Kap. 2.1)

aufgeführten Fehler. Konsequenterweise wurden sie meist nicht genutzt. Als Ersatzwerkzeug

– man brauchte ja eine gewisse Analytik – diente dann das Spreadsheet. Wenn

Spreadsheets mit individueller Datenhaltung im Unternehmen eingesetzt wurden, dann verlor

sich schnell die Datenkonsistenz, Datenchaos stellte sich ein, und die Daten-Grundlage für

Compliance war nicht mehr gegeben. (Abb. 19)

Traditionelle BI: Analytik-Mängel

Analytische

Applikationen

“Advanced

Analytics”

Portalindividuell, aber

inflexibel & IT-

gesteuert

mächtig,

aber zu

komplex

fehlender

Fokus auf

das Team

Das Risiko

in der Lücke

STraditionelle BI

war bei weitem

nicht immer

erfolgreich.

die

Realität

© 2012 S.A.R.L. Martin19

Abbildung 19: Analytik mittels traditioneller BI-Werkzeuge fand nicht die erwartete Akzeptanz in den Unternehmen. Traditionellen Portalen fehlte der Fokus auf Team-Arbeit und Team-Entscheidungen. Traditionelle analytische Applikationen waren IT-Applikationen, mit denen die Fachabteilungen keine Agilität erreichten und in der Abhängigkeit von der IT blieben. Die fortgeschrittene mathematische und statistische Analytik war dem normalen BI-Nutzer voll verschlossen weil zu komplex. Als Ersatz etablierte sich das Spreadsheet. Eine Nutzung von Spreadsheets mit Datenhaltung im Unternehmen stellt aber ein großes Risiko dar, da jetzt Datenkonsistenz nicht mehr garantiert werden kann.

Mit dem Aufkommen von neuen analytischen Werkzeugen, die insbesondere

Visualisierungstechniken einsetzen, ändert sich diese Situation grundlegend. Man spricht

jetzt von interaktiver visueller Analytik oder Data Discovery.

16

siehe http://www.bi-verdict.com/fileadmin/FreeAnalyses/fasmi.htm

Page 67: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 67

Unter Data Discovery versteht man eine neue Generation von Business Intelligence(BI)-

Werkzeugen, die sich durch außerordentliche Benutzerfreundlichkeit und Flexibilität

auszeichnen. Dazu kommt die Verwendung von In Memory-Technologien, die intern zur

Speicherung und Verarbeitung genutzt werden. Der große Vorteil der In Memory-

Technologie ist die Performance: Daher sind Data Discovery-Werkzeuge insbesondere zur

Big Data-Analytik geeignet.

Data Discovery-Werkzeuge setzen auf Visualisierung, interaktive, intuitive Analyse,

Kollaboration und Autonomie der Endanwender. Interaktive Visualisierung unterstützt mittels

Intuition das menschliche Auge und macht es zum Detektor von Strukturen. So werden die

Stärken des menschlichen Auges kombiniert mit

Visualisierungs-Services, die unterschiedliche Aspekte von Daten und Information gleichzeitig darstellen,

Drill-down per Mausklick und dynamischen Adhoc-Abfragen,

statistischen Methoden und Techniken,

konfigurierbarem und dynamischem Zugriff auf alle relevanten Datenquellen („Mashing-up“).

Interaktive Visualisierung besticht im wahrsten Sinne des Wortes durch Interaktivität und

Visualisierung. Die Anwender von Data Discovery-Werkzeugen können auf zentrale Daten

via Client-Server, Web-Browser oder über Apps mittels mobiler Geräte wie Tablets zugreifen,

die ja zur Visualisierung konzipiert wurden. Im mobilen Internet kann man für jede konkrete

Aufgabenstellung eine eigene App erstellen, die dann ganz gezielt auf einen

Geschäftsprozess zugeschnitten ist und direkt zu entsprechenden Arbeitsschritten führt. Mit

Visualisierungswerkzeugen auf Tablet-Rechnern ist der Durchbruch geschafft: Analytische

Werkzeuge werden jetzt nicht nur akzeptiert, sondern schaffen sogar Begeisterung bei den

Nutzern.

Die Gestaltung der Anwendung erfolgt hauptsächlich an der Benutzeroberfläche und kann

auch durch die Nutzer selbst vorgenommen werden. Hier hat sich auch der Begriff

„Selbstbedienungs(self-service)-BI“ gebildet. Die Nutzer dieser Werkzeuge erhalten eine

hohe Autonomie, und die Rolle der IT entwickelt sich in Richtung eines Service-Anbieters,

der die Plattform für Selbstbedienungs-BI bereitstellt, betreibt und auch die notwendige

Beratung zur Nutzung leistet.

Weiterhin ist im Data Discovery eine deutlich bessere Teamunterstützung als mit den

traditionellen BI-Werkzeugen möglich. So können die Anwendungen via Web, E-Mail oder

Social Media-Werkzeugen mit Geschäftspartnern ausgetauscht sowie in Office- oder andere

Anwendungen eingebunden werden. Diese kollaborativen Aspekte gehen noch weiter: Es

können Bemerkungen zu den Daten an Sichten gekoppelt und mit anderen Anwender geteilt

werden. (Abb. 20) Wir hatten diese Entwicklung bereits im Rahmen der BI-

Kompetenzzentren (Kap. 3.4) aufgezeigt.

Echtzeit-Analytik – Interaktive Analytik ist typischerweise ein von Menschen getriebener

Prozess. Wenn die zu analysierenden Datenvolumen groß sind, beispielsweise bei Analysen

im Big Data, dann ist nicht der Mensch der Engpass in einem solchen Prozess, sondern es

waren wieder die traditionellen BI-Werkzeuge, die nicht die ausreichende Performance und

Skalierbarkeit hatten. Hier hat man beim Data Discovery mit Echtzeit-Analytik Abhilfe

Page 68: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 68

geschaffen. Dabei ist der Begriff Echtzeit-Analytik im Data Discovery leider unglücklich

gewählt, denn man meint nicht „Analyse in Echtzeit“, sondern eine Analyse, die auch bei

Großen und sehr großen Datenmengen in Interaktionsgeschwindigkeit Ergebnisse liefert. Es

geht also um das Beschleunigen von analytischen Aufgaben. Dabei gibt es prinzipiell drei

Möglichkeiten, Analytik zu beschleunigen, wobei diese auf unterschiedliche Weise

miteinander kombiniert werden können.

Interaktive Analytik: Data Discovery

Analytische

Services

Statistik, Mining,

künstliche Intelligenz

Search &

Kollaborationflexibel &

Nutzer-gesteuert,

“mash ups”

interaktiv,

intuitiv,

visuell

Entscheidungen

im Team

S

Data

Discoverybesser, eleganter,

benutzergetriebenEnterprise 2.0

Mobil

social

media-Stil,

intuitiv

© 2012 S.A.R.L. Martin20

Abbildung 20: Interaktive Analytik heute erlaubt aufgrund der Kombination von social media Kollaborationswerkzeugen und Visualisierungstechniken sowie einer service-orientierten Architektur als Infrastruktur ein Data Discovery, das im Sinne von „self-service BI“ durch die Fachabteilungen weitgehend selbstständig und durch ein BI-Kompetenzzentrum unterstützt betrieben werden kann. Hinzu kommen die allgegenwärtige Nutzung von Information im mobilen Internet und der Einsatz von visuell-konzipierten Tablett-Rechnern. So wird das „daten-getriebene“ Unternehmen Realität.

Spezielle Datenbanktechnologien: Man setzt spezielle Datenbanktechnologie wie

Komprimierung, Indexierung, Vektor-Verarbeitung, speicherbasiertes Caching usw. ein,

um die Performance von Adhoc-Abfragen und anderen Business Intelligence-

Komponenten bzw. -Werkzeugen drastisch zu verbessern. So werden die Data

Discovery-Prozesse durch schnellere Antwortzeiten (von Stunden auf Minuten und

Sekunden) deutlich beschleunigt.

„In-Memory“-Verarbeitung: Man nutzt „In-Memory“-Verarbeitung. Hierbei wird die

gesamte zu analysierende Datenmenge im Speicher verarbeitet. Dadurch kann eine

bessere Leistung erzielt werden als dies mit Datenbanktechnologien möglich ist, bei

denen Daten noch immer physikalisch gespeichert werden. Hier wird auch besonders der

64 bit Adressraum genutzt.

Spezielle Algorithmen: Man nutzt zum Lesen und Verarbeiten von Daten spezielle

Algorithmen, die die Beschränkungen von herkömmlichen SQL- und OLAP-Technologien

Page 69: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 69

überwinden. Ein Beispiel dazu ist das von Google vorgeschlagene MapReduce-

Verfahren zur verteilten Verarbeitung als Programmierung-Umgebung und -Modell, das

Bestandteil von Hadoop ist. Viele Anbieter kombinieren diese Ansätze mit den oben

genannten speziellen Datenbank-Technologien.

Mehr hierzu finden Sie in Kap. 7 und entsprechende Anbieter werden in den Kapiteln 9.3 bis

9.5 aufgelistet.

5.3 Web-Analyse

Web-Analyse meint die Anwendung von Performance Management und Analytik auf das

Nutzen von und Verhalten auf Webseiten durch die Besucher („Internauten“). Hier geht es

um Fragen wie:

„Wie viele Besucher habe ich in welchem Zeitraum“,

„Welche Bereiche werden wie oft aufgesucht und in welcher Reihenfolge“,

„Woher kommen und wohin gehen die Besucher“ etc.

Das Ziel ist klar: Die Webseite soll optimiert werden, und es soll sichergestellt werden, dass

die Ziele der Webseite wie Steigerung der Besuche und der Verweildauer, Steigerung von

Downloads, Newsletter-Abonnements und Bestellungen gemessen werden und Maßnahmen

rechtzeitig eingeleitet werden können, um solche Zielerreichungen auch sicher zu stellen

ganz im Sinne von Performance Management. Insofern ist Web-Analyse ein wichtiges

Instrument zur Investitionssicherung. Die Kontrolle des Besucherverhaltens kann in

Verbindung mit der Weiterentwicklung der eigenen Strategie im Internet den Webauftritt und

dessen Effizienz zielgerichtet deutlich verbessern. Daher findet man in der Literatur auch den

synonymen Begriff „Web-Controlling“.

Bei der Web-Analyse wird zwischen zwei Verfahren unterschieden: Das Management der

Performance der Homepage zur kontinuierlichen Messung und Überwachung der Effektivität

einer Homepage und verschiedene Analysemethoden zur Identifikation von möglichen

Schwächen auf der Seite, um Gegenmaßnahmen im Sinne einer Optimierung der

Homepage einleiten zu können. Web-Analyse gliedert sich also wieder in ein Performance

Management und die Analytik.

Beim Performance Management geht es jetzt wieder um die Definition der richtigen Metriken,

die dann in Berichten oder Scorecards dargestellt werden. Typisch sind hier Verlauf des

Umsatzes über das Jahr, die Anzahl der Besucher der Homepage, die Anzahl der Besucher,

die etwas in den Warenkorb legen, die Anzahl der Besucher, die den Kaufprozess

abschließen, der durchschnittliche Warenkorbwert, die Kosten pro Kampagne, die

Wirksamkeit einzelner Werbemittel wie Banner oder Newsletter etc.

Bei der Analytik setzt man verschiedene Szenarien ein. Pfad-Analysen dienen dem

Entdecken von besonders beliebten und unbeliebten Abschnitten auf einer Homepage.

Segmentierungen unterstützen das Identifizieren und Klassifizieren von Besuchergruppen

(beispielsweise Besucher von Suchmaschine X im Vergleich zu Besuchern von

Suchmaschine Y). Konversionspfade helfen bei der Messung und Optimierung von

Page 70: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 70

definierten, wichtigen Seitenabfolgen in der Homepage. Start- oder Landing Pages werden

durch Testen von Änderungen und ihren Auswirkungen auf das Click- und

Konversionsverhalten iterativ optimiert. Ähnlich geht man bei der Suchmaschinen-

Optimierung vor: Ein höheres Ranking der eigenen Homepage bei den gängigen

Suchmaschinen sollte sich in einer Steigerung der Anzahl der Besucher messen lassen.

Typischerweise werden für Web-Analyse entweder die Logdateien der Webserver

ausgewertet oder bestimmte Tags in der Homepage zur Datengewinnung genutzt. Neben

diesen beiden Verfahren existieren noch weitere wie die Web-Server Plug-Ins oder Netzwerk

Sniffer. Um einen einzelnen Seitenaufruf einer Sitzung und eine Sitzung einem eventuell

wiederkehrenden Besucher zuordnen zu können, werden in der Regel Cookies eingesetzt,

die aber von vielen Besuchern sehr kritisch gesehen werden. Hier bewegt man sich auf

einem sehr schmalen Grat zwischen der Anonymität und dem Schutz der Persönlichkeit der

Besucher und dem Interesse des Homepage-Betreibers, seine Kunden im Sinne von

Kundenorientierung zu kennen und das Wissen über seine Kunden in seinem Sinne

einzusetzen. Heute ist in der Rechtsprechung noch offen, ob IP-Adressen als

personenbezogene Daten angesehen werden. Daher sollte bei allen Fragen der Web-

Analyse der Datenschutzbeauftragte immer gehört werden.

Eine Auswahl der gängigen Web-Analyse-Werkzeuge befindet sich im Kapitel 9.4.

Fazit: Eine Web-Analyse ist im Endeffekt ein wichtiges Element von Kundenorientierung. Es

ermöglicht Kundenwünsche besser zu verstehen, das Marketing zu optimieren, die Umsätze

zu steigern und Betrugsfälle (Klickbetrug, Affiliate Hopping) zu vermeiden. Aber Achtung:

Die Nutzung dieser Daten unterliegt den Datenschutzbestimmungen, wobei heute offen ist,

inwieweit die Daten auch als personenbezogene Daten zu verstehen sind. Eine Klärung ist

aber hier bald zu erwarten.

5.4 Trends im Data Mining

Definition: Data Mining ist definiert als ein Prozess zur Identifizierung und/oder Extraktion

vorher unbekannter, nicht-trivialer, unerwarteter und wichtiger Information aus großen bis

sehr großen Mengen von (strukturierten) Daten.

Data Mining wird als die eigentlich wirklich “intelligente” Methode und Technologie der

Analytik angesehen. Es ist ein “Bottom-up”-Ansatz zum Entdecken von Mustern, Strukturen

und Zusammenhängen, um Hypothesen zu bilden. Data Mining hat seit Mitte der 90er Jahre

einen festen Platz unter den Instrumenten der Kundenansprache gefunden. Data Mining

spielt aber nicht nur im CRM eine Rolle, sondern hat heute einen festen Platz in vielen

Bereichen eines Unternehmens wie in Produktions-Überwachung und Steuerung, Risiko-

Management, Missbrauchsentdeckung, Geldwäsche etc. Eine Vorläufer-Funktion hatten

statistische Werkzeuge, die aber auch heute immer noch Anwendung finden und den Einsatz

von Data Mining in der Regel vorbereiten oder ergänzen. Data Mining auf unstrukturierten

Page 71: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 71

Daten wird als Text Mining bezeichnet. Die folgenden Ausführungen zum Data Mining

übertragen sich entsprechend auf Text Mining.

© 2012 S.A.R.L. Martin21

VSAM

SAP

DB2

Dynamische

Data Marts

operative Systeme

Datenexploration

DW

ModellbildungOracle

Menschen

und/oder Prozesse

Modellnutzung

PMML

Web Services

Der Data Mining-Prozess

Date

nin

teg

rati

on

Echtzeit

Modell-

Management

Demo- und sozio-

graphische Daten

Web-Daten

Social Media

Mikrogeographische

Daten

Abbildung 21: Am Data Mining-Prozess lassen sich gut die heutigen Herausforderungen an Data und Text Mining ablesen. Links: Die Datenbereitstellung sollte per Datenintegrationsplattform erfolgen. Das (sehr) große Datenvolumen erfordert eine hohe Performanz und Skalierbarkeit der Algorithmen sowie die Handhabung von bis zu tausenden von Variablen. Rechts: Modellbildung und Modellnutzung wurden ursprünglich getrennt, wachsen aber jetzt unter Echtzeitanforderungen zusammen und werden zum Closed-loop, der durch Performance Management gesteuert werden sollte. Die Modellnutzung erfolgt in der Regel durch Einbettung in operative SOA-basierte Prozesse. Modelle arbeiten zudem wirkungsvoller, wenn sie auf die Problemstellung granular eingestellt werden können. Das erfordert die Erstellung von bis zu hunderten von Modellen in wenigen Tagen. Die Menge an Modellen macht ein Modell-Management wichtiger denn je.

Zum Data Mining gehört eine Methodologie, die den iterativen, von der Fachabteilung

getriebenen Data Mining-Prozess beschreibt plus der Werkzeuge, die den Prozess

unterstützen. (Abb. 21)

Die erste Phase des Data Mining-Prozesses ist die Datenbereitstellung. Ohne Daten kein

Data Mining, das klingt trivial, aber: 60 bis 80 % aller Aufwendungen im Data Mining stecken

in der Verfügbarkeit, Erreichbarkeit und der Qualität der Daten fürs Data Mining (siehe dazu

auch Kap. 6). Die Automatisierung der Datenbereitstellung ist immer noch eine der großen

Herausforderungen im Data Mining. Das liegt zum Teil auch an der Explosion der

Datenvolumen. Beispielsweise hatte 2007 Yahoo! im Durchschnitt 425 Millionen Besucher im

Monat, die pro Tag 10 TB Daten produzierten. Das sind natürlich nicht alles strukturierte

Daten, aber ein Mining sollte sich nicht auf die Exploration strukturierter Daten beschränken.

Wesentliche Information lässt sich per Text Mining und Textanalytik (vgl. Kap. 5.5) aus

unstrukturierten Daten gewinnen, aus Textdokumenten oder aus den Nutzungsdaten von

Kunden im Web oder in sozialen Netzen (Web 2.0). Im Supply Chain-Bereich explodieren die

Page 72: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 72

Datenvolumen besonders aufgrund von RFID-Technologien zur Verfolgung und

Registrierung.

Die Anforderungen an Data Mining-Algorithmen sind also hohe Performanz, da sehr große

Datenmengen zu bewältigen sind, und Verarbeiten von auch Tausenden und mehr Variablen

aufgrund der Datenvielfalt.

Die zweite Phase beschreibt die Auswahl der Methoden, Techniken und Werkzeuge. Data

Mining kennt verschiedene Methoden zur Lösung betriebswirtschaftlicher Aufgaben:

Klassifikation: Mit dieser Methode versucht man ein neues Objekt in vorgegebene

Klassen einzuordnen. Einem Datensatz wird also als neues Attribut die

Klassenzugehörigkeit zugeordnet. Typische Beispiele sind die Klassifizierung von

Kreditanträgen in Risikoklassen oder die Zuordnung von Kunden in Kundensegmente.

Schätzung: Klassifikation behandelt diskretes Auskommen, im Prinzip ein „ja“ oder

„nein“. Schätzung behandelt dagegen kontinuierliches Auskommen. Die Aufgabe ist, auf

Basis von Eingangsparametern eine Ausgangsgröße schätzen. Typisches Beispiel ist ein

Scoring mit dem die Wahrscheinlichkeit ausgedrückt wird, dass ein Kunde auf ein

Angebot mit Kauf reagieren wird oder ein Abonnement kündigen wird.

Vorhersage: Hier werden Modelle abgeleitet, die die Datenstrukturen sequentiell

beschreiben, um zeitliche Vorhersagen zu machen. Beispiel hierzu sind

Zeitreihenmodelle im Finanzwesen wie Vorhersage von Börsenkursen etc. Hier geht es

auch um das Aufdecken zeitlicher Abfolgen als Grundmuster im Kaufverhalten.

Typisches Beispiel aus dem Handelsbereich ist das Aufdecken von Folgekäufen.

Assoziationsanalyse: Mit dieser Methode werden Beziehungen zwischen

unterschiedlichen Elementen einer Kategorie ermittelt. Typisches Beispiel sind

Warenkorbanalysen im Handelsbereich, wobei statistische Zusammenhänge zwischen

Produkten aufgedeckt werden. Das erlaubt beispielsweise die Identifizierung von Ko-

Produkten für Cross-Selling-Ansätze.

Clustering/Mustererkennung: Diese Methode dient der Zusammenfassung von

Objekten zu disjunkten Klassen auf Basis von Ähnlichkeitsmassen. Beispiel hierzu ist die

Ableitung eines Tarif/Preissystems durch Analyse des kundenspezifischen

Verkehrsverhaltens im Telefon-Netz oder durch Analyse des Schadensverhaltens in der

Kraftfahrzeugversicherung.

Beschreibende Modelle: Hier sollen Zusammenhänge zwischen den Variablen

aufgedeckt und beschrieben werden. Das ermöglicht auch, Erklärungen für bestimmte

Verhaltensweisen zu finden.

Klassifikation, Schätzung und Vorhersage gehören zum zielgerichteten Data Mining. Die

Aufgabe ist, ein Modell zu bilden, das aus den Eingangsvariablen Ausgangsvariablen

bestimmt. Assoziationsanalyse, Clustering und beschreibende Modelle dagegen gehören

zum nicht zielgerichteten Data Mining. Hier gibt es um die Ableitung von Beziehungen

zwischen den Variablen.

Page 73: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 73

Abbildung 22. Moderne Werkzeuge für Datenanalysen und Data Mining wie hier die Auto-Cluster-Funktion des SPSS PASW Modeler 13 erlauben es, datenbasierte Entscheidungsmodelle mit unterschiedlichen statistischen Verfahren zu berechnen und deren prognostische Fähigkeiten miteinander zu vergleichen. Hat man sich für ein geeignetes Modell oder Modellensemble entschieden, wenden diese Werkzeuge die Regeln automatisch an.

Data Mining-Werkzeuge unterstützen diese Methoden durch verschiedene Techniken. Das

sind zum einen mathematisch-statistische Verfahren, wie General Linear Analysis,

Diskriminanz-Analyse, Regressionsanalyse, Korrelationsanalyse etc., und zum anderen

Verfahren, die aus der informationstheoretischen Kybernetik stammen wie neuronale Netze,

Entscheidungsbäume, Induktionsregeln, Self-Organizing Maps (SOM), Support-Vektor-

Verfahren, Fuzzy-Logik und wissensbasierende Systeme. Wichtig sind

Visualisierungsverfahren zur Unterstützung, denn bei aller Mathematik, Statistik und

Informationstheorie ist das menschliche Auge ein gleichwertiger Detektor, wenn man

Strukturen adäquat darstellen kann.

Die Frage ist nun, mit welcher Data Mining-Technik man welche Methode unterstützt. Hier

gibt es aber keine Eins-zu-eins-Zuordnung. Natürlich gibt es gewisse auf Erfahrung

beruhende Regeln, die hilfreich sind, die richtige Data Mining-Technik als Lösungsmethode

zu wählen, aber diese Regeln sind als heuristisch zu verstehen. Zur Problemlösung zieht

man in der Regel verschiedene Techniken heran, um die Ergebnisse mittels Assessment

miteinander vergleichen zu können (Abb. 22).

Die dritte Phase beschreibt die Entwicklung des Data Mining-Modells und die Interpretation

der Ergebnisse. Trotz deutlicher Fortschritte bei den Data Mining Werkzeugen bleibt hier

eine Beratung und ein Einsatz von Spezialisten vielfach erforderlich. Insofern ist diese Phase

iterativ: Der Data Mining-Experte leitet das Modell ab und verfeinert es in enger

Rückkopplung mit dem das Projekt führenden Fachbereich. Die Verantwortung des

Page 74: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 74

Fachbereiches ist die Interpretation der Ergebnisse und das Prüfen auf fachrelevante

Verwendbarkeit und Einsetzbarkeit. Die Data Mining-Vorgehensweise sollte als

Methodologie dokumentiert sein, visuell unterstützt sein (Abb. 23) und der resultierende

Data Mining-Prozess sollte am besten ein SOA-basierter Prozess sein.

Abbildung 23: Modellierung von Data Mining-Prozessen, hier als Beispiel die Visualisierung des Teilprozesses „create data mart“ bei Viscovery.

Bisher dauerte die Modellbildung mehrere Tage bis zu Wochen. Dadurch war man in der

Anzahl der einsetzbaren Modelle beschränkt. Konsequenterweise wurden dann

Aufgabenstellungen zu Gruppen zusammengefasst und alle Gruppenelemente mit einem

Data Mining-Modell bearbeitet. Besser ist es natürlich, wenn man Modelle schneller

erzeugen kann, so dass jedes Modell feiner gemacht werden kann.

Beispiel: Ein Clustering-Modell für eine Kundensegmentierung erstellt für ganz

Deutschland ist zwar gut, wenn wir aber ein Modell pro Bundesland oder pro

Regierungsbezirk erstellen können, dann haben wir in der Regel ein feineres Modell,

da es die regionalen Unterschiede in der Demographie besser herausarbeitet und so

nachweislich bessere Ergebnisse liefert. Das bedeutet jetzt, dass wir in der Lage sein

müssen, eine große Zahl von Modellen in der gleichen Zeit zu erstellen. Wenn wir

jetzt noch die zeitliche Dimension des Modells betrachten, vergrößert sich die Anzahl

der zu entwickelten Modelle nochmals. Modelle ändern sich nämlich in der Regel

Page 75: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 75

über die Zeit. Ein Modell zu Ostern kann ganz anders aussehen als eins zu

Weihnachten oder in der Ferienzeit oder wenn ein Mitbewerber eine Kampagne fährt.

Die Anforderung ist also, in einem vorgegeben Zeitfenster (1 bis 2 Tage) viele

(hunderte und mehr) Modelle zu erstellen.

Die große Zahl von Modellen gilt es jetzt zu managen. Ein Data Mining-Modell-Management

war zwar schon immer erforderlich, aber bei den großen Zahlen von Modellen, die heute

zum Einsatz kommen, ist das Modell-Management wichtiger denn je.

Die vierte Phase beschreibt den Einsatz des prädiktiven Modells in einem operativen

Prozess. Bisher waren der Data Mining-Modellierungsprozess und der Einsatz des

abgeleiteten prädiktiven Modells strikt voneinander getrennt. Die Einbettung des prädiktiven

Modells geschieht heutzutage per (Web) Service in den entsprechenden SOA-basierten

Prozess. Wenn die Modellierung aber immer noch off-line erfolgt, haben wir mitunter ein

Problem: Man weiß nicht, ob nach einiger Zeit das im operativen Prozess eingesetzte

prädiktive Modell noch gültig ist, wie wir im Beispiel oben schon beschrieben haben. Es

genügt also nicht, die prädiktiven Modelle einmal oder regelmäßig abzuleiten, sondern man

muss auch sicherstellen, dass das prädiktive Modell selbst dynamisch den Kontext des

Prozesses abbildet: Es muss à jour sein.

Dazu setzt man ein Modellmanagement ein, das den Prozess der Modellbildung mit dem

operativen Prozess, der das Modell nutzt, per Closed-loop zusammenschließt. Hier sind

robuste oder adaptive Algorithmen hilfreich.

Robuste Algorithmen sind in der Lage, die Präzision der Prädiktion bei jeder Interaktion

zu messen. So kann man entdecken, wenn eine Modelländerung oder Anpassung

notwendig wird. Damit kann man einen (semi-)automatisierten Prozess aufbauen, der

das Re-Modellieren des prädiktiven Modells automatisch triggert, also beispielsweise

eine Benachrichtigung an den Data Mining-Spezialisten sendet.

Adaptive prädiktive Modelle sind selbst lernend und liefern im Kontext des

Prozessdatenmodells immer aktuelle Prognosen. Mit diesen automatisierten und

dynamischen Data Mining-Lösungen lassen sich Prognosen über beliebige Aspekte von

Kunden erstellen, zum Beispiel über die Churn-Gefahr, den Kundenwert oder auch die

Umsatzerwartung. Solche Lösungen sind auch zur dynamischen Cross- und Up-Selling-

Prognose in Prozessen mit sehr kurzen Reaktionszeiten einsetzbar, wie etwa im

Telefonmarketing oder auch im E-Commerce. Positive Erfahrungen mit dynamischem

Data Mining hat bereits der Versandhändler Quelle GmbH zur Optimierung seiner

Telephonmarketing-Aktionen gemacht.

Schließlich muss der Data Mining-Prozess wie jeder andere Prozess auch ein Performanz-

Management haben. Es gilt also im Prozess die Messstellen zu definieren, die Metriken zu

entwickeln und den Data Mining-Prozess genau wie jeden anderen Prozess per Closed-loop-

Ansatz zu überwachen und zu steuern.

Page 76: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 76

Zum Schluss noch ein wichtiger Leitsatz, der für alle Data Mining-Aufgaben gilt: Die

Präzision der Ergebnisse als auch die mathematische Eleganz bestimmter Data Mining

Techniken sollten weniger wichtig bewertet werden, als die Geschwindigkeit, mit der

Ergebnisse erzielt werden können.

5.5 Textanalytik

Textanalytik ist eine neue Klasse von Analytik17, die linguistische Verfahren mit

Suchmaschinen, Text Mining, Data Mining und Algorithmen des maschinellen Lernens

verbindet. Treiber für Textanalytik sind insbesondere das Big Data und die sozialen Medien.

Die Nutzer von Facebook, Xing, LinkedIn oder anderen Netzgemeinschaften („Social

Web“) zählen nach Hunderten von Millionen. Ihre Anzahl wächst beständig. Dazu

kommen die vielen, meist spezialisierten Blogs und Foren. Nicht zu vergessen sind

Plattformen wie Twitter, die ein Miniblogging erlauben. Das unterstreicht die

Attraktivität des Web 2.0, des Mitmach-Webs, bei dem jeder Surfer mitmachen und

seine Meinungen, Stimmungen und Vorlieben mitteilen kann. Der Marktforscher, der

Produktmanager und jeder im Marketing sieht aber noch etwas ganz Anderes: die

neue Dimension an Daten über aktuelle und zukünftige Kunden, über Potenziale,

Stimmungen, und Trends im Markt.

Denn jeder Internaut kann jetzt in den Social Media auch seine persönlichen Daten

mit allen anderen teilen. Das Teilen und Teilhaben lassen ist in den Social Media der

große Renner. Mitunter meint man, man hat es in den Netzgemeinschaften mit

„digitalen Exhibitionisten“ zu tun: So freizügig werden persönliche und ganz

persönliche Daten eingestellt. Das ergibt für die Marketer in den Unternehmen einen

wahren Schatz an Information, den es nur noch zu heben gilt.

Vor einigen Jahren haben schon Unternehmen aus der Telekommunikation begonnen,

Web-Daten systematisch auszuwerten. Inzwischen sind nicht nur Banken und

Versicherungen hinzugekommen, sondern auch Händler und Konsumgüterhersteller machen

das – aber niemand spricht gerne darüber. Man will seinen Kunden nicht gerne sagen, dass

man inzwischen eine nahezu gläserne Transparenz geschaffen hat. Der Nutzen dieser

Transparenz durch Web-Daten liegt auf der Hand: Ein Hersteller von Konsumgütern will

beispielsweise wissen, wie Konsumenten sein Angebot und/oder das Angebot seiner

Mitbewerber in den einschlägigen Blogs diskutieren. Oder eine Hotelkette interessiert sich für

das elektronische Feedback ihrer Gäste und/oder für die Bewertungen der Mitbewerber.

Alles wird möglich, wenn all diese Daten zugreifbar und auswertbar werden. (Abb. 24)

Als erstes braucht man dazu einen „Staubsauger“, der die relevanten Daten aus dem Web

im wahrsten Sinne des Wortes absaugt. Das leisten heute die semantischen Web-Crawler.

Diese Technologie zur Webextraktion erlaubt, alle öffentlichen Daten im Web zu lesen und

zu extrahieren, auch wenn es keine publizierten Schnittstellen geben sollte. Wir beschreiben

diese Technologien in Kap. 6.4.

17

Quelle und weitere Infos : http://www.intelligententerprise.com/blog/archives/2007/02/defining_text_a.html

Page 77: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 77

24 © 2012 S.A.R.L. Martin

Textanalytik und Prozesse

kollaborativer Geschäftsprozess

Composite/Mashed Application

Text-

Analytik

Textanalytik-

Modelle

Dynamischer Datenzugriff

Regel-Maschine

Datenintegration

(Web) Services

Externe/Web-

DatenOperative

Daten

Data

WarehouseFiles, XML,

SpreadsheetsEvents &

Services

Abbildung 24: Der Textanalytik-Prozess zur Modellbildung beginnt mit der Datenbereitstellung, die über dynamische, service-orientierte Datenzugriffe auf alle verfügbaren Datenquellen per Datenintegrationsplattform erfolgen sollte. Das (sehr) große Datenvolumen („Big Data“) erfordert eine hohe Performanz und Skalierbarkeit der Algorithmen sowie die Handhabung von bis zu tausenden von Variablen. Die Modellnutzung erfolgt idealerweise durch die Einbettung des abgeleiteten Textanalytik-Modells mittels einer Regelmaschine in die relevanten Geschäftsprozesse. Das ist dann besonders schnell und flexibel möglich, wenn eine service-orientierte Architektur vorliegt (mittels Rule-Services, siehe Kap. 4.3). So erhalten wir durch Textanalytik angereicherte intelligente Prozesse. Beispielsweise kann jetzt ein Kunde einem sozialen Profil zugeordnet werden und so ein sehr gezielte Kaufempfehlung ausgesprochen werden.

Jetzt kommt es auf die Analyse an. Die klassischen Verfahren aus Statistik und Data Mining

greifen hier aber zu kurz, da Web-Daten in der Regel unstrukturiert, bestenfalls semi-

strukturiert sind. Die neuen Anforderungen, Web-Daten zu analysieren, hat eine neue Klasse

analytischer Werkzeuge und Verfahren in den Fokus des Managements gebracht: die

Textanalytik („text analytics“). Die Anforderungen der Social Media-Daten an die Analyse-

Werkzeuge sind hoch. In den sozialen Medien findet man viel Zynismus, Sarkasmus und

Polemik. Dazu kommt noch eine semantische Armut in den 140-Zeichen Tweets.

Da gut 80% aller Daten im Unternehmen nicht in Datenbanken gespeichert sind, sondern in

Form von E-Mail und Dokumenten in unstrukturierter Form vorliegen, eignet sich Textanalytik

nicht nur zur Analyse von Web-Daten, sondern auch von Unternehmensdaten. Man findet ja

meistens in den E-Mails und in den entsprechenden Dokumenten den Kontext, der zur

richtigen Interpretation von strukturierter Information führt. Insofern leistet die traditionelle

Business Intelligence mit OLAP, Statistik und Data Mining das Erkennen des „was“ im

Unternehmen, während aus den Text-Daten das „wie“ gefolgert werden kann.

Page 78: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 78

Textanalytik ist eine Erweiterung von Analytik, insbesondere von Data Mining und Text

Mining und bringt Analytik ins Content Management und ins World Wide Web.

Textanalytik meint sowohl die Technologie als auch den Prozess zur Wissensentdeckung in

unstrukturierten Daten. Ziel von Textanalytik ist es in einem ersten Schritt, Entitäten

(beispielsweise Namen, Daten, Orte, Bedingungen) und ihre Attribute sowie die

Beziehungen, Konzepte und Stimmungen zwischen Entitäten trennscharf zu identifizieren. In

einem zweiten Schritt lassen sich auf diesen Strukturen Klassifikationen aufbauen und

visualisieren. Ein Beispiel hierzu ist die Identifikation von Meinungsmachern in sozialen

Netzen.

Beispiel: Nehmen wir eine fiktive Telefongesellschaft. Nehmen wir an, dass einer

seiner Mitbewerber einen aggressiven Familienplan anbietet. Der Kundenservice

bekommt auf einmal Nachfragen zu diesem Mitbewerbsangebot. Wie bekommt man

das als das Marketingteam mit? Schnell ist der Kundenservice überfordert. Bis zu

10% aller Anfragen drehen sich um dieses Mitbewerbsprodukt. Berge von Notizen

türmen sich im Kundenservice, vielleicht sogar weltweit. Wenn jetzt die

Telefongesellschaft eine Technologie hätte, um Notizen im Kundenservice

regelmäßig auf auffällige neue Muster zu untersuchen, dann wäre dieser Angriff eines

Mitbewerbers schnell entdeckt und Marketing könnte rechtzeitig reagieren. Mehr

noch, man könnte nicht nur interne Daten so kontinuierlich analysieren, sondern auch

externe wie beispielsweise in sozialen Netzen, wo über neue innovative Technologien

und Produkte gerne diskutiert wird.

Das Beispiel zeigt ein weiteres Einsatzgebiet von Textanalytik: Stimmungsanalysen.

Automatische Stimmungsanalyse („Sentiment Analysis, Opinion Mining“) aus Web Blogs,

Diskussionsforen und Produktbewertungen setzen bereits führende europäische

Marktforschungsunternehmen ein. Ziel ist es, im Rahmen der Online-Marktforschung

automatisch Stimmungsbilder über Produkte und/oder Unternehmen ihrer Kunden zu

erstellen wie beispielsweise zur Analyse von Meinungen zu bestimmten Hotelketten oder

Hotels, zu Consumer-Produkten wie Waschmitteln oder über technische Produkte wie

Mobiltelefone. Der jeweilige Hersteller bekommt dabei nicht nur Stimmungsbilder zu seinen

Produkten, sondern auch den Vergleich zu anderen Produkten von Wettbewerbern und die

Kennzahlen zum Controlling der Effektivität und Effizienz von Marketing-Maßnahmen sowie

Empfehlungen für bestimmte Marketingmaßnahmen. Gerade die Möglichkeiten von multi-

lingualen Analysen erlauben heute auch globale Analysen, wie beispielsweise eine Marke in

verschiedenen Ländern wahrgenommen wird.

Automatische Stimmungsbeobachtung spielt auch in der Pharmaindustrie eine Rolle, unter

anderem zur Stimmungsanalyse zu neuen Medikamenten, auch zur

Wettbewerbsbeobachtung und zum Monitoring des Ansehens eines Pharma-Unternehmens

selbst. Im Finanzbereich wird automatische Stimmungsanalyse eingesetzt, um in Texten

ausgedrückte Stimmungen/Meinungen zu bestimmten Wertpapieren/Aktien automatisiert zu

erkennen. Gute/schlechte Meinungen entsprechen dann beispielsweise Kaufs- bzw.

Verkaufsempfehlungen. Stimmungsanalysen werden auch schon in der Politik angewendet,

beispielsweise 2008 im Präsidentschaftswahlkampf in den USA.

Page 79: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 79

Textanalytik ist auch erfolgreich, wenn es um das Identifizieren und Abgrenzen von

kritischen Kunden, die sehr hilfreich beim Beseitigen von Produktschwachstellen sein

können, von notorischen Nörglern und Besserwissern geht.

Beispiel: BMW arbeitet aktiv mit Blogs. Man hat die Erfahrung gemacht, dass

Kunden in den Blogs zum Teil so positive Meldungen verbreiten, wie man sie als

BMW selbst nie in Werbesprüchen verwenden sollte. (Achtung: Das Gegenbeispiel ist

Sony, die versuchten, Blogs zu manipulieren. Als das bekannt wurde, war der

Schaden groß.) Für die Käufer der M-Modelle hat man die BMW M Power World

geschaffen, ein soziales Netz, bei dem es rund um das sportliche Fahren geht. Hier

werden die Kunden auch eingeladen, sich mit BMW Entwicklern und Designer

auszutauschen. Der Kunde wird zum Produktentwickler – Web 2.0 pur!

BMW hat so eine Web 2.0-Vorwärts-Strategie: Die Möglichkeiten des Web 2.0 sind Teil der

CRM-Strategie. Die Alternative ist eine passive Strategie des Beobachtens ausgewählter

Blogs und Foren per Textanalytik, um kritische Situationen und Stimmungsänderungen

möglichst rechtzeitig mitzubekommen. Das funktioniert zwar, aber die Maßnahmen, die man

im Falle des Falles ergreifen kann, sind beschränkt. Blogeinträge lassen sich nicht löschen,

denn sollte man es wirklich schaffen, einen Blogeintrag per Gerichtsbeschluss zu löschen,

dann taucht der garantiert nicht nur an einer anderen Stelle wieder auf. Das Prinzip „semper

aliquid haeret“ ist in Social Media unerbittlich.

Textanalytik wie jede Analytik sollte stets mit einem Performance Management verbunden

sein ganz im Sinne des bekannten Leitsatzes: Man kann nur managen, was man auch

messen kann. Benötigt werden unter anderem Metriken zur Berechnung der Relevanz von

Quellen und der Vernetzung von Quellen, Scorecards zum Visualisieren und Verdichten der

Monitoring-Ergebnisse und schließlich auch ein Reporting, insbesondere ein Ausnahme-

Reporting, um automatisch Auffälligkeiten in den Social Media wie ein Anstieg von Tags, von

Autoren, von Threads etc. anzuzeigen. Anbieter zu Textanalytik finden Sie im Kapitel 9.4.

Auch wenn Textanalytik-Lösungen dem Namen nach als Komplettlösungen daherkommen,

heißt das nicht, dass diese „Produkte“ out of the box einsatzbereit sind. Textanalytik stellt im

Moment ein arbeitsintensives und sehr lohnendes Feld für Berater dar. Eine individuelle

Beratung ist notwendig, bis einerseits die Unternehmen entsprechende Kenntnisse

aufgebaut haben, und andererseits die Hersteller ihre Tools soweit standardisiert und

parametrisiert haben, dass die Anwender damit aus vordefinierten Bausteinen bestimmte

Klassen von Lösungen erstellen können. Zudem stellt sich auch in der Textanalytik ein

ähnliches Problem wie in Data Mining: Die Interpretation der Ergebnisse erfordert ein tiefes

Fachwissen. Denn mittels mathematischer Verfahren gefundene Strukturen und

Beziehungen sind zwar faktisch richtig, aber solche Fakten müssen nicht unbedingt etwas

mit der realen Welt zu tun haben. Das gilt ganz besonders für gefundene Fakten auf Basis

von Web-Daten, denn Bewertungen können aus Freundschaft erfolgt sein, Meinungen in

Blogs können manipuliert und Profile in sozialen Netzen auch frei erfunden sein. Daher ist es

ganz wichtig, die durch Textanalytik gefundenen Fakten als Hypothesen auf Plausibilität zu

testen. Das ist heute noch in den meisten Fällen dem Menschen/Berater vorbehalten.

Beratung ist aber auch deshalb notwendig, weil wir uns mit Textanalytik in Neuland begeben.

Es fehlen Best Practices für die Prozesse und die Governance. Wie werden beispielsweise

die Web-Daten in die bestehenden Daten integriert? Wie gelangen die relevanten

Page 80: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 80

Ergebnisse von Textanalytik an die richtigen Personen im Unternehmen? Und Kern-Fragen,

wie man auf bestimmte gefundene Muster und Strukturen reagieren soll, lassen sich heute in

manchen Fällen noch gar nicht beantworten. Hier müssen wir erst noch eine ganze Menge

lernen.

5.6 Location Intelligence – Die Bedeutung des „Wo“

Unter Location Intelligence versteht man die geographische Dimension von Business

Intelligence. Location Intelligence nutzt geographische Daten, die beschreiben „Wo“ sich ein

Kunde, ein Lieferant, ein Partner, ein Unternehmen oder ein Produkt befindet oder eine

Dienstleistung vollbracht wird. Sie beschreibt die Fähigkeiten, komplexe Phänomene zu

verstehen und zu organisieren mittels geographischer Beziehungen, die sich in nahezu jeder

Information befindet wie in Adressen und Routen. 80% der Information im Unternehmen

haben ex- oder implizit etwas mit Ortsangaben, dem „Wo“ zu tun.18 Durch die Kombination

geographischer und raumbezogener Daten mit anderen Business-Daten lassen sich

zusätzliche Einsichten gewinnen, so dass bessere Entscheidungen getroffen und

Geschäftsprozesse optimiert werden können.

Die Vorläufer zu Location Intelligence sind geographische Informationssysteme (GIS). Ein

GIS war in der Regel eine generische, abteilungsbezogene Nischenapplikation, die von

wenigen Experten verstanden und genutzt wurde. Location Intelligence bezieht sich auf das

gesamte Unternehmen und ist prozess- und marktbezogen. Sie adressiert prinzipiell jeden

Mitarbeiter im Unternehmen.

Location Intelligence kombiniert Technologie, Daten und Services mit Fachwissen, um

Organisationen in die Lage zu versetzen, ihre Geschäftsdaten auch räumlich geographisch

zu messen, zu vergleichen, zu visualisieren und zu analysieren.

Mit Location Intelligence verfolgt man das gleiche Ziel wie mit Business Intelligence: Aus

Daten soll Information, aus Information Wissen und aus Wissen sollen Entscheidungen und

Aktionen zur Steuerung des Unternehmens gewonnen werden (Abb. 25). Als Konsequenz

folgt, dass Location Intelligence sowohl bei rein analytischen, dispositiven Fragestellungen

eingesetzt werden kann als auch operativ, sogar in Echtzeit in Geschäftsprozesse

eingebettet werden kann. Daher wird heute Location Intelligence genau wie Analytik per

Services angeboten, um IT-mäßig diese beiden Aufgabenbereiche dispositiv und operativ

gleichermaßen abdecken zu können.

Beispiele für dispositive Location Intelligence sind Netzwerk-Planung und -Design in

Branchen wie Versorgung (Wasser und Elektrizität), Telekommunikation und IT,

Stadt- und Standortplanung und -Analyse (Öffentliche Verwaltung,

Gesundheitswesen, Banken, Handel und Touristik), Risiko-Management

18

Siehe

http://www.intelligententerprise.com/print_article.jhtml;jsessionid=SFANAIHXNPWYMQSNDLOSKH0CJUNN2JVN

?articleID=181503114

Page 81: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 81

(Versicherungen) und Markt- und Kundenanalysen (alle Branchen im B2C). Beispiele

für operative Location Intelligence findet man vor allem im

Kundenbeziehungsmanagement (Neukundengewinnung, Cross-/Up-Selling und

Kundenbindung) und in vielen Branchen wie Versicherung (Schadensmanagement,

Risiko-Management) und Transport (Pannen- und Rettungsdienste sowie Tracking

und (Echtzeit-)Routen-Management).

Abbildung 25: Daten-Analyse im Positionskontext von Landkarten mit Cubeware Cockpit V6pro: Besonders gut einsetzen lässt sich diese im Vertrieb, um beispielsweise Umsatzvergleiche, Varianten und Zeitreihenanalysen, zeitliche Betrachtung von Betreuungs- und Versandstrukturen sowie Abweichungsanalysen geografisch und gebietsbezogen durchzuführen. Im Screenshot zu sehen ist eine ABC-Analyse interaktiv über die Postleitzonen einer Deutschlandkarte visualisiert. Durch die Karte wird ersichtlich, dass die sich nicht so gut entwickelnden Regionen (Kategorie C der ABC-Analyse) geographisch zusammenhängen.

Wie die Beispiele zeigen, hat operative Location Intelligence vor allem auch ein hohes

Potential bei mobilen Diensten, denn hier kommt es ja ganz besonders auf das „Wo“ an.

Die Datenquellen für Location Intelligence sind vielfältig. Es beginnt bei den eigenen

Kundendaten und geht weiter zu externen Datenquellen wie kunden-demographischen

Daten, Luft- und Satellitenbildern und geographischen Daten. Das unterstreicht die

Bedeutung von Service-Orientierung für Location Intelligence. Das Mashing-up von

Information aus unterschiedlichen Quellen und die Kombination mit anderen Business-Daten

bringen den Mehrwert. Das funktioniert umso besser, wenn die geographische Information

als Web Services oder andere standardisierte Services angeboten werden. Das ist heute in

Page 82: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 82

der Regel der Fall: Das Nutzen von Location Intelligence als neue Dimension zu Business

Intelligence wird so einfacher und schneller. Der besondere Nutzen, der durch Location

Intelligence erreicht werden kann, wird deutlich, wenn man kundenzentrischen Daten eine

räumliche Koordinate zuordnet, und damit in die Lage versetzt wird, den Kundenstamm

räumlich darzustellen. Allein hierin liegt bereits ein enormes Wertsteigerungspotential.

© 2012 S.A.R.L. Martin26

Location Intelligence Services

Predict

Abbildung 26: Location Intelligence besteht aus geographischen Informations-Services, die unterschiedliche Sichten auf die „reale Welt“ geben wie beispielsweise Straßen-, Parzellen-, Nutzungs- und Höhen-Information, die dann mit Kundeninformation kombiniert werden können. Location Intelligence-Prozesse beschreiben das Mashing-up der geographischen Informations-Services in den Phasen Lokalisieren, Visualisieren, Analysieren, Planen und Vorhersagen.

Die Werkzeuge von Location Intelligence sind die Verortung von Daten (Geocodierung),

beschreibende Kartographie, Visualisierung und die analytische Kartographie bis hin zu

Vorhersagemodellen (prädiktiv). (Abb. 26) Entscheidend ist hier die Interaktivität und

Intuitivität. Wenn man von einer Karte spricht, denkt man immer noch an ein statisches

Dokument. Das ist nicht vergleichbar mit interaktiven Kartierungen von heutigen Location

Intelligence-Werkzeugen. Die Interaktivität macht auch hier das menschliche Auge zum

Detektor von bisher unbekannten Mustern, Trends und Strukturen, die sich durch die

Kombination von räumlichen und Business-Daten ergeben. Insofern bieten die Location

Intelligence-Werkzeuge auch ein mächtiges Komplement zu Data Mining und statistischen

Auswerteverfahren. Auf das „Wo“ kommt es eben bei Business Intelligence ganz besonders

an, im Dispositiven und im Operativen: Location matters!

Page 83: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 83

5.7 Social Business Intelligence

Social Business Intelligence (Social BI) meint eine Erweiterung von Performance

Management und Analytik um Social Media-Funktionalität und Kollaboration, um

Wissensmanagement, um neue Technologien (Web- und Cloud-Integrationswerkzeuge,

analytische Datenbanken, Textanalytik) und um neue Anwendungsfelder (Social Media

Performance Management, Social Media Analytik). Schauen wir uns das jetzt genauer an

und fragen uns schließlich, wozu man das braucht und was der Nutzen ist.

Social Media-Funktionalität und Kollaboration. Social BI bringt eine kollaborative

Umgebung in BI und ersetzt, bzw. ergänzt das traditionelle BI-Portal. Facebook und andere

Social Media-Angebote haben hier Standards gesetzt: Es haben sich neue, intuitive

Benutzeroberflächen herausgebildet, die inzwischen jeder ohne jeglichen Schulungsaufwand

versteht und nutzen kann. Dazu kommt die neue Art der Kommunikation im Netzwerk. In den

Netzwerken läuft Kommunikation entlang der Netzwerkstrukturen. Es ist eine „viele zu viele“

Kommunikation, eben à la Facebook und Twitter. Das wird jetzt konsequent beim Nutzen

von BI-Werkzeugen umgesetzt. So lassen sich Berichte und Kennzahlen zum ersten Male

auch Autoren zuordnen. Sie lassen sich annotieren und diskutieren, ja auch Fragen zu den

Zahlen können gestellt werden. So kommt Wissen aus den Köpfen der Mitarbeiter in die BI-

Ergebnisse und schafft eine um ein Vielfaches höhere Transparenz. Die Zahlen stehen nicht

mehr isoliert in Tabellen oder Graphiken. Sie sind um semantische Aspekte erweitert. Damit

sind sie besser zu verstehen und umzusetzen, da die Interpretation in der Gruppe unter der

aktiven Mitwirkung aller Beteiligten geschieht („wisdom of the crowd“).

Social Media kommen auch mit einem völlig neuen Ansatz zum „Suchen und Finden“, denn

ein altes BI-Problem war das Auffinden von nützlicher Information. Welchen Report brauche

ich oder hatte jemand schon eine ähnliche Fragestellung? Zwar lassen sich solche Fragen

theoretisch über eine rigorose BI-Governance regeln, aber dann finden die Ergebnisse in der

Praxis oft keine Akzeptanz. In den Social Media gibt es hier Alternativansätze, die dem

„wisdom of the crowd“-Prinzip folgen. Es werden Reports und Kennzahlen von den

Abonnenten bewertet. So kommt man zu Top-Listen. (Abb. 27) Es werden die Abonnements

(wenn notwendig anonymisiert) ähnlicher Jobprofile angezeigt, beispielsweise könnte einem

Controller im Amazon-Stil vorgeschlagen werden, dass der Controller im Lande X auch noch

den Bericht Y intensiv nutzt. Daher sollte man überlegen, ob man den nicht auch abonnieren

wolle. Auf diese Weise wird über die Social Media-Werkzeuge und Konzepte eine BI-

Governance Bottom-up geschaffen. Die hat dann per se Akzeptanz, und so schafft man auch

nachgewiesener Maßen Motivation. Zu den Social Media-Verfahren zum Finden der richtigen

Information kommen dann noch state-of-the-art Suchverfahren dazu, mit denen man sowohl

Inhalte wie auch die entsprechenden Metadaten zum Finden nutzen kann.

Ein weiterer Aspekt ist hier auch „Mobile BI“. Eine korrekte, gerätekonforme Anzeige von BI-

Ergebnissen auf mobilen Geräten ist an sich schon nützlich, aber mobile BI meint mehr.

Gerade die Social Media sind auf das mobile Internet ausgerichtet. Das überträgt sich direkt

auf Mobile BI. Alle kollaborative Funktionalität ist also auch in der Regel über Apps mobil

verfügbar. So kann sich jeder, wo immer er sich auch befindet, an der Diskussion und

Interpretation der Zahlen beteiligen. Das gibt auch Anstöße zu neuen Analysen. Die

Kreativität aller Beteiligten wird gefördert und auch gefordert. Das Ergebnis ist ein „CDM“

(common decision making), also echte Teamarbeit.

Page 84: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 84

Abbildung 27. arcplan Engage als Beispiel zu Social-Media-Stil Report-Suche und Bewertung, oben: Ergebnis einer Suche, unten: Auswahl des 2. der oben angezeigten Reports „Bullet Graphs“.

Page 85: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 85

Wissensmanagement. Wissensmanagement hat zwei Aufgaben, den Wissenstransfer von

Person zu Person und die Dokumentation von Wissen. Es geht nicht nur darum Wissen in

die Köpfe der Mitarbeiter im Unternehmen zu bringen und dort zu halten, sondern vielmehr

auch darum, dieses Wissen zu extrahieren und für andere nutzbar zu machen. In der

Vergangenheit ist Wissensmanagement im Unternehmen in der Regel daran gescheitert,

dass die Werkzeuge dazu nicht die notwendige Akzeptanz fanden und Wissensmanagement

als eine lästige Pflicht empfunden wurde. Initiativen zum Wissensmanagement verliefen so

meistens im Sande. Mit dem Aufkommen der ersten Web 2.0-Werkzeuge hat sich das

geändert und Wissensmanagement kann heute die Akzeptanz finden, die man zur

Durchsetzung braucht. Am besten funktioniert es, wenn die Mitarbeiter gar nicht merken,

dass sie Wissensmanagement machen. Mit Wikis fing es an. Es sind gute Instrumente, wenn

es um gelebtes Wissensmanagement geht, so die Erfahrung inzwischen in vielen

Unternehmen, die in Richtung Enterprise 2.0 gegangen sind. Die Idee ist: jeder macht mit,

jeder trägt bei, das Unternehmen wird zur Community. Die Mitarbeiter treten in einen echten

Dialog ganz wie bei Facebook und anderen Social Media. Die heutigen Social Media-

Werkzeuge sind in diesem Sinne bestens geeignet für ein Wissensmanagement, das so ein

fester Bestandteil von BI-Prozessen wird: Unternehmenssteuerung wird so auf die Fakten

der Analytik und auf das Community-Wissen der Mitarbeiter gestellt. Man erreicht, was man

mit BI immer wollte, aber bisher nicht geschafft hat.

Neue Technologien. Eine BI-Architektur besteht aus drei Schichten (Abb. 28). Die oberste

Schicht war bisher die BI-Portal-Schicht, die jetzt als Social Media-Plattform neu definiert

wird. Darunter befinden sich die BI-Plattform mit den BI-Werkzeugen und darunter eine

Information Management-Schicht inklusive Extraktionswerkzeugen und Datenbanken. An

den beiden unteren Schichten ändert sich im Social BI nichts Grundlegendes, außer dass es

auf diesen beiden Schichten entscheidende Innovationen und Fortschritt gibt. Beginnen wir

unsere Diskussion mit der Information Management-Schicht.

Hier treibt uns das Thema Datenflut schon seit längerem. „Big Data“ haben wir ja schon

kennengelernt. Das bedeutet nicht nur ein riesiges Datenvolumen, sondern auch einen Mix

aus strukturierten und unstrukturierten Daten mit komplexen Beziehungen untereinander. Ein

Unternehmen verfügt bereits über große Mengen strukturierter (in der Regel rund 20% aller

Unternehmensdaten) und unstrukturierter Daten (die machen rund 80% aller

Unternehmensdaten aus). Eine wahre Flut von Daten wartet im Web auf uns. Die Quellen im

Web sind vielfältig: Portale, Web-Applikationen, Social Media, Videos, Photos und mehr,

eben Web-Content aller Art. Neben der schieren Datenflut ist die Unterschiedlichkeit und

Vielzahl der Quellen das zweite große Problem: Der Zugriff auf eine Quelle im Big Data ist

jedes Mal neu zu definieren: Die Konsequenz ist ein Zeit- und Ressourcenproblem.

Im Big Data steckt großes Potential in den Datenquellen. Aber aus den Daten Wissen zu

erzeugen ist nicht so einfach, denn ein solcher verwobener Mix aus riesigen,

unüberschaubaren und fragmentierten Daten macht es schwierig, die Daten zu identifizieren,

zu extrahieren, zu speichern, zu verwalten und zu analysieren. Hier braucht man neue

Ansätze und Technologien. Traditionelle IT-Werkzeuge zur Datenextraktion und Integration

helfen hier nicht wirklich weiter, wir brauchen Innovation in der Information Management-

Infrastruktur. Das bedeutet neue Werkzeuge, die uns eine agile Integration der

Unternehmens-, Web- und Cloud-Daten erlauben. Es geht um das schnelle und flexible

Erschließen und Nutzen aller relevanten Quellen im Big Data. Das bedeutet auch ein

Page 86: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 86

Extrahieren von Daten aus dem Big Data ohne APIs, denn nicht alle relevanten Quellen sind

ausreichend mit APIs ausgestattet. Wer als erster Wissen aus dem Big Data ziehen und

umsetzen kann, hat einen deutlichen Wettbewerbsvorsprung: Wissen ist Macht und Time-to-

Market ist entscheidend. Das meint auch die Gartner Group, die Organisationen mit einer

Information Management Infrastruktur für Big Data als zukünftige Markt-Outperformer sieht.19

Solche agilen Integrationswerkzeuge beschreiben wir in Kap. 6.4.

Traditionelle & agile

Web/Cloud/Enterprise-Extraktionswerkzeuge

Operative

DatenData

WarehouseFiles, XML,

Spreadsheets

Social Business Intelligence

28

Datenintegrations-Plattform

Social-Media-Arbeits-Stil

Präsentationsschicht

Traditionell

Info

rma

tio

n

Ma

na

ge

me

nt

Pe

rfo

rma

nce

Ma

nag

em

en

t

Go

ve

rna

nce

An

aly

tik

(Te

xta

na

lyti

k,

Da

ta D

isc

ov

ery

)

Pla

nu

ng

,

Bu

dg

eti

eru

ng

,

Ko

nso

lid

ieru

ng

Ko

lla

bo

rati

on

& S

uc

hen

Tra

dio

ne

lle

Bu

sin

es

s

Inte

llig

en

ce

Big Data Ereignisse

Services

Cloud Mobile

Wis

se

ns

-

Ma

nag

em

en

tanalytische Datenbanken

© 2012 S.A.R.L. Martin

Abbildung 28. Social Business Intelligence (Social BI) ist die konsequente Fortsetzung und Erweiterung von Analytik und Performance Management getrieben durch Big Data, mobiles Internet und Innovation in Analytik und Information Management. Neu ist auch Cloud Computing als IT-Bereitstellungsmodel für Social BI als PaaS oder SaaS (Platform oder Software as a Service).

Big Data treibt nicht nur die neue agile Web- und Cloud-Integration, sondern auch den

Einsatz innovativer Datenbank-Technologien, um die PetaBytes von Daten zu Analysen

auswerten zu können. Solche „Analytischen Datenbanken“ beschreiben wir in Kapitel 7.2.

Bei den BI-Werkzeugen gibt es im Social BI insbesondere in der Analytik neue Methoden

und Verfahren. Hier hat sich eine Evolution von Data Mining über Text Mining zu

Textanalytik vollzogen (vgl. Kap. 5.5) Treiber für Textanalytik ist insbesondere das Big Data.

Mit Textanalytik lassen sich Daten aus dem Big Data systematisch auszuwerten. So

bekommt man eine nahezu gläserne Transparenz. In der Verbindung mit den

Unternehmenskundendaten erhält man so nicht nur eine 360°-Sicht auf den Kunden, wie

19 Gartner Präsentation “The Grand Challenges of Information: Innovating to Make Your Infrastructure and Users

Smarter,” Bill Hostmann und Mark Beyer, Oktober 2010.

Page 87: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 87

immer im CRM gefordert, sondern sogar eine 360°-Sicht auf den gesamten Markt. Denn im

Big Data spiegelt sich ja der Markt mit allen Marktteilnehmern wieder.

Neue Anwendungsfelder. Analog den unterschiedlichen Aufgaben von Performance

Management und Analytik in der traditionellen BI gibt es nun im Social BI ein Social Media

Performance Management und eine Social Media Analytik.

Social Media Performance Management greift auf den Closed-loop-Ansatz von

Performance Management zurück, dem Monitoring und der Steuerung von Prozessen.

Insofern gibt es ein Social Media Monitoring, das sich inzwischen bereits in führenden

B2C-Unternehmen etabliert hat. Hier geht es um das Aufspüren, wo, wann und wie über ein

Unternehmen, eine Persönlichkeit, ein Produkt oder eine Marke geredet und diskutiert wird.

Auf Basis des Social Media Monitoring kann im nächsten Schritt ganz im Sinne des Closed-

loop eine Social Media Analysis und folgerichtig eine Social Media Interaktion aufgebaut

werden. Das Unternehmen kann jetzt auf relevante Beiträge sofort reagieren und

intervenieren. Das bringt Vorteile vor allem im Kundenservice oder bei der Einführung neuer

Produkte im Markt, da sich sofort eine Kommunikation mit Communities im Web aufbauen

und unterhalten lässt. Das hatten wir bereits in einem der Beispiele in Kap. 2.4 zum Nutzen

von Big Data diskutiert.

Fazit. Analytik und Performance Management hat sich mit den Social Media als Treiber sehr

stark weiterentwickelt. Die Benutzerschnittstelle wird jetzt Social Media konform, und damit

wird Analytik und Performance Management für jeden verständlich und nutzbar. Sie

unterstützt weiterhin sehr viel besser die kollaborativen Aspekte. Dadurch wird Analytik und

Performance Management gleichzeitig durch ein implizites Wissensmanagement ergänzt.

Neue analytische Methoden und Werkzeuge wie Textanalytik, agile Web- und Cloud-

Integration und analytische Datenbanken erweitern das Portfolio von analytischen Lösungen

insbesondere um Social Media Analytik und Social Media Performance Management. So

erreichen Unternehmen eine neue, bisher nicht machbare 360°-Sicht auf den gesamten

Markt, da die Daten im Big Data jetzt nutzbar, auswertbarbar und umsetzbar im Sinne der

Positionierung von Unternehmen, Persönlichkeiten, Marken und Produkten werden. So

lassen sich neue, bisher nicht erreichbare Umsatzpotenziale identifizieren und erschließen.

Page 88: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 88

6 Information Management

In der traditionellen BI wurde Information Management zum Thema, als es um das Füllen

und Auffrischen eines Data Warehouse ging. Die Lösung waren und sind Extraktions-,

Transformations- und Lade- (ETL) Prozesse. Die Zielsetzung war es, vertrauenswürdige

Daten zu schaffen. Das Data Warehouse wurde zum Ort dieser vertrauenswürdigen Daten

und stellte den „single point of truth“ dar.

In der Prozess-Orientierung und im Performance Management steigt die Bedeutung von

Information Management. Information Management ist jetzt die Grundlage, um Prozesse mit

Daten zu versorgen und um die Daten für Performance Management und Analytik – auch in

Echtzeit – zu liefern. Das ändert die Bedeutung eines Data Warehouse. Die

vertrauenswürdigen Daten entstehen jetzt im Information Management. Der „single point of

truth“ liegt jetzt in den Meta- und Stammdaten, wie wir jetzt zeigen werden.

6.1 Die Aufgaben von Information Management

Wie wir schon in Kapitel 3.1 gesehen haben, ist Information Management die Grundlage und

Voraussetzung für Prozess-Orientierung im Unternehmen und in Unternehmensnetzwerken,

in denen Lieferanten, Partner und Kunden mit dem Unternehmen zusammenarbeiten und

gemeinsame Prozesse betreiben. Schauen wir uns die Aufgabenbereiche von Information

Management im Einzelnen an:

Daten-Definition per Business-Vokabular. Das Business-Vokabular (auch „Business-

Glossar“ genannt) spielt die zentrale Rolle in einem prozess-orientierten Unternehmen,

denn Prozesse brauchen eine einheitliche gemeinsame Terminologie zur Modellierung

und Kommunikation mit allen an den Prozessen Beteiligten, den Mitarbeitern in den

Fachabteilungen und in der IT, aber auch den Lieferanten, Partnern und sogar den

Kunden. Das Business-Vokabular stellt so die Terminologie der gesamten Fachlichkeit in

einem Unternehmen und seinem Unternehmensnetzwerk dar. Daher kann man das

Erstellen eines Business-Vokabulars auch nicht in die IT delegieren. Wenn es fehlt, dann

herrscht Babylon. Ein bekannter Effekt ist auch auf der Vorstandsebene bekannt: Begriffe

wie Umsatz, Deckungsbeitrag oder Storno bedeuten in verschiedenen Fachabteilungen

etwas Verschiedenes und passen dann in der Top-Sicht nicht zusammen. Oder –

anderes Beispiel – die Frage „Wer ist unser Kunde?“ kann nicht zweifelsfrei beantwortet

werden. Hier helfen auch vorbelegte Business-Vokabulare, die Quasi-Standard-

Terminologien in verschiedenen Branchen als Start zum Aufbau des

unternehmenseigenen Business-Vokabulars anbieten.

Datenmodellierung. Die Beziehungen zwischen den fachlichen Begriffen eines

Unternehmens, die im Business-Vokabular definiert sind, werden per Datenmodellierung

in einem Datenmodell erfasst. So erhält man die Semantik eines Unternehmens. Daher

ist auch Datenmodellierung eine gemeinsame Aufgabe von Fachabteilungen und der IT.

Page 89: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 89

Meta- und Stammdaten-Management. Weil früher jede Applikation ihre eigenen Meta-

und Stammdaten hatte, sind wir in ein Fragmentierungsproblem gelaufen. Daher nutzt

man heute im Information Management Meta- und Stammdaten-Services, um die

isolierten Applikations-Stammdaten auf einheitliche, zentrale Stammdaten abzubilden,

die in einem Repository verwaltet werden. Das ist entscheidend, wenn es um die

Definition neuer Produkte, das Gewinnen neuer Kunden und/oder das Hinzufügen neuer

Lieferanten zum Geschäftsnetzwerk geht. Ein einfaches Update per Meta- oder

Stammdaten-Service synchronisiert sicher und zuverlässig alle betroffenen

Applikationen. Darauf gehen wir genauer im Kapitel 6.5 ein.

Datenqualitäts-Management. Datenqualität ist eine weitere Voraussetzung, um mit

Information Management erfolgreich zu sein. Datenqualität bezeichnet die

Bedeutsamkeit, Relevanz und Korrektheit von Daten und von Information. Eine Best-

Practice für Datenqualitäts-Management ist ein „Total Quality Management (TQM)“-

Ansatz: Baue Datenqualität vom Beginn an in die Prozesse ein. Das diskutieren wir in

Kapitel 6.6.

Datenintegration. Prozess-Orientierung erfordert durchgängige Prozesse. Daher

müssen Prozesse applikationsunabhängig sein: Sie verlaufen ja über die

Applikationsinseln und auch über Unternehmensgrenzen hinweg. Folglich müssen die

Schnittstellen mit den Applikationen und die Daten intern und extern integriert und

synchronisiert werden. Weitere Einzelheiten in Zusammenhang mit Performance

Management und Analytik geben wir in Kapitel 6.2

Daten-Klassifikation. Eine Datenklassifikation ist die Unterteilung von Daten in

Kategorien anhand eines Merkmals, so dass Daten innerhalb einer Kategorie die gleiche

Eigenschaft teilen. Daten-Klassifikationen lassen sich Bottom-up mittels Data/Text

Mining-Verfahren finden. Sie können aber auch Top-down aus bestimmten

Unternehmenszielen abgeleitet werden. Das findet besonders bei Storage-Strategien und

im Life Cycle Management Anwendung.

Beispielsweise kann bei einer solchen Top-down-Datenklassifikation eine Kategorie

„Vertraulichkeit“ gebildet werden, die dann aus Klassen wie „streng vertraulich“,

„vertraulich“, „intern“ und „öffentlich“ bestehen könnte. Andere Kategorien in diesem

Beispiel könnten sein Verfügbarkeit, Aufbewahrungsfrist, Revisionssicherheit etc.

Daten-Sicherheit und Schutz. Schließlich gilt es die gesetzlichen Regelungen zu

respektieren und auch technisch umzusetzen, die die vom Unternehmen gespeicherten

Daten vor unberechtigter Nutzung, Missbrauch und Weitergabe schützen. Analog zur

Datenqualität empfiehlt sich auch hier der TQM-Ansatz: Datenschutz und Sicherheit

sollte von vorneherein in alle Prozesse mit eingebaut sein.

Content Management (Web, Rich Media). Der weitaus größere Teil der

Unternehmensdaten ist unstrukturiert (Dokumente, Verträge, Briefe, Memos, E-Mail,

Bilder, Grafiken, Zeichnungen, Videos, Audios etc.). All diese Typen von Information sind

gleichermaßen zu managen. Eine Information Governance muss daher allumfassend

sein.

Page 90: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 90

Fazit: Information Management schafft vertrauenswürdige Daten. Es löst das Problem der

Fragmentierung von Daten und ist so die Voraussetzung für Prozess-Orientierung. Es ist

eine gemeinsame Aufgabe von Business und IT, die – weil kritischer Erfolgsfaktor für

Industrialisierung, Agilität und Compliance – absolute Chefsache ist.

6.2 Datenintegrationsplattform

Definition: Datenintegration ist definiert als das Zusammenführen von Daten aus

verschiedenen Datenquellen mit in der Regel unterschiedlichen Daten-Modellen und

Strukturen in ein gemeinsames einheitliches Datenmodell.

Anfangs war Datenintegration im Kontext der traditionellen BI nichts anderes als die

Datenversorgung eines Data Warehouse über ETL-Prozesse. ETL-Prozesse laufen

entweder über einen Stapelprozess und / oder, wenn die Versorgung zeitkritisch wird, per

Message / Queuing. Das ist und bleibt weiterhin eine Anforderung, aber jetzt brauchen wir

noch mehr. Wir brauchen Informations- und Datenservices (Abb. 13), die simultan Daten aus

dem Data Warehouse und operativen Systemen mittels einer Datenintegrationsplattform per

Mashing-up bereitstellen (Abb. 3). In der Vergangenheit hat man versucht, dieses

zeitkritische Datenzugriffsproblem mit einem ODS (operational data store) zu lösen. Doch

der ODS-Ansatz ist nicht immer ausreichend, weil die Speicherung von Daten im ODS an

sich schon Zeit beansprucht, und mitunter sind Geschäftsregeln, die man zur Berechnung

komplexer Metriken braucht, zum Teil in der Applikationslogik verborgen und auf der

Datenebene nicht verfügbar.

Ein Data Warehouse ebenso wie ein ODS sind Beispiele physischer (oder materialisierter)

Datenintegration. Die Daten werden mittels der ETL-Prozesse in das Zielmodell

transformiert und in eine zentrale Datenbasis kopiert, wo sie dann für rein lesende

Verarbeitungen, beispielsweise Performance Management und Analytik zur Verfügung

stehen. Neben der physischen Datenintegration gibt es auch eine virtuelle

Datenintegration, auch föderiertes Informationssystem genannt, bei der die Integration erst

bei einem Datenzugriff stattfindet. Kern eines föderierten Informationssystems ist ein

kanonisches Schema. Es stellt einerseits die Schnittstelle zu den Quelldaten und deren

Datenmodellen dar und bietet andererseits zugreifenden Services mittels Informations-

Services eine integrierte globale sowohl lesende wie auch schreibende Schnittstelle zu den

föderierten Daten.

Virtuelle Datenintegration ist für Echtzeit-Analytik bestens geeignet und erlaubt eine

Nulllatenz-Datenintegration, i.e. die Analytik arbeitet synchron mit den Transaktionsdaten.

Eine solche Lösung ist wegen der Performanz-Anforderungen an die notwendige Netzwerk-

und Hardware-Infrastruktur aber eine teure Lösung, die man in bestimmten analytischen

Fragestellungen auch gar nicht braucht. Eine preiswertere Lösung ist dann eine Niedrig-

Latenzlösung mittels einer physischen Datenintegration (Abb. 29). Wesentlich ist es also,

herauszufinden, welche Latenz in einem gegebenen Prozess toleriert werden kann, denn die

Page 91: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 91

Latenz ist ja mit Kosten gekoppelt: je niedriger die tolerierte Latenz, umso höher werden die

Kosten.

© 2012 S.A.R.L. Martin29

Daten-Latenz

OLTP System

OLTP System

OLTP System

OLTP System

OLTP System

OLTP System

OLTP System

Daten-Integrations-Plattform LLDM

Enterprise Information Integration (EII)

Echtzeit-

Analytik

Echtzeit-

Analytik

Echtzeit-

Datenpropagation

Daten oder Ereignisse

„zero-latency“

„low-latency“

Abbildung 29: Echtzeit-Datenintegration kann als Niedrig- oder Nulllatenzlösung aufgesetzt werden. Die Niedriglatenzlösung arbeitet mit einem Low Latency Data Mart (LLDM), der transaktionssynchrone, aber um die Latenzzeit verzögerte Daten für BAM/PPM Lösungen enthält. Die Nulllatenzlösung (EII) besteht aus einem transaktionssynchronen Zugriff auf heterogene und verteilte OLTP-Daten. (OLTP = Online Transaction Processing). Mittels Echtzeit-Daten-Propagation werden operationale Systeme mit prozessübergreifenden Metriken über eine Datenintegrationsplattform getriggert.

Im Niedriglatenz-Modell werden die relevanten Transaktionsdaten und analytischen Daten in

einem so genannten „Low-Latency-Data-Mart“ (LLDM) speichert. Das erfordert eine

Integration der Datenintegrationsplattform mit dem Enterprise Service Bus (ESB), der die

Transaktionen quer über die operativen Applikationen managt. Der LLDM wird entweder

durch Message / Queuing oder durch Stapelläufe aufgefrischt, wobei der Stapellauf in kurzen

Zeitabständen entsprechend der tolerierten Latenz ausgeführt wird (z.B. stündlich). Ein

LLDM bietet sich zur Niedriglatenz-Datenpropagation an. Das ist eine

Rückkopplungsschleife, um Ereignisse in operativen Systemen durch prozessübergreifende

Metriken auszulösen. Diese Kopplung mit operativen Systemen verlangt, dass die

Datenintegrationsplattform wie ein ESB gemanagt werden muss: Die

Datenintegrationsplattform ist ein operatives System.

Dieses Modell unterscheidet sich von einem „Operational Data Store“ (ODS), wo Daten aus

operationalen Datenbanken durch ETL-Prozesse gespeichert werden. Deshalb ist

Transaktionslogik, die nicht in operationalen Datenbanken gespeichert wurde, nicht im ODS

gespeichert. Darüber hinaus ist ein ETL-Prozess nicht mit den Transaktionen synchronisiert,

Page 92: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 92

i. e. die ODS-Daten sind nicht immer auf dem Stand der Transaktionen. Das unterstreicht die

Forderung nach einem LLDM, vor allem wenn Legacy-Systeme im Einsatz sind.

Das Null-Latenz-Modell wird auch als EII (enterprise information integration) bezeichnet.

EII kann verstanden werden als eine Schicht für logischen Datenbankzugriff, die sich über

alle operationalen Datenbanken und das Data Warehouse erstreckt. Der Zugriff erfolgt

vielfach per XML, und die EII setzt die Datenanforderung in verschiedene SQL-Abfragen für

die entsprechenden Datenbanken um und transformiert die Daten so, dass die angeforderten

Daten als Informations-Services publiziert werden. Natürlich kann ein Informations-Service

als Web Service publiziert werden.

6.3 Informations-Services

Wir haben Informations-Services bereits als ein Service-Modell von SOA-Services

kennengelernt (Abb. 13). Zu bemerken bleibt aber, dass Informations-Services nicht nur in

einer SOA Sinn machen, sondern auch solchen Unternehmen grossen Wert bringen, die

unter dem Problem der Datenfragmentierung leiden. (Daten befinden sich einzementiert in

Datensilos wie in isolierten Applikationen oder isolierten Datamarts.) Beginnen wir mit einer

detaillierteren Definition von Informations-Services.

Definition: Ein Informations-Service ist ein modularer, wiederverwendbarer, wohl-

definierter, fachlich-relevanter Service, der den Zugriff, die Integration und die rechtzeitige

Bereitstellung von strukturierten und unstrukturierten, internen oder externen Daten

unternehmensweit und unternehmensübergreifend ermöglicht. Ein Informations-Service ist

entweder ein Metadaten-, Stammdaten- oder ein Daten-Service.

Nach der Definition eines Informations-Service ist jetzt der nächste Schritt, ausgehend vom

Bedarf der Informationskonsumenten die verschiedenen Kategorien von Informations-

Services und ihre Architektur zu beschreiben. (Abb. 30)

Universelle Datenzugriffs-Services: Datenzugriffs-Services bestehen aus den Basis-

“CRUD” Services (“create, read, update und delete) für alle Backend-Systeme,

strukturiert oder unstrukturiert, intern oder extern. Datenzugriffs-Services ermöglichen

auch einen Null- oder Niedrig-Latenz-Zugriff auf verteilte Daten im Sinne von EII.

Infrastruktur-Services: Infrastruktur-Services umfassen die Basis-Funktionalität für

Authentifizierung, Zugriffskontrolle, Logging, etc.

Daten-Integrations-Services: Integrations-Services transportieren Daten aus

Quelldatenmodellen in Zieldatenmodelle mittels Synchronisierung, Transformation,

Matching, Cleansing, Profiling, Anreicherung, Aufteilung, etc.

Meta- und Stammdaten-Services: Ihr Zweck ist das service-orientierte Managen und

Konsumieren der technischen und fachlichen Meta- und Stammdaten für Revision,

beispielsweise Datenherkunfts- und Impaktanalysen.

Page 93: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 93

Daten-Bereitstellungs-Services: Sie automatisieren und standardisieren die Publikation

von Information an alle Konsumenten gemäss einem Anfrage/Antwort-Modell oder einem

Publiziere/Subskribiere-Modell (Daten-Syndikation). Bereitstellungs-Mechanismen sind

Massendaten- und/oder Einzelsatz-Lieferung im Batch, Echtzeit-Messaging oder per

Delta-Mechanismen basierend auf Datenupdates.

Administrations-Services: Das sind Services für das Lebenszyklus-Management aller

Services, i.e. Entwicklung, Management sowie Überwachung und Steuerung.

© 2012 S.A.R.L. Martin30

Infr

astr

uktu

r-

Serv

ices

Meta

un

d S

tam

m-

Date

n-S

erv

ices

Informations-Services: Architektur

Bereitstellungs-Services

Daten-Integrations-Services

Universelle Datenzugriffs-

ServicesAd

min

istr

ati

on

s-

Serv

ices

Web Services

Analytische Services

Portale

INTERN EXTERNInformations-KONSUMENT

Applikationen Applikationen

Prozesse

Applikationen

Datenbanken

Messages

Flat Files

XML

unstrukturierte Daten

Mainframe

Datenquellen

JMS Web Svc SQL JDBC WebSvc

Social Media

Web/Social Media Cloud

Abbildung 30. Ein Weg heraus aus der Datenfragmentierung ist die Entkoppelung von Applikationen

und Daten per Informations-Services. Information und Daten werden per Services bereitgestellt.

Informations-Services bestehen aus sechs Kategorien. Die Architektur ist in der Abbildung dargestellt.

Universelle Datenzugriffs-Services erlauben den service-orientierten Zugriff auf jede interne oder

externe Datenquelle, strukturiert oder unstrukturiert. Daten-Integration-Services ermöglichen alle Arten

von Mapping, Matching und Transformation. Bereitstellungs-Services publizieren Information an alle

Informationskonsumenten – intern oder extern. Meta- und Stammdaten-Services bilden das

gemeinsame Business-Vokabular. Infrastruktur-Services definieren Authentifizierung und Security.

Administrations-Services liefern Funktionalität für Administratoren, Business-Analysten und Entwickler

zum Managen des Lebenszyklus aller Services.

Das Modell der Service-Orientierung bietet noch einen weiteren Vorteil. Aufgrund des Unter-

Service-Prinzips lassen sich jetzt beliebige zusammengesetzte (“composite”) Informations-

Services per Mashing-up für alle möglichen Verwendungszwecke komponieren und

orchestrieren. Typische Beispiele sind die traditionellen Data Warehouse

Belieferungsprozesse und Datenmigrations- und Konsolidierungsprozesse. Wir werden

weitere Prozesse wie Stammdaten-Management und Datenqualitätsmanagement in den

folgenden Kapiteln kennenlernen.

Page 94: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 94

6.4 Agile Integrations- und Extraktionswerkzeuge im Big Data

Heute im Zeitalter des Big Data sind Unternehmen im zunehmenden Maße daten-getrieben.

Wir brauchen Daten, um Information und schließlich Fakten, Wissen und

Wettbewerbsvorteile zu erzeugen: Time-to-Market ist entscheidend! Zugriff auf und Nutzung

von Daten auch in Echtzeit wird so mehr denn je zum kritischen Erfolgsfaktor im New

Normal. Jetzt haben wir Daten im Überfluss, im Web, in der Cloud und im Unternehmen.

Aber wie bekommt man Daten schnell, flexibel, zuverlässig und auch in Echtzeit aus dem

Web und der Cloud in seine Unternehmens-Infrastruktur, wie in die Cloud oder von einer

Cloud in die Cloud eines anderen Cloud-Anbieters?

Eine Antwort und Lösung bieten agile Integrationswerkzeuge, die Unternehmens-, Web-

und Cloud-Information parallel und gleichzeitig aus dem Big Data extrahieren und integrieren

können. Sie basieren auf einem völlig neuen Konzept für Datenzugriff und Extraktion: Agile

Integrationswerkzeuge arbeiten im Browser-Stil mit der immer gleichen visuellen

Schnittstelle für alle Datenquellen. (Abb. 31)

Big Data als Quelle für Analytik

31 © 2012 S.A.R.L. Martin

Operative

Daten

Data

Warehouse

Files, XML,

Spreadsheets

Ereignisse

Sensoren

Location Intelligence

Textanalytik

Data/Text Mining

Search

Anreicherung

Social

Media

Lokalisie-

rungsdaten

Call Data

Records

RFID

Maschinen-

DatenBig Data-Management Big Data-Analytik

Not only SQL (NoSQL)-Datenhaltungssysteme

Data Discovery

Abbildung 31: Big Data bedeutet nicht nur die Datenflut, sondern auch eine Vielzahl unterschiedlichster Quellen im Internet, die meist nicht über Schnittstellen verfügen oder die Schnittstellen haben, die nicht den vollen Datenzugriff erlauben. Hier helfen die Browser-basierten agilen Web-Integrations- und Extraktionswerkzeuge, die alle in einem Browser sichtbaren Daten abgreifen können. Zusätzlich sind auch semantische Suchmaschinen hilfreich, die Quellenidentifikation entsprechend einer vordefinierten Relevanz erlauben.

Das ist neu und nicht vergleichbar mit traditionellen IT-Werkzeugen: Agile

Integrationswerkzeuge können alle Datenquellen im Web, in der Cloud und im Unternehmen

ohne vordefinierte Schnittstelle und ohne Programmierung visuell erschließen. Das ist ein

weiterer Vorteil, denn Schnittstellen sind fast immer entweder nicht vorhanden und müssen

erst langwierig spezifiziert und programmiert werden, oder sie leisten nicht das, was man

Page 95: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 95

gerade braucht. Schnittstellen schränken vielfach den Zugriff auf Daten ein. Man bekommt

nicht immer alle Daten. Ein browser-basiertes Integrationswerkzeug dagegen gibt Zugriff auf

alle sichtbaren Daten und zwar sofort und auch in Echtzeit. So kommt man an die

kompletten Daten und das ohne zusätzlichen Aufwand einer Schnittstellenprogrammierung

und Nutzung. Die Schnittstelle wird „on-the-fly“ implizit erzeugt, wenn man visuell im

Browserstil spezifiziert, welche Daten man extrahieren möchte. Nicht nur Daten können so

extrahiert werden, sondern jede Information aus Web-Applikationen. Die agilen

Integrationswerkzeuge können auf jede Schicht von Web-Applikationen zugreifen und

Information extrahieren. Ein weiterer Vorteil dabei: Diese browserbasierte, visuelle

Schnittstelle ist für alle Quellen im Big Data immer die gleiche.

Sie erlauben aufgrund des visuellen Arbeitens eine optimal abgestimmte Zusammenarbeit

der Fachabteilung mit der IT. Ein gemeinsames Team bestehend aus einem IT- und

Fachabteilungs-Mitarbeiter kann so den Extraktions-Job schnell und eben agil durchführen.

Erster Schritt ist die Identifikation der relevanten Quellen für die Datenbeschaffung. Das lässt

sich bereits teilweise automatisieren. Mit Suchbegriffen und auch komplexen semantischen

Suchmustern lassen sich die relevanten Webseiten finden. Nach der Identifikation erfolgt die

visuelle Spezifizierung.

Bei der Extraktion arbeiten die Werkzeuge dann wie Mikro-Workflow-gesteuerte Roboter. In

den Workflows werden Regeln und Schleifen eingesetzt. So kann eine umfangreiche

Workflow-Logik aufgebaut werden, die Extraktionen jeder Komplexitätsstufe ohne

Programmierung ermöglicht. Die Roboter können mittels einer Management-Konsole geplant

und kontrolliert werden. Damit kein Webmaster das Extrahieren bemerkt und womöglich

Gegenmaßnahmen ergreift, können sie auch bewusst langsam arbeiten, um einen

menschlichen Leser vorzutäuschen. All das macht sie zuverlässig und sicher.

Die heutigen agilen Integrations- und Extraktionswerkzeuge besitzen genügend Intelligence,

um auch dynamische Webseiten abzugreifen. Wenn sich die Position von abzugreifenden

Daten auf der Webseite ändert, dann wird das in gewissen Grenzen auch automatisch vom

Roboter erkannt und nachgezogen. Wenn das nicht gelingt, wird das einer Management-

Konsole gemeldet, so dass ein menschlicher Eingriff die Situation schnellstens wieder

bereinigen kann. Anbieter solcher agilen Werkzeuge finden Sie im Kap. 9.5. Der Einsatz

solcher agilen Werkzeuge ist auch im B2B sehr sinnvoll, wenn es beispielsweise um Online-

Preisvergleiche geht, oder man im Rahmen von Unternehmensnetzen Information zwischen

Portalen automatisiert austauschen will. Hier haben beispielsweise Brainware

Speziallösungen für den Zahlungsverkehr entwickelt, Lixto für Lieferantenportale und Kapow

Software hat sechs Lösungsszenarien für den Einsatz agiler Integrations- und

Extraktionswerkzeuge entwickelt20.

So beschafft man sich die notwendigen Web-Daten automatisiert und schnell. Dabei darf

man allerdings gesetzliche Aspekte nicht vergessen. Selbst wenn Daten nicht geschützt und

öffentlich sind, verstößt man unter Umständen bereits gegen die AGBs der Seiten, wenn

man automatisch ausliest. Daten, die auf den Netzgemeinschaften als privat gekennzeichnet

sind, darf man so natürlich unter keinen Umständen nutzen. Bei öffentlichen Daten ist ein

20

siehe Research Note zu Kapow Software auf http://www.wolfgang-martin-team.net/research-notes_dt.php

Page 96: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 96

opt-in den Kunden mehr als empfehlenswert. Die juristischen Details wollen wir aber hier

nicht weiter vertiefen. Das ist eine Diskussion jenseits dieses White Papers.

6.5 Meta- und Stammdaten-Management

Prozess-Orientierung braucht Metadaten-Management. Die Metadatenschicht erstreckt sich

über alle Schichten der SOA. Metadaten sind der Schlüssel zu einem konsistenten

Datenmodell mit Lebenszyklus-Management für konsequentes Verständnis und

Kommunikation des Datenmodells, für Datenqualität, Zugriffsschutz und

datenschutzrechtliche Aspekte. Metadaten lassen sich in drei Schichten organisieren:

Schicht 1 – Stammdaten: Das sind fachlich orientierte Metadaten, die die Basis für das

Business-Vokabular darstellen. Es sind die Metadaten, die die Business-Strukturen wie

Anlagen, Produkte und Dienstleistungen und die Geschäftsparteien (beispielsweise

Lieferanten, Kunden, Mitarbeiter, Partner etc.) beschreiben. Damit erhält man eine

einheitliche Sicht auf alle Unternehmensstrukturen.

Schicht 2 - Navigations-Metadaten: Das sind ebenfalls fachlich orientierte Metadaten,

die die Informationsflüsse beschreiben. Sie geben Antwort auf Fragen wie: „Wo kommen

die Daten her? Was ist die Aktualität der Daten? Wo werden die Daten noch verwendet?“

Schicht 3 - Administrations-Metadaten: Das sind IT-orientierte Metadaten, die die

Rollen und Verantwortlichkeiten beschreiben. Sie geben Antwort auf Fragen wie: „Wer ist

verantwortlich? Wer soll Zugriff haben? Wer hat wann was getan“

Meta- und Stammdaten ergeben heute den „single point of truth“, den traditionellerweise das

Data Warehouse bereitstellte. Datenintegration hat diese Rolle jetzt geändert. Das

Business-Vokabular spielt die zentrale Rolle. Es kontrolliert sowohl BPM wie Performance

Management: Prozesse und Metriken brauchen eine einheitliche gemeinsame Sprache zur

Modellierung und Kommunikation mit allen an den Prozessen Beteiligten. Stammdaten

beschreiben die Datenobjekte von Prozessen und Regeln: Keine Prozesse, Metriken und

Regeln ohne Daten!

Stammdaten in einer SOA sind ja spezielle Informations-Services. In der Vergangenheit

wurden Stammdaten in einer immer wieder neuen Variante im Rahmen von Applikationen

implementiert.

Beispiel: Wenn Stammdaten redundant gehalten werden und über die Applikationen

verstreut sind, dann entwickelt jede Applikation ihre eigene Terminologie. Die

mangelnde Konsistenz wird zum Alptraum. Produkt- oder Auftragsnummern in einer

Applikation stimmen mit denen in anderen Applikationen nicht überein. Die

Kollaboration mit Lieferanten und Kunden wird zum Kostentreiber: Jedes Mal, wenn

ein neuer Lieferant, ein neuer Kunde, ein neues Produkt dazu kommt, muss eine

neue Übersetzungstabelle erstellt werden und/oder der neue Begriff in allen

Übersetzungstabellen hinzugefügt werden. Das macht Änderungen langsam,

fehleranfällig und teuer.

Page 97: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 97

Das unterstreicht noch mal deutlich ein Problem der Applikations-Orientierung: Applikationen

verhalten sich wie Inseln. Innerhalb einer Applikation verwendete Begriffe und Modelle

enden an den Grenzen der Applikation. Das führt zu Medienbrüchen bei

applikationsüberschreitenden Prozessen und zu Inkonsistenzen und Redundanzen bei

Metriken, Regeln und Business-Vokabular. Im Endeffekt führen die immer komplexeren

Integrations- und Synchronisationsaufwendungen zu nicht mehr erfüllbaren

Wartungsaufgaben. Die IT erstarrt und wird zum Bremser für das Business. Agilität ist in der

traditionellen Welt der Applikationen nicht möglich und nicht machbar.

© 2012 S.A.R.L. Martin32

Meta- und Stammdaten

operative Daten (OLTP)

Metadaten (DNA)

analytische Stammdaten

Bestands/Bewegungsdatenoperative Stammdaten

Kunden Partner Lieferanten Produkte Mitarbeiter Anlagen

Raum Zeit Plan Organisation

Abbildung 32: Ableitung von Stammdaten aus operativen Daten (der OLTP – online transaction processing – Systeme) und Klassifikation in operative und analytische Stammdaten. Stammdaten sind Teil der fachlichen Schicht von Metadaten (D = Definition, N = Navigation, A = Administration).

Stammdaten sind spezielle fachliche Metadaten aus der Schicht 1. Sie beschreiben die

Strukturen eines Unternehmens (Abb. 32). Man unterscheidet operative und analytische

Stammdaten. Die operativen Stammdaten sind Teil der operativen Daten der OLTP (online

transaction processing) Systeme. Man klassifiziert operative Daten in die (operativen)

Stammdaten und die Bestands- und Bewegungsdaten. Die unterschiedlichen Typen von

operativen Stammdaten leiten sich aus der Grundstruktur eines Unternehmens ab. Das sind

alle an den Prozessen beteiligten Objekte und Personen, also die Produkte und die

Geschäftsparteien: Mitarbeiter, Kunden, Händler und Lieferanten. Die analytischen

Stammdaten leiten sich aus dem Performance Management-Modell und

Prozessträgermodell ab, also aus dem Prinzip des Messens und der Verantwortlichkeiten:

Zeit, Raum, Plan und organisatorische Einheiten (wie Kostenstellen, Kostenträger etc.)

Prozess- und Service-Orientierung bietet einen Ausweg aus der traditionellen Applikations-

Orientierung. Agilität wird erreicht, in dem Prozesse, Metriken, Regeln und Stammdaten

Page 98: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 98

applikationsunabhängig werden, also aus den Applikationen herausgelöst und zentral

verwaltet werden.

Als Behälter für die Metadaten dient ein Repository. Es spielt deshalb auch die Rolle einer

Integrationsdrehscheibe für die Metadaten aller Backend-Systeme im BPM. Wenn in einer

SOA die Services von Backend-Systemen im Rahmen eines Prozesses miteinander

kommunizieren sollen, dann müssen sie die Sprache sprechen, die durch das Business-

Vokabular im Repository festgelegt ist. Eine Punkt-zu-Punkt-Kommunikation führt hier wieder

ins Chaos. Die Lösung ist, das Metadaten-Modell jedes Backend-Systems in das zentrale

Business-Vokabular des Repositories zu transformieren, dann kann über das zentrale

Vokabular jeder mit jedem sprechen und das Anschließen neuer Systeme wird deutlich

einfacher und schneller.

33

Transparenz und Nachvollziehbarkeit

Stammdaten-Management bezeichnet die Menge aller Policies, Services,

Prozesse und Technologien zum Anlegen, Warten und Managen von Daten,

die mit den Geschäfts-Entitäten als Datensatzsystem des Unternehmens

verbunden sind.

Synchronisieren Historisieren

Lieferanten KundenUnternehmen

Repository

Die 3 Säulen von

Meta- und Stamm-

daten-Management

•Datenintegration

•Data Profiling

•Datenqualität

Meta- und Stammdaten-Management ist Kern-Disziplin und

integraler Bestandteil von Information Management.© 2012 S.A.R.L. Martin

Meta- und Stammdaten

Abbildung 33: Meta- und Stammdaten-Management bedeutet Informations-Services für das Synchronisieren und Historisieren von über verschiedene Applikationsinseln verstreute Meta- und Stammdaten einzurichten, um so über ein Repository allen Prozessen ein gemeinsames Business-Vokabular zur Verfügung zu stellen. Die optimale Architektur für ein solches Repository ist eine Hub & Spoke-Architektur analog zur Architektur eines ESBs. Die 3 Säulen von Meta- und Stammdaten-Management werden in Kap. 6.2 (Datenintegration) und Kap. 6.6 (Data Profiling und Datenqualität) diskutiert.

Metadaten und Stammdaten sind nicht statisch. Nicht nur die Akquisition eines

Unternehmens durch ein anderes Unternehmen verändert die Metadaten und die

Stammdaten, in dem neue Strukturen notwendig werden, sondern jede

Organisationsänderung, jede Geschäftsregeländerung, jede Marktänderung erfordert eine

Fortschreibung des Metadaten- und des Stammdatenmodells. Aber jeweils nur den letzten

Zustand des Metadaten- und des Stammdatenmodells in einem Repository, bzw. in einer

Datenbank vorrätig zu haben, ist nicht ausreichend. Man braucht den gesamten

Page 99: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 99

Lebenszyklus der Meta- und Stammdaten für die Unternehmensplanung und die

typischen analytischen Fragestellungen. Deshalb ist ein Meta- und Stammdaten-

Management im Sinne eines Meta- und Stammdaten-Lebenszyklus-Management

erforderlich. Das Repository muss also auch den Lebenszyklus aller Stamm- und Metadaten

im Sinne einer Historisierung verfügbar haben (Abb. 33). Das ist heute eine Schwachstelle

auf Anbieter- und Nutzerseite, aber ohne Meta- und Stammdatenmanagement geht es nicht:

BPM-, Performance Management- und SOA-Initiativen werden sonst scheitern.

6.6 Datenqualität – Vorsorge tut Not

An welchem Tag im Jahr haben die meisten Menschen Geburtstag gemäß den in allen

Datenbanken der Welt gespeicherten Daten über die Geburtstage? Unsinnige Frage? Ganz

und gar nicht, denn das Ergebnis verblüfft: Es ist der 11.11. Warum der 11.11.? Ganz

einfach, wenn ein neuer Kunde in einer Datenbank erfasst wird, dann gibt es “Muss”-Felder

und “Kann”-Felder. Bei den Muss-Feldern wird die Eingabe vom System geprüft, bei den

Kann-Feldern nicht. Geburtstagsdaten sind häufig in Kann-Feldern gespeichert. Was

passiert: der Mensch ist faul. Die schnellste und einfachste Eingabe ist eben 1,1,1,1,1.....

Für viele Millionen Euro haben Unternehmen SAP und andere Standardsoftware eingeführt.

All die Daten sollten erfasst werden, die man braucht, um im Wettbewerb die Nase vorn zu

haben: CRM per Selbstbedienung, Coupons, Pay-Cards, Klubs und Weblogs ist da ein

durchaus erfolgreicher Ansatz bei der Jagd auf das Budget des Kunden. Kunden-

Orientierung ist die Devise und Marketing, Vertrieb und Kundendienst arbeiten nolens –

volens in kollaborativen Prozessen zusammen. Mit Lauerkampagnen im

Kundenkontaktzentrum und Web-Shop, mit Analytik, besonders mit Data Mining Lösungen

ist die nachfrage- und kundengetriebene Supply Chain teilweise schon Realität.

Voraussetzung dazu ist, dass die Datenqualität stimmt.

Beispiel: In der Bekleidungsbranche ist es längst usus, die Daten jeder

Verkaufstransaktion in einem Data Warehouse zu sammeln. Kundenprofile werden

abgeleitet. Daraus setzen sich Nachfrageprofile pro Boutique zusammen.

Entsprechend diesen Nachfrageprofilen werden die Waren-Kollektionen individuell

pro Boutique zusammengestellt. Ergebnis: Der Kunde findet in seiner Boutique stets

das Produkt, das er will. Er wird zufriedener, er kommt wieder, er wird ein immer

profitablerer Kunde. Und auf der Kostenseite lässt sich nachrechnen: Liegt in den

Boutiquen die richtige Ware vor Ort, dann liegt weniger Ware auf Lager, und das

bedeutet weniger Kosten. Einsparungen von 30% bis 40% Lagerhaltungskosten

werden erzielt.

Datenqualität ist die wesentliche Voraussetzung, um mit Information erfolgreicher zu werden.

Das Prinzip „garbage in – garbage out“ ist gnadenlos. Stellt man erst beim Aufbauen von

Performance Management Lösungen fest, dass die in SAP oder anderen Systemen

gespeicherten Daten nicht den Qualitätsansprüchen von SOA basierenden

Geschäftsprozessen genügen, dann ist es in der Regel zu spät.

Page 100: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 100

Beispiel: Ein großer europäischer Versandhändler hatte ein Problem mit seinen

Geburtstagsdaten. Geburtstagsdaten dienen in einfachster Form der

Altersbestimmung der Kunden. Das Alter ist ein überaus wichtiger Parameter in der

Kundenbeziehung, vor allem im Konsumgüterbereich. Ausgerechnet die

Altersangaben in seiner Datenbank waren unzuverlässig. Eine Lösung konnte

gefunden werden, die Verbesserung brachte: Da Vornamen Modetrends unterliegen,

lässt sich über den Vornamen mit einer gewissen Wahrscheinlichkeit das Alter des

Kunden schätzen. Wie man sich vorstellen kann: Eine teure Lösung, die zudem

niemals ganz sicher und zuverlässig ist. Viel teurer und viel ungenauer, als wenn man

gleich von Anfang an die richtige Datenqualität in seine operativen Prozesse einbaut.

Qualität gleich von Anfang an in die Prozesse einbauen, das klingt nach einer vertrauten,

bekannten Maßnahme. Das war nämlich genau die Idee von TQM (total quality

management) vor gut 20/25 Jahren in der Fertigungsindustrie. TQM für die Informatik ist

nicht erst jetzt das Thema. Mit der Einführung von SAP & Co. hätte man datenqualitäts-

sichernde Maßnahmen schon ergreifen sollen. Aber das Thema Datenqualität ist noch heute

ein Dauerbrenner. Der Data Quality Check 2007 (Lehmann, Martin, Mielke, 2007), eine

Untersuchung des deutschsprachigen Marktes zu Datenqualität und

Datenqualitätsmanagement brachte es an den Tag:

Nur 10% der Unternehmen betreiben ein Datenqualitätsmanagement wie weiter unten

beschrieben, aber so gut wie alle meinen, es sei ein sehr wichtiges Thema.

61% der befragten Unternehmen setzen keine Werkzeuge zum

Datenqualitätsmanagement ein!

Was in den meisten Unternehmen immer noch fehlt, ist ein hinreichend hoch in der

Unternehmenshierarchie angesiedelte(r) Verantwortliche(r) und Sponsor(in) von und für

Datenqualität. Denn Datenqualität ist Chefsache.

Beispiel: Nehmen wir an, Sie wollen eine 360° Grad Sicht auf den Kunden aufbauen,

also den Kunden mit allen möglichen Ausprägungen kennen, damit Sie ihn immer

bestens gemäß seinem Kundenwert bedienen können. Man weiß, dass 60% bis 80%

der Aufwendungen für den Bau solcher integrierten Kundendaten in die Infrastruktur

fließen. Bei dieser Datenintegration gilt es Daten aus unterschiedlichen Quellen

zusammenzuführen in ein einheitliches Kundendatenmodell. Die Daten stammen aus

unterschiedlichen operativen Systemen (Ein großer Mittelständler hat im Median 50

operative Systeme im Einsatz.), aus historischen und möglicherweise archivierten

Datenbeständen und nicht zu vergessen: externe Marktdaten, demographische Daten

und Web-Klickstreamdaten. Weiter in unserem Beispiel. Beim Bauen Ihrer

Kundendatenbank merken Sie auf einmal: System A hat eine Tabelle mit Daten über

den Kunden, die man nur noch mit der Tabelle Z aus SAP verknüpfen müsste, dann

hätte man eine tolle neue Sicht auf den Kunden. Nur leider ist das Verknüpfungsfeld

eins der berühmten Kann-Felder (die immer so viele “Einser” enthalten). Damit

scheitert die schöne Idee, diese Daten für den Fachbereich zusammenzuführen.

Welcher Projektleiter kann schon zum Betreiber des Prozesses mit dem Kann-Feld in

der besagten Tabelle gehen und ihm sagen, er solle ab sofort das Kann-Feld als

Muss-Feld behandeln?

Page 101: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 101

Datenqualität ist eben Chefsache. In führenden, fortgeschrittenen Unternehmen gibt es

bereits Datenqualitäts-Direktoren, die direkt an den CIO (Chef Information Officer) berichten.

Der CIO trägt die TQM-Initiative in die Geschäftsleitung und macht sie zu einer Change

Culture-Aufgabe. Der Datenqualitäts-Direktor koordiniert die Rollen von “Data Custodians”

und von “Data Stewards”. Data Custodians sitzen an verantwortlicher Stelle in den

Fachabteilungen, sind in der Regel die Prozess-Verantwortlichen. Ihnen wird die

Verantwortung für die Stamm- und Bewegungsdateninhalte und die Metadaten delegiert. Die

Data Stewards werden den Data Custodians zugeordnet und helfen deren organisatorische

Maßnahmen IT-technisch umzusetzen. Sie waren in der Vergangenheit

Datenbankadministratoren oder Datenadministratoren.

Datenqualität sollte bereits in die operativen Prozesse im Rahmen einer TQM-Initiative

eingebaut werden.

Die vier Eckpfeiler von Datenqualität sind21:

Qualität wird als Grad der Übereinstimmung mit Anforderungen definiert.

Das Grundprinzip der Qualitätsplanung ist Vorbeugung.

Null-Fehler-Prinzip muss zum Standard werden.

Qualitätskosten sind die Kosten für Nichterfüllung der Anforderungen.

Und was kann man tun, wenn man mit der Vorsorge erst heute beginnt? Was tun, um

Datenqualität in die existierenden Datenbestände zu bringen. Da gibt es zwei

komplementäre Gruppen von Werkzeugen.

Data-Profiling. Mit Data Profiling wird die Beschaffenheit von Daten analysiert und ein

Datenprofil mit identifizierten Mängeln und Eigenschaften der untersuchten Daten erstellt.

Dazu dienen drei Typen von Analysen:

Feld-Profile. Die Analyse von Inhalt und Struktur einzelner Attribute lässt

Datenqualitätsprobleme im Zusammenhang mit Datentypen, Wertebereichen,

Verteilungen und Varianzen erkennen.

Abhängigkeits-Profile. Im Rahmen einer Abhängigkeitsanalyse werden die Verbindungen

zwischen Attributen einer Relation überprüft. Das ergibt Aufschluss über erwartete,

unerwartete und unscharfe funktionale Abhängigkeiten sowie potenzielle

Schlüsselattribute. Damit erhält man eine gute Unterstützung zur Normalisierung von

Datenquellen.

Redundanz-Profile. Mittels einer Analyse der Überlappungen zwischen Attributen

verschiedener Relationen können Redundanzen und Fremdschlüsselbeziehungen

innerhalb eines Datenbestandes aufgedeckt werden.

Werkzeuge zum Data Profiling (vgl. Abb. 34) setzen Verfahren der deskriptiven Statistik

(Verteilungsanalysen, Ausreißer-Tests etc.) sowie des Data Mining (regelbasierende oder

Cluster-Analysen und Entscheidungsbaumverfahren) ein. Das Data Profiling dient also zur

Ist-Analyse und Aufwandsschätzung für alle weiteren Aktivitäten. Durch den Einsatz von

21

Nach Philip Bernd Crosby

http://de.wikipedia.org/wiki/Qualit%C3%A4t#Die_4_Eckpfeiler_der_Qualit.C3.A4t_nach_Crosby

Page 102: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 102

Werkzeugen werden Datenqualitätsprobleme wesentlich schneller erkannt als mit einer

manuellen Analyse.

Abbildung 34: Uniserv-Screenshot-Ausschnitt als Beispiel für Data Profiling. Die verschiedenen Fenster geben unterschiedliche Sichten auf den Profiling-Prozess. Unten: Records (Anzeige der aktuell selektierten Datensätze - Filterung, Sortierung), Progress (Fortschrittsanzeige aktuell laufender Lade- oder Metrik-Verarbeitungen). Rechts oben: Value Distribution (Tabellarische und grafische Werteverteilungsansicht auf Feldebene). Main Window: Kumulierte Basisinformationen auf Feldebene.

Data-Cleansing. Datenbereinigung nutzt verschiedene Methoden:

Parsing: Zusammengesetzte Einträge in Datenfeldern werden in deren atomare

Bestandteile zerlegt.

Semantischer Ansatz: Daten werden nach definierten Regeln in Standardwerte und -

formate überführt.

Benchmarking: Vergleich unternehmensinterner Daten mit externen Datenbeständen zur

Verifizierung.

Matching: Identifikation von ähnlichen Inhalten in unterschiedlichen Datenfeldern

(beispielsweise die Zuordnung von Kundeninformation in verschiedenen Applikationen zu

ein und demselben Kunden).

Dubletten werden bereinigt (typisch für CRM: Adressbereinigung).

Page 103: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 103

Konsolidierung: Zusammenführen von verstreuter Information zu vollständigen

Datensätzen (beispielsweise das Zusammenführen der Kundenadresse).

Householding: Aufdecken von Zusammenhängen in den Daten, beispielsweise das

Identifizieren aller Privatpersonen eines Haushalts.

Datenanreicherung: Mit Hilfe externer Daten kann der Nutzen der bereinigten

unternehmensinternen Daten gesteigert werden.

Grundsätzlich lassen sich hier wahrscheinlichkeitstheoretische, deterministische und

wissensbasierende Verfahren unterscheiden. Die beiden ersten Ansätze nutzen

entsprechende Algorithmen, der wissensbasierende Ansatz nutzt landesspezifische

Wissensdatenbanken zur Adresszusammensetzung, Namen oder Rechtsformen.

Das Managen der Qualitätsstandards ist ja wie schon gesagt ein Prozess. Hierzu werden

Profiling- und Cleansing-Aktivitäten kombiniert, da beide auch Information zum aktuellen

Stand der Qualität liefern. Die periodische Ausführung des Prozesses hilft, die Qualität der

gesamten Datenbasis kontinuierlich zu überwachen und sollte Bestandteil des TQM

Ansatzes für Datenqualität sein. Insofern lässt sich dieser Ansatz auch wieder bestens

mittels SOA implementieren, da ja in diesem Prozess der Einsatz der

Datenqualitätswerkzeuge per Services mit der Logik des TQM-Modells orchestriert wird.

Big Data Quality. Datenqualität spielt auch im Big Data eine wichtige Rolle, vor allem dann,

wenn Unternehmensdaten mit Information aus dem Big Data angereichert werden sollen,

also beispielsweise Kundendaten durch Daten aus den sozialen Medien oder Patientendaten

mit therapeutischen Daten im Gesundheitswesen. Die Grundaufgaben von Data Quality

Management bleiben die gleichen. Es geht wie immer um das Profiling, das Cleansing und

das Anreichern und Abgleichen mit Referenzdaten.

Aber im Big Data gibt es neue Fragen zur Datenqualität:

Das Schaffen des „single point of truth“ ist beim gegebenen Datenvolumen und der

Vielzahl der Quellen nicht nur schwieriger geworden, sondern wird zukünftig u.U. gar

nicht mehr machbar sein. Die Konsequenz wird sein, dass wir den bisher immer

angestrebten deterministischen „single point of truth“ aufgeben werden müssen und ihn

durch einen probabilistischen ersetzen werden. Denn wer kann bei Kundendaten, die

zwar aus dem Unternehmen stammen, aber dann mit Social Media-Daten angereichert

werden, noch wissen und entscheiden, welche Version welchen Attributs die korrekte

„Wahrheit“ darstellt.

Wie soll mit Ausreißern in den Daten umgegangen werden? Bei Unternehmensdaten gilt

die eiserne Regeln: Ausreißer sind zu eliminieren. Macht das in der Big Data-Analytik

Sinn? Steckt im Big Data in Ausreißern nicht auch wichtige Information? Die Big Data-

Analytiker sagen: Kann sein – und deshalb geht man bei Big Data ohne Hypothese –

also ohne Ausreißer-Bereinigung – in die Analysen. Das bricht natürlich die bekannten

Regeln von Datenqualitäts-Management.

Hier betreten wir Neuland und müssen noch viel lernen.

Page 104: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 104

6.7 Information Governance – Schlüssel zu erfolgreichem Information

Management

Kritischer Erfolgsfaktor für Information Management ist schließlich die Governance.

Information Management braucht eine geeignete Organisation mit klaren Rollen und

Verantwortlichkeiten, es braucht die richtigen und rigorosen Prozesse und Policies (die

„Regeln“), und nicht zuletzt braucht es die richtige Technologie und Plattform, auf der die

Information Governance abgebildet werden kann. Die richtige Information Governance dient

dazu, Information Management zu industrialisieren im Sinne von „schlanken“ Prozessen.

Beim Aufbau einer Information Governance sind für die beschriebenen Aspekte von

Information Management jetzt die Prozesse und Policies zu modellieren und zu

implementieren. Dazu kommt auch ein kontinuierlicher Verbesserungsprozess. Wie die

Geschäftsprozesse werden auch die Governance-Prozesse des Information Management

mittels eines Performance Management operativ gesteuert. Auf der strategischen und

taktischen Ebene dienen die gemachten Erfahrungen zu einer stetigen Verbesserung der

Prozesse. Das ist der Schlüssel zu einem industrialisierten Information Management.

Weiterhin ist im Zuge des Aufbaus von Information Management die Organisation im Sinne

von organisatorischer Einheit, Rollen und Verantwortlichkeiten zu bestimmen. Hier hat sich

als Best-Practice ein Kompetenzzentrum für Information Management bewährt. Die

Organisationsstruktur besteht analog dem eines BI-Kompetenzzentrums (vgl. Kap. 3.4) aus

einem Leitungsgremium, dem ein Information Management-Sponsor vorsitzt, dem

eigentlichen Information Management-Kompetenzzentrum und den Data Stewards. Der

Sponsor sollte aus der Geschäftsführung oder dem Vorstand kommen, damit die Information

Management-Strategie und die Policies der Information Governance auch durchgesetzt

werden können. Die Data Stewards sitzen in den Fachbereichen und sind dort über die

Information Governance eingebunden. Das Information Management-Kompetenzzentrum

zentralisiert das Management der Information Management-Strategie und der Information

Management-Methoden, -Standards, -Regeln und -Technologien. Sein Leitsatz ist:

Das Information Management-Kompetenzzentrum plant, leitet und koordiniert Information

Management-Projekte und sorgt für den effizienten Einsatz von Personal und Technologie.

Da Information Management sowohl Grundlage für Performance Management und Analyse

als auch für Prozess-Management ist, empfiehlt es sich sowohl ein BI-Kompetenzzentrum

für die „eigentlichen“ Aufgaben in Performance Management und Analytik zu haben also

auch ein Kompetenzzentrum für Information Management. Hier trifft sich Information

Governance mit BI Governance. Daneben gibt es auch noch den Begriff der Data

Governance. Was ist jetzt was und wie kann man diese Begriffe und Aufgabenbereiche

voneinander trennen? Wo sind mögliche Überschneidungen? Der am weitest gehende

Begriff ist der der Information Governance, deren Domäne das Information Management

ist. Information Management bedeutet das Managen des Lebenszyklus von strukturierter und

unstrukturierter Information. Data Governance ist eine Untermenge von Information

Governance, die sich nur mit der Governance strukturierter Information beschäftigt. BI

Governance ist ebenfalls eine Untermenge von Information Governance. Sie bezieht sich

sowohl auf strukturierte wie auch auf unstrukturierte Information, aber die BI Governance

Page 105: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 105

beschäftigt sich nicht mehr mit dem gesamten Lebenszyklus-Management, sondern nur noch

mit der Informationsbereitstellung und den dazu notwendigen Werkzeugen. Die Abbildung

35 zeigt die Positionierung der drei Governance-Bereiche im Rahmen von Information

Management.

Information Governance

© 2012 S.A.R.L. Martin35

Information Governance: Lebenszyklus-Management von

strukturierter und unstrukturierter Information.

Data Governance ist Information Governance eingeschränkt

auf strukturierte Information.

BI Governance ist Teil von Information Governance und

beschäftigt sich mit der Informationsbereitstellung.

Information Governance

BI

Governance

Data

Governance

Abbildung 35: Positionierung und Überschneidungen von Information Governance, Data Governance und BI Governance dargestellt als Venn-Diagramm.

In diesem Sinne sollte eine Information Governance die Governance-Prozesse und Policies

der folgenden Aufgaben (vgl. Kap. 6.1) abdecken:

Daten-Definition per Business-Vokabular

Meta- und Stammdaten-Management

Datenmodellierung

Datenqualitäts-Management

Datenintegration

Daten-Klassifikation

Daten-Sicherheit und Schutz

Content Management (Web, Rich Media)

Schließlich ist die Technologie auszuwählen, die die Prozesse entsprechend unterstützt. Hier

ist heute eine service-orientierte Plattform state-of-the-art, da so auch die Information

Management-Prozesse selbst den Zielen Industrialisierung, Agilität und Compliance gerecht

werden. Das Ergebnis sind schlanke Prozesse fürs Information Management.

Page 106: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 106

Die Marktbefragung des Wolfgang Martin Teams (Martin, 2012) zeigt, dass Information

Governance sich bei Unternehmen im deutschsprachigen Markt eine recht hohe Bedeutung

verschafft hat. Als Treiber werden in erster Linie Daten- und Prozessqualität gesehen. Aber

erst knapp die Hälfte der Unternehmen setzen Information Governance ein oder planen den

Einsatz. Dazu kommt, dass 47% der Unternehmen sich in der Planungs- oder Anfangsphase

sehen, erst 21% in der Endphase der Umsetzung. In kleinen Unternehmen (unter 1.000

Mitarbeiter) liegt bei der Sponsorship die Geschäftsführung klar vorne, bei den großen (über

1.000 Mitarbeiter) ist eher die IT (der CIO) in der Verantwortung. Die Zusammenarbeit

zwischen IT und Fachabteilung in Sachen Information Governance ist fast ideal: 80% sehen

sie als gemeinsame IT- und Fachabteilungsaufgabe. Auch der Einsatz von Werkzeugen ist

noch nicht wirklich zufriedenstellend: Nur 60% der Befragten sagen, sie setzen Werkzeuge

zur Information Governance ein.

In der Praxis macht man auch immer wieder die Erfahrung, dass Governance-Organisation

und Prozesse als einschränkendes Regelwerk empfunden werden, die Flexibilität und die

heute immer wieder geforderte Agilität behinderten. Hier haben sich inzwischen kollaborative

Methoden und Werkzeuge bewährt und Abhilfe geschaffen. Diese Ansätze sind aus den

Social Media abgeleitet. Durch den Social Media-Arbeitsstil lassen sich die Mitarbeiter

mitnehmen und selbst für eine BI Governance begeistern, da Social Media den Mitmach-

Effekt fördern und zur Transparenz wesentlich beitragen. So wird aus einem Top-Down

empfundenen, lästigen Regelwerk eine Bottom-Up gelebte Kollaboration, in der jeder mit

jedem auf gleicher Augenhöhe kommunizieren und diskutieren kann. Heutige Information

Management-Plattformen sind zu einem guten Teil bereits mit solchen kollaborativen

Werkzeugen ausgerüstet. Das sollte bei Plattform-Auswahlverfahren unbedingt

berücksichtigt werden und mit einem hohen Gewicht in die Bewertung eingehen. Denn mit

einer funktionierenden Information Governance haben Sie die besten Chancen auf

nachhaltigen Erfolg.

Fazit: Information Management braucht eine Information Governance, um

vertrauenswürdige Daten zu schaffen. Information Governance bringt Menschen, Strategien,

Prozesse und Organisation zusammen. Mit der richtigen Governance lässt sich ein

schlankes Information Management aufbauen: Man erreicht die Industrialisierung des

Information Management, mit anderen Worten: den besten Wirkungsgrad im Sinne des

Kosten- und Ressourceneinsatzes.

Page 107: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 107

7 Auf die Latenz kommt es an

Performance Management und Analytik müssen heute alle Aspekte der Überwachung und

Steuerung nahtlos bedienen – operative, taktische und strategische. Analyse, Überwachung

und Steuerung müssen ja mit der Prozessgeschwindigkeit synchronisiert werden (vgl. Abb. 5

und 6). Wenn die Prozessgeschwindigkeit hoch ist und wenn es auf Sekunden und

Bruchteilen von Sekunden ankommt, wie bei Kundeninteraktionen, Fertigungs- und

Logistikprozessen, dann spielen Echtzeit-Technologien wie Business Activity Monitoring

und Complex Event Processing eine große Rolle. Die Aufgabe ist, aus dem operativen

Verlauf eines Prozesses heraus Probleme und Risiken zu erkennen und basierend auf

dieser Kenntnis heraus Gegenmaßnahmen zur Prozesssteuerung einzuleiten. Das ist das

operative Performance Management von Prozessen wie wir es vom Prinzip her bereits im

Kap. 3.1 kennengelernt haben. Das wird in Kap. 7.1 vertieft.

Wenn es bei der Analyse auf Geschwindigkeit ankommt, spielen neue

Datenbanktechnologien wie analytische und NoSQL-Datenbanken eine immer größere

Rolle. Wenn nämlich das Datenvolumen schneller steigt als die Leistung von traditionellen

relationalen Datenbanken, schafft man es einfach nicht mehr, Daten im Detail zu

analysieren, da es schlichtweg gesagt zu lange dauert. Gartner sagt in seinem Bericht zum

Magic Quadrat for Data Warehouse Database Management Systems 2010: „Gartner-

Klienten stehen bei der Abfrage von Data Warehouses immer häufiger vor erheblichen

Performanceproblemen. Auf Grundlage dieser Informationen dürften rund 70 % aller Data

Warehouses mit derartigen Problemen zu kämpfen haben."

Daher haben sich neue Methoden und Technologien der Datenhaltung entwickelt, um Big

Data in den Griff zu bekommen. Neben den traditionellen relationalen Datenbanken gibt es

heute die analytischen Datenbanken, NoSQL-Datenhaltungssysteme und -Datenbanken. Sie

sind darauf ausgelegt, riesige Datenbestände bei gleichzeitig hoher Anzahl von Abfragen

durch viele bis sehr viele Nutzer in Sekundenschnelle zu analysieren: Analytik und die

analytischen Prozesse werden beschleunigt. Hierzu gibt es schon Ansätze seit rund 20

Jahren, aber erst seit 2010 nimmt der Einsatz solcher analytischen Datenbanken zu. Nach

dem in 2011 eingesetzten Boom ist ein weiterer Anstieg der Nachfrage nach diesen

Alternativen zu relationalen Datenbanken in 2012/15 zu erwarten, nicht nur ganz allgemein in

Analytik, sondern auch ganz besonders im analytischen CRM, wenn es um den Kunden und

das Kundenwissen geht. Analytische und NoSQL-Datenbanken diskutieren wir in Kap. 7.2

und 7.3, die Marktentwicklung in Kap. 9.6.

Es sollte noch betont werden, dass all diese Datenhaltungssysteme auch „as a Service“ als

Cloud Computing angeboten werden können. Das gilt für alle Formen des Cloud

Computings: private, öffentliche oder hybride Wolke.

Page 108: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 108

7.1 Business Activity Monitoring und Complex Event Processing

Das Konzept der Prozessorientierung verlangt, dass Prozesse, wenn immer möglich und

sinnvoll, zu automatisieren sind. Da werden Metriken für ein Performance Management

automatisierter Prozesse umso wichtiger, weil in operativ laufenden Prozessen

Abweichungen vom Normalverhalten auch automatisch erkannt werden sollten und, wenn

möglich, auch per „Autopilot“ gesteuert werden sollten. Das bewirken Metriken, die

Regelmaschinen (Entscheidungsmaschinen) treiben: So können Maßnahmen automatisch

ausgelöst werden.

© 2012 S.A.R.L. Martin36

Echtzeit und Aktionszeit

Ereignis

BAM/

CEP/

analytische/

NoSQL-DBMS

Regel-

MaschinenDaten-

LatenzAnalyse-

LatenzEntscheidungs-

Latenz

Wert

Zeit

Echtzeit-

Datenintegration

Aktionszeit

Nach: Richard Hackathorn und Colin White

Maßnahme

implementiert

Implementierungs-

Latenz

agile

Methoden

u.a.

Implementierungs-

zeit

Window of Opportunity

Abbildung 36: Wenn ein Ereignis eintritt, kann Zeit zu einem kritischen Faktor werden. Denn zu einem Ereignis gehört ein „Window of Opportunity“. Das ist die Zeit, die maximal zur Verfügung steht, in der man Maßnahmen treffen und implementieren muss, um vom Ereignis zu profitieren oder einen durch das Ereignis möglichen Schaden zu vermeiden. Das Aktionszeitmodell beschreibt die Phase vom Eintreten eines Ereignisses bis zum Treffen der notwendigen Maßnahme. Es zerlegt Aktionszeit in Daten-Latenz, Analyse-Latenz und Entscheidungs-Latenz, und es zeigt, durch welche Ansätze im Rahmen von Analytik die Aktionszeit minimiert werden kann. An die Aktionszeit schließt sich die Implementierungszeit an, die notwendig ist, um die getroffene Maßnahme auch umzusetzen. Hier ist jetzt ein agiles Business Process Management notwendig, um Prozessänderungen schnell und flexibel durchzuführen oder auch agile Softwareentwicklungsmethoden, um eventuell notwendige neue Business Services zu modellieren und zu implementieren.

Aber nicht jeder Prozess ist voll automatisierbar: In Ausnahmesituationen, beim Eskalations-

Management, bei Genehmigungsverfahren, bei Eingabe von Triggern (im Falle von

Selbstbedienung) und vor allem im Rahmen von kollaborativen Diensten sind menschliche

Interaktionen stets nötig. Ein Prozess besteht daher in der Regel aus einer Kombination von

automatisierten Teilstrecken und manuellen Eingriffen. Wenn jetzt das Entdecken von

Alarmsituationen und das Erkennen von Ausnahmesituationen zeitkritisch werden, werden

menschliche Reaktionen mitunter zu langsam. Jetzt kommt es auf die Latenz an, die

Page 109: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 109

Aktionszeit wird kritisch (Abb. 36). Das Aktionszeitmodell zeigt drei kritische Phasen: Daten-

Latenz, Analyse-Latenz, Entscheidungs-Latenz.

Datenlatenz bezeichnet die Zeit, die notwendig ist, um die zur Identifikation eines

Ereignisses notwendigen Daten zu erfassen und zur Analyse bereitzustellen. Das wird durch

Echtzeit-Datenintegration (Abb. 29) adressiert. Es gibt zwei Optionen, wie wir gesehen

haben: Niedriglatenz- und Nulllatenz-Datenintegration. Das hatten wir schon in Kapitel 6.1

diskutiert.

Analyselatenz bezeichnet die Zeit, die notwendig ist, um die Daten zu analysieren und

entscheidungsrelevante Information zu liefern. Das wird entweder durch Business Activity

Monitoring(BAM)- und Complex Event Processing (CEP)-Lösungen oder durch den Einsatz

von analytischen oder NoSQL-Datenbanken adressiert: Analytik muss jetzt in Echtzeit

verfügbar sein.

Dabei hängt die Analyselatenz von der Komplexität des Ereignisses ab. Deshalb ist es

vorteilhaft, unterschiedliche Typen von Ereignissen herauszuarbeiten, um die

unterschiedlichen Typen von BAM- und CEP-Lösungen und deren Anforderungen an

Analyselatenz zu verstehen. Wir folgen hier den Ansätzen von Luckham (2002).

Einfache Ereignisse. Das sind Ereignisse, bei denen alle Daten zur Entdeckung des

Ereignisses mit dem Eintreten des Ereignisses vorhanden sind. Beispiele wie

Produktverfügbarkeit oder Produktlieferbarkeit hatten wir schon kennengelernt. Im Prinzip

geht es in diesen Beispielen um das Vergleichen einer Metrik mit einem kritischen

Schwellenwert um Aktionen zum Gegensteuern auszulösen. Die Daten- und Analyse-

Latenz hängt natürlich vom Datenvolumen ab. Spielen sich beispielsweise Ereignisse im

Big Data ab, so werden zur Reduktion der Latenzzeit analytische oder NoSQL-

Datenbanken eingesetzt. Das wird in Kapitel 7.2 und 7.3 diskutiert.

Analyselatenz kann aber auch kritisch werden, wenn man prädiktive Modelle einsetzt. Es

ist in der Regel ausgeschlossen, eine Ableitung des prädiktiven Modells im Augenblick

der vorzunehmenden Analyse durchzuführen: Data Mining Verfahren arbeiten in der

Regel nicht in Echtzeit. Das war der Grund, warum die Ableitung eines prädiktiven

Modells per Data Mining von seiner Nutzung in operativen Prozessen getrennt wurde

(vergl. Kap. 5.4). Ein einmal abgeleitetes Modell wurde offline eingesetzt, und man half

sich hier, indem man das prädiktive Modell regelmäßig (z. B. wöchentlich, monatlich) neu

ableitete. Hier bringen neue Ansätze eine Alternative. Mittels adaptiver Algorithmen

werden prädiktive Modelle selbstlernend und passen sich im operativen Betrieb

dynamisch an den Prozesskontext an. Ein solches prädiktives Modell ist damit „online“

und bildet aufgrund der aktuellen Daten die aktuelle Gegenwart ab. So erreicht man

zumindest eine Niedriglatenzlösung für die Analyselatenz: In Bruchteilen von Sekunden

können solche Modelle adaptiert werden, so dass sich Einsatzmöglichkeiten für

intelligente Kundeninteraktionen beispielsweise im Call Center oder im Web-Shop

ergeben.

Ereignisströme. Das ist eine kontinuierliche, zeitlich geordnete Sequenz von

Ereignissen. Die zeitliche Ordnung ergibt sich beispielsweise aus der Ankunftszeit der

Ereignisse im BAM- oder CEP-Werkzeug oder durch Zeitstempel. Solche Ereignisströme

sind typisch, wenn es um das Überwachen und Steuern komplexer Netzwerke geht.

Page 110: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 110

Solche Fälle gibt es beispielsweise bei der Überwachung von allen Arten von Verkehr in

Telefonnetzen, in Rechnernetzen, im Straßenverkehr, in der Luftfahrt etc. Für BAM- und

CEP-Werkzeuge stellen sich hier im Prinzip drei unterschiedliche komplexe

Aufgabenstellungen:

o Einfache Mustererkennung. BAM-Werkzeuge nutzen hier die Methoden der

Zeitreihenanalyse. Die Aufgabe ist die Vorhersage des Eintreffens eines

Folgeereignisses. Beispiele sind hier das vertriebliche Forecasting, Vorhersage von

Aktienkursen oder Lastspitzen.

o Komplexe Mustererkennung. Ereignisströme können sich untereinander bedingen.

Sie können an unterschiedlichen Orten zu unterschiedlichen Zeiten ablaufen und sich

gegenseitig beeinflussen. Hier werden CEP-Werkzeuge eingesetzt. In diesem

Kontext basieren sie auf der multivariaten Zeitreihenanalyse. Beispiele wären hier

konkurrierende oder kollaborierende Prozesse wie vertriebliche Produkt-Promotionen

mehrerer Wettbewerber im gleichen Markt. Die Aufgabe von CEP-Werkzeugen

könnte hier sein, die Wirksamkeit der eigenen Marketingmaßnahmen zu verfolgen

und den Einfluss der Wettbewerbsaktionen zu messen, um darauf Marketing-Abwehr-

und Angriffsstrategien zu entwickeln.

o Musterabstraktion. Aufeinanderfolgende Ereignisse können auch als detaillierte

Ereignisse eines übergeordneten Ereignisses verstanden werden. CEP-Werkzeuge

haben hier die Aufgabe, aus den einzelnen und vielfach isolierten Ereignisbausteinen

per semantischem Schließens das in der Regel höherwertige Ereignis zu entdecken.

Ein Beispiel ist hier die Analyse von Kaufsignalen eines Kunden. Besonders bei

größeren Investitionen (Autokauf, Hausbau) sendet der Kunde bestimmte Signale.

Die Aufgabe eines CEP-Werkzeuges ist hier das möglichst rasche Schließen auf

Kaufbereitschaft eines Kunden aus wenigen Kaufsignalen, um eben vor einem

Mitbewerber mit dem Kunden in Verkaufsgespräche zu gehen.

BAM- und CEP-Werkzeuge für Ereignisströme basieren hier auf speziellen schnellen

Algorithmen (beispielsweise Matching-Algorithmen und anderen semantischen

Verfahren). Dieser Entwicklungsbereich ist außer dem relativ gut bekannten Gebiet der

Zeitreihenanalyse noch Neuland, viele Lösungen noch in einem experimentellen

Zustand.

Entscheidungslatenz bezeichnet die Zeit, die notwendig ist, um auf Basis

entscheidungsrelevanter Information Maßnahmen zu treffen. Wenn Zeit dabei eine kritische

Rolle spielt, dann können Entscheidungen tatsächlich nicht mehr von Menschen getroffen

werden; das ist dann die Aufgabe von Regelmaschinen (Entscheidungsmaschinen). Solche

Regeln können Bottom-up durch prädiktive Modelle generiert werden. Ein solches

Regelwerk kann beliebig komplex werden. Bei intelligenten Kundeninteraktionen

beispielsweise im eCommerce oder mCommerce berechnet man prädiktive Modelle aus

Echtzeit-Verhaltens-Daten auf der Webseite und historischen Verhaltensdaten wie

Kaufverhalten, Kaufhistorie, Kataloginformation, Vertriebsstrategie und anderen externen

Bedingungen wie Tageszeit, Wochentag und Jahreszeit, um so Empfehlungen mit mehr

Relevanz zu geben. In vielen Fällen wendet man ein Scoring an und reduziert so das

Regelwerk auf einen Parameter. Solche Entscheidungsregeln und Scores werden also

identifiziert aus Daten und entdeckten Datenstrukturen und Mustern.

Page 111: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 111

Regeln können auch festgelegt werden durch einen Top-down-Ansatz von Experten. Das ist

eine Wiedergeburt der alten Experten-Systeme aus den 80er und frühen 90er Jahren. Am

besten können Regelmaschinen durch eine Kombination von prädiktiven Modellen mit

Expertenregeln modelliert werden. Das hatten wir auch schon in Kapitel 4.3 diskutiert. Eine

detaillierte Darstellung zu Entscheidungsmaschinen findet man auch in Martin (2003-B).

Implementierungslatenz bezeichnet die Zeit, die notwendig ist, um auf Basis getroffener

Maßnahmen diese auch zu implementieren. Hier ist jetzt ein agiles Business Process

Management notwendig, um Prozessänderungen schnell und flexibel durchzuführen oder

auch agile Softwareentwicklungsmethoden, um eventuell notwendige neue Business

Services zu modellieren und zu implementieren. Das aber wollen wir aber hier in diesem

Werk nicht weiter verfolgen.

7.2 Analytische Datenbanken

Analytische Datenbanken basieren auf speziellen Datenhaltungs-Methoden und

Technologien, um große bis sehr große Mengen an strukturierten Daten mit höchster

Leistung analysieren zu können. Es gibt sie bereits seit den frühen 90er Jahren, aber ihr

Erfolg im Markt war bisher eher bescheiden. Das ändert sich jetzt im Big Data. Was machen

analytische Datenbanken anders als herkömmliche Datenbanken? Da gibt es verschiedene

Methoden, die sich auch miteinander kombinieren lassen. Beginnen wir mit

spaltenorientierten Datenbanken. Herkömmliche relationale Datenbanken sind

zeilenorientiert. Das schafft bei großen Datenmengen einige Probleme, die wir jetzt zuerst

beleuchten, um danach die Vorteile von spaltenorientierten Datenbanken herauszuarbeiten.

Ein Datensatz, der beispielsweise einen Kunden beschreibt, hat - nehmen wir einmal an -

1.000 Attribute, aber wir haben so viele Sätze, wie wir Kunden haben, also durchaus

Millionen Sätze und vielleicht sogar noch mehr. Wenn wir nun in einer herkömmlichen

Datenbank nach gewissen Kunden mit bestimmten Merkmalen (definiert über die Attribute)

suchen, dann muss man eben alle Datensätze lesen. Beim Lesen stößt man gleich an ein

ganz allgemeines Problem von herkömmlichen Datenbanken. Die sind nämlich gar nicht zum

Lesen vieler Datensätze gebaut, sondern vom Design her eher transaktions-orientiert.

Sprich, eine Datenbank gibt mir über einen Index in Bruchteilen von Sekunden eine

bestimmte Datenmenge zum Ändern, Löschen oder Neuanlegen22.

Will man also Adhoc-Abfragen auf herkömmlichen relationalen Datenbanken durchführen,

dann braucht man Indizes und Aggregate, um schnelle Antworten zu erzielen. Das bedeutet

aber, dass die Abfragen schon vorher bekannt sein müssen und durch

Datenbankspezialisten aus der IT vorbereitet werden müssen (Sie bauen die Indizes und

Aggregate). Mit anderen Worten, das ist teuer, weil gut bezahlte Spezialisten notwendig sind.

Das ist zudem langsam: Denn wenn man mit einer neuen Idee kommt, zu der es noch keine

Indizes und Aggregate gibt, dann müssen die erst gebaut werden. Wenn man eine Abfrage

ohne eine solche Vorbereitung startet, kann der ganze IT-Betrieb empfindlich gestört

22

Das ist das sogenannte CRUD-Prinzip: „create, read, update, delete“.

Page 112: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 112

werden. Indizes und Aggregate haben noch eine weitere unangenehme Eigenschaft: Sie

brauchen Platz und machen die Datenbank um einen meist zweistelligen Faktor grösser als

notwendig. Damit wird sie dann immer langsamer. Das führt dazu, dass irgendwann der

Augenblick kommt, ab dem man gar keine Abfragen an die Datenbank mehr stellt, weil die

Antworten viel zu spät eintreffen. Der Nutzer ist frustriert, das Wissen liegt brach in der

Datenbank. Information wird zu einem reinen Kostenfaktor. Wissen über Kunden, Markt,

Mitbewerber und Risiken lässt sich nicht mehr anwenden. An dieser Stelle stehen heute viele

Unternehmen.

Analytische Datenbanken schaffen hier Abhilfe durch ihre Spaltenorientierung. Bei einer

spaltenorientierten Datenbank kann jede Spalte in einer eigenen Datei liegen, d.h. auf einen

Wert eines Attributs eines Datensatzes folgt in Lese-Reihenfolge nicht das nächste Attribut

des selben Datensatzes, sondern das gleiche Attribut des nächsten Datensatzes: Die Zeilen

und Spalten der Tabelle werden miteinander vertauscht. Intuitiv funktioniert dies, da in der

Analytik meistens wenige Attribute von sehr vielen Datensätzen benötigt werden. Aufgrund

der Spaltenorientierung müssen die restlichen Attribute nicht gelesen werden. Mit anderen

Worten: das Lesen wird drastisch reduziert, weil man durch das Vertauschen von Zeilen und

Spalten nur noch höchstens so viele Datensätze wie Attribute hat. Da die Anzahl der

Attribute in der Regel klein ist gegen die Anzahl der Datensätze, bringt das einen hohen

Performance-Gewinn. Jedoch wird das Schreiben von Datensätzen dadurch jedoch sehr

teuer, was man aber oft durch Differenzdateien zum Teil ausgleichen kann.

Aufgrund dieser Basiseigenschaft von spaltenorientierten Datenbanken erhält man einen

weiteren Vorteil. Man braucht keine Indizes und Aggregate mehr. Das macht die Datenbank

schlanker, was wiederum das Lesen beschleunigt. Zusätzlich lassen sich die Daten dann

komprimieren. Dazu werden einfache Verfahren genutzt, die es erlauben, relationale

Operationen auf den komprimierten Daten auszuführen. So können beispielsweise mehrfach

vorkommende Werte durch Kürzel fixer oder variabler Länge ersetzt werden, die durch ein

Wörterbuch bei Bedarf wieder in die ursprünglichen Werte übersetzt werden können. Folgen

identische Werte direkt aufeinander, können diese Sequenzen lauflängencodiert abgelegt

werden. Sortierte ganzzahlige Daten können durch Differenzbildung zum jeweiligen

Vorgänger oder zu einem lokalen Minimum in wenigen Bits untergebracht werden. Ein

solches Komprimieren bringt also Kostenvorteile, da die Datenbank „klein“ wird (Relativ zu

einer zeilenorientierten Datenbank können die Daten bis zu 80% komprimiert werden.) Man

erhält so weitere Performance-Vorteile.

Eine weitere Beschleunigung lässt sich durch Parallelisieren der Verarbeitung auf Clustern

und durch In-Memory-Verarbeitung erreichen. Das gilt sowohl für zeilen- wie auch spalten-

orientierte Datenbanken. Daten werden dabei automatisch und gleichmäßig über alle Server

eines Clusters verteilt, so dass für Abfragen alle Hardware-Ressourcen optimal ausgenutzt

werden. Die Software ist so konzipiert, dass jeglicher Tuningaufwand entfällt, wie er in

konventionellen Systemen üblich ist. Die Datenbanklösung legt Indizes automatisch an,

analysiert und komprimiert die Daten selbständig und verteilt sie optimal über die Knoten.

Intelligente Algorithmen fangen Server-Ausfälle auf und sorgen dafür, dass das System für

Nutzer innerhalb weniger Sekunden ohne dessen Zutun wieder zur Verfügung steht.

Page 113: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 113

Aber all diese Methoden und Verfahren schaffen an anderer Stelle Probleme: Die

Transaktionsverarbeitung gemäß dem ACID-Prinzip23 ist zum Teil nicht mehr möglich. Daher

sprechen wir in solchen Fällen auch besser von Datenhaltungssystemen als von

Datenbanken, da Datenbanken per Definition Transaktionssicherheit bieten müssen.

Analytische Datenbanken werden in unterschiedlichen Ausprägungsformen angeboten. Es

gibt parallelisierte herkömmliche Datenbanken, die in der Regel als Appliance angeboten

werden, also eine spezielle Hardware und den parallelen Zugriffsmethoden und Algorithmen.

Dabei sind solche Datenbanken dann immer noch zeilenorientiert. Dann gibt es analytische

Datenbanken, die spaltenorientiert sind, aber weitgehend Hardware-unabhängig eingesetzt

werden können. Und schließlich gibt es spaltenorientierte Datenbanken, die als Appliance

teilweise mit spezieller Hardware angeboten werden, aber insbesondere In-Memory

einsetzen. Daneben gibt es auch noch besondere Verfahren wie beispielsweise „Database

Images“, objekt-orientierte Datenbanken oder spezielle Data Appliances, die die

Kommunikation zwischen Server und Speicher optimieren. Die Klassifikation von

Anbieterlösungen finden Sie in Kap. 9.3.

Analytische Datenbanken lösen die Probleme, mit denen die Kunden heute kämpfen:

Performance, Skalierbarkeit und Kosten. Fassen wir nochmal die Vorteile zusammen:

Informationen sind flexibler abrufbar und stehen bis zu 100mal schneller zur Verfügung.

Die Nutzerzufriedenheit erhöht sich signifikant aufgrund des schnelleren und flexibleren

Zugriffs auf Information. Es können jetzt Daten analysiert werden, die vorher ohne

Nutzen, aber mit Kosten gespeichert wurden. Das unterstützt und schafft bessere

Entscheidungen.

Die IT wird entlastet, da die analytischen Datenbanken hoch automatisiert sind und ein

spezielles Wissen über Datenbankdesign und Tuning deutlich weniger gefragt ist.

Zwei Dinge sollten zum Schluss noch klar gesagt werden:

Eine analytische Datenbank macht ein physikalisches Datenbankdesign und Tuning

weitgehend obsolet, aber sie ersetzt keineswegs das logische, fachliche Design der

analytischen Datenbank. In diesem Sinne bleibt weiterhin ein Information Management

unabdinglich, auch wenn analytische Datenbanken eingesetzt werden. Denn ein Stamm-

und Metadaten-Management, ein Datenqualitäts-Management, eine Information

Governance und die anderen Aufgaben im Information Management bleiben auch mit

analytischen Datenbanken kritische Erfolgsfaktoren.

Eine analytische Datenbank ersetzt in der Regel nicht die herkömmlichen Datenbanken

in der Transaktionsverarbeitung. Analytische Datenbanken sind eine neue Generation

von Datenbanken für analytische Aufgaben im Unternehmen. Ein Unternehmen braucht

heute eben zwei unterschiedliche Datenbanktechnologien, eine für die analytischen

Aufgaben, eine für die Transaktionsverarbeitung. Dabei gilt natürlich der bekannte Satz:

Keine Regel ohne Ausnahme: Oracle Exadata, Kognitio WX2 und SAP HANA eignen

sich sowohl für hoch-performante analytische als auch transaktionsorientierte Aufgaben.

23

ACID (atomicity, consistency, isolation, durability) ist eine Menge von Eigenschaften, diegarantieren, dass

Datenbank-Transaktionen zuverlaessig abgewickelt werden.

Page 114: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 114

Insbesondere SAP HANA bietet hier zukünftig ein großes Potenzial. Dabei ist allerdings

der Performance-Gewinn in der Transaktionsverarbeitung deutlich geringer, denn in der

Transaktionsverarbeitung braucht man ein Select auf den Einzelsatz. Der

Einzelsatzzugriff wird durch In-Memory-Verarbeitung aber kaum beschleunigt. Die In-

Memory-Verarbeitung erweist erst beim Select auf Gruppen die bekannten hohen

Performance-Gewinne.

7.3 NoSQL-Datenhaltungs- und -Datenbanksysteme

Big Data-Analytik: Architektur

37 © 2012 S.A.R.L. Martin

strukturierteDaten

EnterpriseData

Warehouse

Multi-strukturierte

Daten

ETL/ELTAnalytische

Applikationen

Daten-

Integration

Analytische

Applikationen

recherchieren/

identifizieren

ge

filterte

Date

n/

an

aly

tisch

e

Erg

eb

nis

se

mo

dell

iert

e D

ate

nBig Data

externe und

Unternehmensdaten

NoSQL oder

analytisches DBMS

Datenanalyse

Datenanalyse

Datenarchivierung,

Filterung,

Transformation

Nach: Colin White

Abbildung 37: In der Big Data-Analytik wird die traditionelle Data Warehouse-Architektur um die Analyse multi-strukturierter Daten ergänzt. Ein analytisches oder NoSQL-Datenhaltungssystem (beispielsweise Hadoop) wird mit den zu einer Problemlösung relevanten Daten aus dem Big Data und aus dem Enterprise Data Warehouse versorgt. Dann kann man dort recherchieren, identifizieren und analysieren. Analytische Ergebnisse und Daten, die für weitere Analysen in Frage kommen, werden gefiltert und ins Enterprise Data Warehouse zurückgeschrieben. So wird auch die traditionelle Datenanalyse durch Big Data Information angereichert. Hinzu kommt nach der Problemlösung die Datenarchivierung mittels Datenintegration inklusive möglicherweise anfallender Datenfilterung und -Transformation.

NoSQL-Datenhaltungssysteme fokussieren auf der Haltung und Verarbeitung multi-

strukturierter Daten und ergänzen so das traditionelle relationale Datenmodell. Das zeigt

genau wie die Nutzung verschiedener analytischer Datenbankenmethoden auch, dass das

relationale Modell keinen Alleinstellungsanspruch als „einziges“ Datenhaltungsmodell mehr

hat. Genauso wie verschiedene Methoden analytischer Datenbanken nicht neu sind, sind

Page 115: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 115

auch verschiedene NoSQL-Ansätze schon seit zum Teil langer Zeit im Einsatz, gewinnen

aber erst jetzt im Big Data neue Aufmerksamkeit und Anwendung.

Den Begriff multi-strukturierter Daten nutzt man heute vielfach, um den alten Begriff

„unstrukturiert“ zu ersetzen und besser zugänglich zu machen. Mit dem Begriff multi-

strukturierte Daten kann man alle Daten – strukturiert und unstrukturiert – zusammenfassen.

Die Zielsetzung ist, Fakten und Information aus multi-strukturierten Daten zu nutzen, um die

traditionelle Analytik strukturierter Daten anzureichern und zu erweitern. (Abb. 37)

Definition: Multi-strukturierte Daten sind Daten, die unbekannte, unzureichend definierte

oder multiple Schemata haben. Beispiele sind maschinen-generierte Ereignis-Daten, Sensor-

Daten, System-Log-Daten, interner/externer Web Content inklusive Social Media Daten,

Texte und Dokumente, Multi-Media-Daten wie Audio, Video etc.

Objektorientierte Datenbanken. In den 90er Jahren boten sie bereits Alternativen zum

relationalen Modell. Sie hatten einen grundlegenden Ansatz, der in allen heutigen NoSQL-

Datenhaltungssystemen zu finden ist. Sie sind schemafrei und setzen auf alternative

Techniken, um festzulegen, wie Daten gespeichert werden. Dazu kommt der Einsatz anderer

Protokolle als SQL für die Kommunikation zwischen Anwendung und Datenhaltungssysteme.

Ähnlich wie bei den analytischen Datenbanken ist die Architektur vieler NoSQL-Datenbanken

auf Skalierbarkeit ausgelegt: Die Verarbeitung und Verwaltung großer Datenbestände erfolgt

verteilt mittels Cluster aus Standardsystemen.

Dokumentenorientierte Datenbanken speichern "Texte" von beliebiger Länge mit

unstrukturierten Informationen und ermöglichen das Suchen auf Basis von

Dokumentinhalten. Die gespeicherten Dokumente müssen nicht die gleichen Felder

enthalten. XML-Datenbanken sind dokumentorientierte Datenbanken mit semi-strukturierten

Daten.

Graphen-Datenbanken (oder: Entity-Relationship-Datenbanken). Sie basieren auf der

Darstellung von Daten als Knotenpunkte (Entitäten) und Beziehungen (Relationen) zwischen

den Knoten. Statt traditioneller Datensätze erstellt man hier Knoten, die durch die

Beziehungen, die man zwischen ihnen definiert, miteinander verknüpft werden. Dabei wird

Information zu den Knoten und ihren Beziehungen als Eigenschaften (Attribute) gespeichert.

Graphen-Datenbanken haben insbesondere Vorteile, wenn wie bei (sozialen) Netzen die

Beziehungen zueinander im Mittelpunkt stehen, man also Netze abbilden will. Graphen-

Datenbanken gehen auf Entwicklungen im Computer Aided Software Enginering (CASE) der

späten 80er Jahre zurück.

Key-Value-Datenbanken. Hier weist ein Schlüssel auf einen Wert, der in seiner einfachsten

Form eine beliebige Zeichenkette sein kann. Key-Value-Datenbanken sind auch nicht neu.

Sie sind als traditionelle Embedded-Datenbanken wie dbm, gdbm und Berkley DB in der

Unix-Welt bekannt geworden. Key-Value-Datenbanken arbeiten entweder als In-Memory-

System oder als On-Disk-Version. Sie sind besonders zum schnellen Suchen geignet.

Page 116: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 116

Spaltenorientierte Datenbanken. Sie gehören gemäß der hier benutzten Klassifikation in

die Klasse der analytischen Datenbanken, was zeigt, dass analytische und NoSQL-

Datenhaltungssysteme sich nicht disjunkt zueinander verhalten: Es gibt eben analytische

Datenbanksysteme, die immer noch auch dem relationalen Modell basieren, als auch solche,

die spalten-orientiert, also NoSQL sind.

Hadoop ist dabei, einen Standard der Zukunft in Big Data-Datenhaltung und Daten-

Management zu setzen. Es ist ein Apache Software Foundation Open Source-

Entwicklungsprojekt. Es arbeitet wie ein Daten-Betriebssystem und besteht aus drei

Komponenten:

der Speicherschicht HDFS (Hadoop Distributed File System),

der von Google vorgeschlagenen Programmierumgebung MapReduce zur parallelen

Verarbeitung von Abfragen,

einer Funktionsbibliothek.

Zu Hadoop gehört auch die HBase, ein skalierbares Datenhaltungssystem zur Verwaltung

sehr großer Datenmengen innerhalb eines Hadoop-Clusters. Die HBase ist eine Open

Source-Implementierung der Google BigTable.

Die Speicherschicht HDFS speichert in der Standardeinstellung Daten in 64MB Blöcken, was

paralleles Verarbeiten unterstützt und exzellent zum Lesen großer Datenmengen geeignet

ist. Der Nachteil ist, dass eine solche Verarbeitung naturgemäß Batch-orientiert ist und sich

deshalb nicht für Transaktionsverarbeitung oder Echtzeitanalysen eignet. HDFS hat

schließlich eingebaute Redundanz. Es ist designt, um über hunderte oder tausende von

preiswerten Servern zu laufen, von denen man annehmen kann, dass immer wieder einige

ausfallen. Daher wird in der Hadoop-Standardeinstellung jeder Datenblock dreimal

gespeichert. Neue Daten werden zudem immer angehängt, niemals eingefügt („no insert“).

Das erhöht die Geschwindigkeit des Speicherns und Lesens von Daten und erhöht auch die

Zuverlässigkeit der Systeme.

MapReduce (MR) wurde von Google in seiner spalten-orientierten BigTable implementiert,

die auf dem Google File-System basiert. Es ist eine Programmier-Umgebung zur

Parallelisierung von Abfragen, die die Verarbeitung großer Datenmengen deutlich

beschleunigt. MR ist keine Programmier- oder Abfragesprache. Die Programmierung

innerhalb von MR kann in verschiedenen Sprachen wie Java, C++, Perl, Python, Ruby oder

R erfolgen. MR Programm-Bibliotheken können nicht nur HDFS, sondern auch andere Datei-

und Datenbanksysteme unterstützen. In einigen analytischen Datenbank-Systemen werden

MR Programme als in-database analytische Funktionen unterstützt, die in SQL-Befehlen

benutzt werden können. MapReduce ist allerdings nur im Batch einsetzbar, nicht in Echtzeit-

Verarbeitung, also auch nicht interaktiv.

Dazu kommen noch einige Ergänzungen wie die HLQL (high level query languages) Hive,

Pig und JAQL. Hive ist eine Data Warehouse-Umgebung, die auf einer Entwicklung von

Facebook beruht. Zu Hive gehört die HLQL „QL“, die auf SQL beruht. Da es für die Hadoop-

Programmierumgebung MapReduce noch nicht sehr viele Ressourcen gibt, die damit

umgehen können, sind HLQLs wie QL sehr willkommen, da sie den Entwicklern die

Verwendung einer SQL-ähnlichen Syntax erlauben. Eine andere HLQL ist Pig, eine

Page 117: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 117

prozedurale Sprache. Mit Hilfe von Pig sind parallele Ausführungen komplexer Analysen

einfacher als mit MapReduce nachvollziehbar und durchführbar. Darüber hinaus bietet Pig

auch im Gegensatz zu MapReduce eine automatisierte Optimierung komplexer

Rechenoperationen. Pig ist auch offen und lässt sich durch eigene Funktionalitäten

ergänzen. Zum Managen von Hadoop-Anwendungen dienen Chukwa, das die

Echtzeitüberwachung sehr großer verteilter Systeme ermöglicht, und ZooKeeper, das zur

Konfiguration von verteilten Systemen dient.

Achtung. Obwohl Hadoop auf Technologien und Konzepten beruht, die von Big Data-

Unternehmen wir Facebook und Google stammen, so ist doch heute noch sehr deutlich zu

sagen, dass diese Technologien noch sehr jung und auch unausgereift sind. Daraus folgt,

dass der Einsatz solcher Technologien ausgewiesene und am Markt nur schwer zu findende

Mitarbeiter benötigt. Dazu kommt, dass viel Funktionalität noch in Eigenentwicklung zu

leisten ist.

Page 118: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 118

8 Performance Management und traditionelle BI: fundamentale

Unterschiede

Performance Management hat sich aus den alten Decision Support- und Business

Intelligence-Ansätzen entwickelt, doch inzwischen ist aus Performance Management ein

komplett anderes Modell geworden als das der traditionellen Business Intelligence.

Performance Management ist ein Top-Down-Modell, das bei der Geschäftsstrategie

beginnt. Business Process Management verbindet Prozessanalyse und -design mit

funktions- und abteilungsübergreifenden Prozessabläufen und Corporate

Performance Management. Prozess-Leistungsmetriken werden gleichzeitig mit den

Prozessen erstellt.

o Business Intelligence war Bottom-up und nicht prozessorientiert.

Performance Management basiert auf einem Information Supply Chain Modell, um

die Informationsbereitstellung mit dem Informationsbedarf permanent zu

synchronisieren.

Business Intelligence war ausschließlich ein Informationsbereitstellungsmodell

(Bill Inmons „Informationsfabrik“; Inmon, 1996).

Performance Management ist ein Closed-loop-Modell, um Geschäftsprozesse auf

operativer, taktischer und strategischer Ebene optimal zu steuern und zu

überwachen.

Business Intelligence konnte Entscheidungen zwar unterstützen, es fehlte aber

die Rückkopplungskomponente, das Treffen von Maßnahmen. Operative Aspekte

von Business Intelligence wurden nicht mit einem kohärenten Ansatz abgedeckt.

Performance Management Metriken schauen nach vorne. Mittels prädiktiver Modelle

werden Probleme erkannt, bevor sie auftreten. Zusätzlich bleiben natürlich auch alle

traditionellen retrospektiven Metriken weiterhin nützlich.

o Business Intelligence war retrospektiv. Der Fokus lag auf Analyse und

Diagnose. Die Potentiale prädiktiver Modelle wurden nicht genutzt.

Performance Management ermöglicht Transparenz durch Teilen und Filtern von

Information gemäß dem Prozessträgermodell. Jeder bekommt genau die Information,

die man im Kontext seiner Prozesse braucht.

Business Intelligence Werkzeuge haben den Informationsverbraucher nicht

ausreichend mit Information versorgt. Daher hatte man entweder das Problem,

dass Information nicht zugänglich war (oder gar versteckt und zurückgehalten

wurde), oder man hatte das Problem einer Datenflut („information for the

masses“). Das führte zu einem drastischen Sinken der Akzeptanz.

Performance Management basiert auf analytischen Services, die im Rahmen einer

SOA (service oriented architecture) publiziert, konsumiert und orchestriert werden.

Business Intelligence war ein werkzeugbezogener Ansatz, der auf proprietären

Technologien basierte. Das führte zu isolierten Informationssilos.

Page 119: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 119

9 Der Performance Management/Analytik-Markt und seine Spieler

9.1 Trends in Performance Management und Analytik

Der Markt für Performance Management und Analytik („BI-Markt“) in den letzten Jahren

zeigte ein überdurchschnittliches Wachstum mit im Schnitt zweistelligen Wachstumsraten.

Selbst im heutigen New Normal bleibt das Wachstum zweistellig. Die Begründung dazu

sehen wir in den folgenden vier Thesen, die die weitgehende Umgestaltung des BI-Marktes

und der BI-Rolle, Methoden und Werkzeuge, den Übergang zu Performance Management

und Analytik und die wachsende Durchdringung der Fachbereiche mit Werkzeugen

beschreiben.

These 1: Der Markt für Business Intelligence hat sich zwischenzeitlich aufgelöst und

wieder neu ausgebildet. Die schon seit einiger Zeit zu beobachtende Marktkonsolidierung

hat mit den drei „großen“ Akquisitionen in 2007 (Oracle/Hyperion; SAP/BusinessObjects;

IBM/Cognos) ihren Höhepunkt gefunden und quasi zur Auflösung des Marktes für BI als

eigenständigen Markt geführt. Schon in 2006 haben wir das kommen sehen (Statement: is

report 3/2006). Der BI Markt ist so in den BPM/SOA, bzw. ERP II Markt aufgegangen: Die

großen Vier im BPM/SOA Markt (IBM, Microsoft, Oracle, SAP) sind alle auch Anbieter von

BI. Ähnliches gilt im ERP II Markt wie man am Beispiel von Infor sehen kann. Die kleinen,

unabhängigen Anbieter finden in diesem neuen Markt aber jetzt sehr gut ihre Nischen, denn

die fortschreitende Prozess- und Service-Orientierung sowie der Trend zu BI as a Service im

Rahmen von Cloud Computing unterstützt einen Best-of-Breed-Ansatz in optimaler Weise.

Das heißt also: sehr gute Aussichten für die Kleinen gerade wegen dieser Evolution des

Marktes.

Insbesondere Big Data eröffnet jetzt neue Marktchancen. Mit Data Discovery hat sich ein

neuer Schwerpunkt gebildet und mit MicroStrategy, QlikTech, Tableau Software und

TIBCO/Spotfire wird dieser Markt wieder von mittelgroßen Anbietern getrieben. Dazu

kommen noch die beiden Open Source Schwergewichte Jaspersoft und Pentaho, die

inzwischen in das Data Discovery Segment hineingewachsen sind und Big Data adressieren.

Die bisherigen Großen Vier haben es versäumt, hier rechtzeitig präsent zu sein und laufen

Gefahr, in diesem Marktsegment zu verlieren. Zusätzlich ist auch noch durch die

Akquisitionen von Vertica und Autonomy ein anderer großer Spieler 2011 in den BI-Markt

eingetreten: HP. Man muss also ab 2011 von den Großen Fünf reden.

Daneben haben sich aber auch neue Nischenmärkte eröffnet wie Content Intelligence,

Customer Intelligence, Financial Intelligence, Competitive Intelligence und Social Intelligence

(Textanalytik). Hier sind die Wachstumschancen für neue Anbieter ebenfalls sehr gut. Die

Auflösung des traditionellen Marktes für Business Intelligence bedeutet also nicht sein Ende,

sondern einen Neubeginn mit vielen Chancen für alle Marktteilnehmer. Es haben sich so

neue Teilmärkte ausgebildet: Der Markt für Analytik und Performance Management ist

wieder sehr kompetitiv geworden.

These 2: Analytik und Information sind allgegenwärtig. In den letzten Jahren konnte man

eine Evolution von BI beobachten. BI wurde operational, BI wird endlich in den Kontext von

Page 120: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 120

Prozessen gestellt und im Sinne eines geschlossenen Kreislaufmodells zur

Prozessüberwachung und Steuerung eingesetzt. Damit verabschiedete sich BI auch vom

alten Paradigma, dass BI nur auf einem Data Warehouse funktioniert. Operative

Datenquellen werden gleichberechtigt zu klassischen Data Warehouse Daten. Daraus folgt

eine neue Herausforderung: Die traditionellen ETL-Prozesse allein tun es nicht mehr. Wir

brauchen einen umfassenderen Ansatz zum Information Management. So schafft man den

Übergang von BI zu Performance Management. Inzwischen geht man noch ein Stück weiter

und sieht die Schlüsselrolle von BI über Performance Management und Analytik hinaus jetzt

auch für Governance, Risiko-Management und Compliance („GRC“). In diesen

Aufgabenstellungen ist BI aus dem Unternehmensalltag nicht mehr wegzudenken.

Heute ist es nicht mehr ausreichend, Analytik nur mit Unternehmensdaten zu betreiben. Im

Big Data stecken enorme Potentiale, die es zu erschließen gilt. Die Social Media liefern

Daten, mit denen Unternehmensdaten – unter Berücksichtigung des gesetzlichen

Datenschutzes – deutlich angereichert werden können, um besseres Marketing und eine

individuelle Kundenkommunikation zu erlauben. Das mobile Internet liefert

Lokalisierungsdaten, so dass wir zum ersten Male Information nicht nur in den Kontext von

Zeit („Echtzeit“) stellen können, sondern auch in den Kontext von Raum. Räumliche und

zeitbezogene Information hat einen wesentlich höheren Wert als die reine Information an

sich. Mit der Konvergenz von Information, Raum und Zeit werden neue innovative Prozesse

möglich, an die man bisher gar nicht denken konnte: raumbezogene Kundenkommunikation,

beispielsweise im mCommerce, operationale Informations-Services zu Fahrplänen,

Verspätungen, Staus, Wetterrisiken etc., mit denen Prozesse innovativ neu gestaltet werden

können oder mobile Services zur Lokalisierung, Registrierung, Authentifizierung oder zum

Bezahlen, um hier nur einige Beispiele zu nennen. Man kann heute mit Fug und Recht

sagen: Information und Analytik sind allgegenwärtig.

These 3: BI ist auf der Vorstandsebene angekommen. Mit der Rolle von BI in

Performance Management und GRC ist BI auf dem C-Level angekommen. Früher wurde BI

der IT im Unternehmen verkauft. Viele BI-Projekte haben darunter gelitten. Die

Wertschöpfung durch BI war schwer oder teils gar nicht nachzuweisen. Riesige Data

Warehouses verursachten Kosten, aber keiner wollte die dort vorhandenen Daten so recht

nutzen. Das ändert sich nun. Die Wertschöpfung von BI im Kontext von Prozessen ist

unbestritten. Im Sinne von GRC wird das Büro des CFO zu einem Leitstand des

Unternehmens. Aus dem CFO wird der Verantwortliche für Performance, Analytik und GRC.

Ein weiterer Treiber ist mit den Smart Phones und Tablets entstanden. Jeder, von der

Vorstandsebene angefangen, will solche Geräte, und BI ist eine der gängigsten

Anwendungen. BI wird auch im Vorstand zu einer Routinetätigkeit und nicht mehr nach unten

delegiert.

These 4: BI findet mehr und mehr Nutzer in den Fachabteilungen. Der Aufbau von BI-

Kompetenzzentren macht es möglich: Insbesondere Analytik kann mehr und mehr von den

Fachabteilungen genutzt werden. Die Ergonomie der Werkzeuge steigt insbesondere durch

Service-Orientierung („Mashing-up“), bessere Visualisierung, höhere Automatisierung und

intuitivere Fähigkeiten. So werden einerseits die Werkzeuge immer besser und besser, aber

andererseits werden die Nutzer in den Fachabteilungen auch immer vertrauter mit digitalen

Werkzeugen. Die „digital natives“, die im privaten Bereich in der Regel über mehr und

bessere Rechnerleistung verfügen als in Unternehmen heutzutage geboten wird, sind in den

Page 121: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 121

Unternehmen angekommen und stellen „mündige“ Nutzer dar. Wenn dann noch die BI-

Kompetenzzentren Hilfe zur Selbsthilfe leisten, dann kann Analytik von breiten Kreisen der

Nutzer in den Fachabteilungen auch weitgehend autonom genutzt und eingesetzt werden.

Was wir in den 80er Jahren propagiert haben, nämlich Werkzeuge zu bieten, mit denen

Fachabteilungen selbstständig ihre Reports bauen können, wird jetzt so langsam machbar:

Self-Service-BI ist heute Realität geworden. Es kommt dabei auf das Zusammenspiel von

Organisation und Technologie an. Die BI-Governance ist der kritische Erfolgsfaktor.

Die Social-Media-Konzepte und Werkzeuge erlauben darüber hinaus, eine neue

Kollaboration und neue Governance-Ansätze. Hier wird sich in den kommenden Jahren noch

einiges entwickeln. Facebook-artige Lösungen sind gerade dabei, in den Unternehmen Fuß

zu fassen. Aber der Facebook-Ansatz hat hier einen Nachteil, da er ganz auf dem rein auf

den Menschen bezogenen sozialen Ansatz von Marc Zuckerberg beruht. Er ist nicht

ausreichend, um die Steuerung im Unternehmen in allen Belangen zu unterstützen. Hier

scheint der alternative mehr medial ausgerichtete Ansatz von Google+, Jive, Yammer und

anderen geeigneter zu sein: Er ist nicht allein auf sozialen Prinzipien aufgebaut, sondern vor

allem auf Kommunikationsprinzipien. Das könnte besser in die Unternehmen als innovativer

Ansatz in der internen und externen Unternehmenskommunikation wirken. Die Zeit wird es

zeigen. Hier stehen wir noch ganz an den Anfängen.

Fazit: Performance Management und Analytik heute, also die „neue“ BI muss gemäß den

Prinzipien „Einfachheit, Mobilität, extreme Analytik und Kollaboration“ ausgerichtet sein und

entsprechend gelebt werden.

9.2 Taxonomie des Marktes für Performance Management und Analytik

Kommen wir nun zu einer Taxonomie des Marktes. Ausgehend von den drei Phasen der

Aktionszeit (Abb. 36) können wir eine Taxonomie ableiten, um die Spieler (Anbieter) im

Markt zu klassifizieren (Abb. 38). Spitzenspieler der verschiedenen Kategorien sind in den

Kapiteln 9.3 bis 9.5 aufgelistet. Einzelheiten über spezielle, ausgewählte Anbieter werden in

Teil 2 dieses White Papers veröffentlicht werden. In jedem dieser Kompendien werden wir

die Architektur und die Strategie der Anbieter analysieren und entsprechend der

Referenzarchitektur in diesem ersten Teil bewerten.

Teil 2 – Verfügbare Kompendien (März 2012): arcplan, BOARD, Cubeware, EPOQ, IBM,

Informatica, geoXtend, Kapow Software, Lixto, Panoratio, PitneyBowes/MapInfo, SAP, Stibo

Systems, Tibco/Spotfire, Tonbeller AG (auf www.wolfgang-martin-team.net).

Als Best Practice zur Implementierung von Performance Management gelten heute die von

Gartner so genannten CPM-Toolkits, die zwischen CPM-Suites und Einzelwerkzeugen (wie

Tabellenkalkulation) positioniert sind. Diese bieten Performance Management-spezifische

Funktionalitäten als Services, sind also offen mit standardisierten Schnittstellen. Sie sind

wegen des SOA-Prinzips der losen Kopplung aber nicht fest ‘zusammengeklebt’ wie CPM-

Suites, die typischerweise auf proprietären Technologien beruhen, bei deren

Implementierung nicht unerhebliche Integrationsaufwendungen entstehen und ein flexibles

Page 122: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 122

Anpassen an individuelle und ad hoc Aufgaben nur schwer, wenn überhaupt möglich ist.

CPM-Toolkits funktionieren auf Grund ihres Servicecharakters wie Legosteine mit

Funktionen ‘hinter der rechten Maustaste’. Das erlaubt dem Nutzer nach dem SOA „Mash-

up“-Prinzip durch die Auswahl von Objekten mittels Drag-and-Drop und mittels Eingabe der

entsprechenden Eigenschaften weitgehend selbständig Composite Applications zu erstellen.

Performance Management

© 2012 S.A.R.L. Martin38

Taxonomie PM/Analytik

BAM

Entscheidungsmaschinen

Daten-IntegrationsplattformData

Warehouse

LLDM

Enterprise Service Bus

ETL

Analytik

Maßnahme

BusinessScorecard

Abbildung 38: Taxonomie des Performance Management (PM) und Analytik-Markts und seiner Spieler, die auf dem Prinzip der Aktionszeit (Abb. 36) beruht. (BAM = business activity monitoring, ETL = extraction, transformation, load; LLDM = low latency data mart)

Insofern adressieren insbesondere CPM-Toolkits die alte BI-Anforderung nach mehr

Selbstständigkeit in den Fachabteilungen (siehe These 4 in Kap. 9.1). Während

herkömmliche CPM-Suites nur spezifische Anforderungen innerhalb eines Bereichs mit

einem speziellen Modul abdecken, ist ein CPM-Toolkit eine offene, aber fachlich

zusammenhängende Umgebung, in der dem Nutzer alle Objekte und Funktionen als

Services zur Verfügung stehen, um ohne zu programmieren genau das per Mash-up zu

komponieren und orchestrieren, was benötigt wird.

9.3 Klassifikation der Anbieter von analytischen Datenbanken

Die folgende Auflistung von Anbietern erhebt keinen Anspruch auf Vollständigkeit.

Umgekehrt fokussiert Sie auf den deutschsprachigen Raum und enthält eine Reihe von

lokalen Anbietern. Die Klassifikation folgt der Taxonomie von Abbildung 38. Eine

weitergehende Beschreibung zu ausgewählten Anbietern findet man beispielsweise im ISIS

BI & BPM Kompendium (2011).

Page 123: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 123

In der Vergangenheit wurden und auch heute noch werden Data Marts und Data

Warehouses in der Regel mittels relationaler Datenbank-Technologie implementiert. Daher

haben wir die traditionellen relationalen Datenbanksysteme hier genauso aufgenommen wir

die analytischen Datenbanken, die wir im Kapitel 7.2 diskutiert haben, und die NoSQL-

Datenbanken, die sich für Analyse eignen und die wir in Kapitel 7.3 diskutiert haben. Bei den

OLAP-Systemen haben wir auch ROLAP aufgenommen, obwohl ROLAP keine persistente

Datenhaltung hat, und ROLAP-Anbieter dazu in der Regel relationale oder analytische

Datenbanken nutzen.

OLAP-Datenhaltungssysteme (MOLAP, ROLAP, HOLAP)

BOARD, IBM Cognos, IBM Cognos TM1, Infor/Alea, Information Builders, instant OLAP,

Microsoft SQL Server, MicroStrategy, MIK, Oracle 11g, Oracle/Essbase, Paris Technologies

(PowerOLAP), Quartet FS (Active Pilot), SAP Netweaver BI, SAS OLAP Server, Teradata

Open Source: The Bee Project, Jaspersoft, Jedox/Palo, Pentaho/Mondrian

(traditionelle) relationale Datenhaltungssysteme

IBM DB2, IBM Informix, Microsoft SQL Server, Oracle 11g, SAS Scalable Performance Data

Server

Open Source: Ingres Data 10, Lucid DB, Oracle/MySQL, PostgreSQL

Analytische relationale MPP-Datenhaltungssysteme

IBM DB2 (InfoSphere Warehouse), IBM Smart Analytics System, IBM Netezza, Kognitio,

SAS Scalable Performance Data Server (mit SAS Grid Computing und SAS In-Memory-

Analytics), Teradata

Open Source: Actian VectorWise, EMC/Greenplum

Analytische NoSQL-Datenhaltungssysteme (ohne in memory Datenverarbeitung)

Illuminate, HP/Vertica, Kx Systems, Sand Analytics, SAP Sybase IQ, Teradata/AsterData,

Vectornova,

Open Source: Apache Cassandra, Apache Hadoop HBase, InfoBright, MongoDB

Analytische NoSQL-Datenhaltungssysteme (in memory Datenverarbeitung)

1010Data, Exasol, IBM Smart Analytics Optimizer, ParAccel, SAP HANA

Spezielle Datenhaltungssysteme (Technologie in Klammern)

CrossZSolutions (QueryObject System), Drawn-to-Scale (Big Data Platform auf Hadoop)

dimensio informatics (minimal-invasives Performance-Tuning), HPCC Systems (Big Data

Framework à la Hadoop), InterSystems (OODB), Oracle Exadata Database Machine (Data

Appliance mit Massive Parallel Grid), Oracle Exalytics In-Memory Machine

(Spezialtechnologie fuer CEP), Panoratio (Database Images)

Hadoop-Distributoren

Cloudera, Hortonworks, MapR

Analytische Datenbanken bringen den Nutzern ganz neue Möglichkeiten, sowohl in der

Skalierbarkeit, der Performance als auch in den Betriebskosten. Wer heute komplexe

Page 124: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 124

Analysen auf großen Datenmengen durch viele Benutzer mit vielen Abfragen ausführt und

eine hohe Performance und Skalierbarkeit bei einfacher Wartbarkeit benötigt, sollte

analytische Datenbanken auf jeden Fall berücksichtigen. Wir meinen: Eine Evaluation lohnt

sich auf jeden Fall. Damit sollte man auf keinen Fall mehr warten!

9.4 Klassifikation der Performance Management/Analytik-Anbieter

Die folgende Auflistung von Anbietern erhebt keinen Anspruch auf Vollständigkeit.

Umgekehrt fokussiert Sie auf den deutschsprachigen Raum und enthält eine Reihe von

lokalen Anbietern. Die Klassifikation folgt der Taxonomie von Abbildung 38. Eine

weitergehende Beschreibung zu ausgewählten Anbietern findet man beispielsweise im ISIS

BI & BPM Kompendium (2011).

Performance Management / Analytik (allgemeine Frontends: Suites, Toolkits,

Reporting, Dashboards und Spezialwerkzeuge)

die GROSSEN Fünf: HP, IBM, Microsoft, Oracle, SAP

die weltweit größten Spezialisten: Actuate, Infor, Information Builders, MicroStrategy,

QlikTech, SAS Institute

die Herausforderer: Adaptive Planning, Advizor Solutions, Antares Informations-Systeme,

arcplan, aruba Informatik, Bime, Birst, Bissantz, Bitam, BOARD, CA/CleverPath,

Cubeware, Evidanza, GoodData, Host Analytics, InetSoft Style Intelligence, instantOLAP,

Intensio, iQ4bis, kpiWeb, Lyzasoft, Menta, MIK, Oco, Orbis AG, Panorama Software,

Paris Technologies, PivotLink, Prevero, Reboard, SAMAC (nur für IBM iSeries), StatSoft,

Tableau Software, Targit A/S, TIBCO/Spotfire, Tidemark, Tonbeller AG, Verix, Yellowfin

Spezialwerkzeuge für Hadoop: Datameer, Hadapt, Karmasphere

weitere Spezialwerkzeuge (Ansatz in Klammern): Ankhor (Visualisierung von Log-Daten),

Datonix (QueryObject System), Oracle/Endeca (Search), human IT software (InfoZoom),

Panoratio (Database Images)

Open Source: Actuate/BIRT, The Bee Project, JasperSoft, Pentaho

Business Activity Management/Complex Event Processing (BAM/CEP)

Axway, Business CoDe, Gemstone, IBM, Information Builders, Microsoft, myDials, Oracle,

Progress/Apama, SAP/Sybase, SL Corporation, Software AG, Streambase, Systar,

thinkAnalytics, Tibco, UC4 Decision, Verix, Vitria, VMWare/Gemstone

Prädiktive Modelle (Data Mining, Statistik & ähnliche)

Anderson Analytics, Angoss, Avail Intelligence, Blue Yonder, EPOQ, Equbits, Exeura Rialto,

FICO (Fair Isaac Corporation), IBM, IBM/SPSS, IBM/Unica, Infor/E.piphany, ISoft (Alice),

KXEN, Megaputer, Microsoft, MicroStrategy, MIT GmbH, Oracle, Pega Systems (Chordiant),

Pitney Bowes Software (Portrait Software), Prudsys, Quiterian, SAP, SAS, StatPoint

Technologies, StatSoft, Synesis Solutions, Systat Software, thinkAnalytics, Tibco/Spotfire,

Teradata, Treparel, Verix, Viscovery

Open Source: Knime, Orange, RapidMiner, Rattle, Revolution Analytics, R-Project, Weka

Page 125: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 125

Textanalytik

Alias-i, Anderson Analytics, Attensity, Basis Technology, Business Intelligence Group,

Clarabridge, IBM, IBM/SPSS, Lexalytics, Linguamatics, Megaputer, OpenText/Nstein,

Rocket Software/AeroText, SAP, SAS/Teragram, Saplo, Sentimetrix, Serendio, StatSoft,

Teezir, Temis Group, Thomson Reuters/Clear Forest, Treparel, Viscovery, ZyLab

Open Source: Gate, Python NLTK, R (TM module), RapidMiner

Web-Analyse

Adobe/Omniture, AT Internet, Avail Intelligence, Bango, Bime, ComScore/Nedstat, Enecto,

eTracker, Foresee Results, Google Analytics, IBM Cognos Customer Insight,

IBM/Coremetrics, IBM/Unica, Intellitracker, Lyris, Mindlab Solutions, Nielsen/Glance Guide,

Nurago/LeoTrace, sitespect, Targit A/S, Visible Measures, webtrekk, WebTrends, Wired

Minds, Yahoo! Web Analytics

Open Source: eAnalytics

Location Intelligence

Aruba Informatik, BOARD, Cubeware, deCarta, Digital Globe, DMTI Spatial, ESRI,

geoXtend, Google Earth, Integeo, mapdotnet, MapQuest, MetaCarta, Microsoft/VisualEarth,

Navteq, Oracle, Pitney Bowes Software, Tableau Software, Talent Information Systems,

TomTom Global Content, Vistracks

Entscheidungs-(Regel-)maschinen

Angoss, Avail Intelligence, CA Aion, Bosch SI/Innovations, Corticon, EPOQ, FICO (Fair

Isaac Corporation), IBM, IBM/SPSS, Infor/E.piphany, MicroStrategy, Oracle, Pega Systems,

Pitney Bowes Software (Portrait Software), Prudsys, SAP, SAS, StatSoft, thinkAnalytics,

Tibco, UC4 Decision, Versata, Viscovery

Open Source: RapidMiner

Financial Performance Management (Budgeting, Planning, Forecasting, Financial

Consolidation etc.)

A3 Solutions, Acorn System, Adaptive Planning, Alight Planning, Antares Informations-

Systeme, arcplan, ASRAP Software, Axiom EPM, Bitam, BOARD, Complan & Partner

(EPUS), CoPlanner, CP Corporate Planning AG, CSS Computer Software Studio,

Cubeware, Cubus AG, Denzhorn, Evidanza, HaPeC, Hologram BI, Host Analytics,

IBM/Clarity Systems, IBM/Cognos, IDL Systems, Infor, Longview Solutions, LucaNet, macs

software, Microsoft, MIK, Oracle/Hyperion, Orbis AG, Paris Technologies, PMS GmbH,

Prevero, Procos AG, Prodacapo, ProfitBase, Prophix, Performance Solutions Technologies

(managePro), River Logic, SAP, SAS, Software4You, Tagetik, Targit A/S, Thinking

Networks, Tidemark, UNIT4 Coda, Whitebirch Software

Spezielle Werkzeuge für Spreadsheet-Management und Compliance: ClusterSeven

Business Scorecards (Dashboards, Strategy Maps) – Stand-Alone-Lösungen

Active Strategy, Axsellit (Corporater Express), BOC (AdoScore), Business CoDe,

Communic (Vision.iC), Corda Technologies, Corporater, eBrains Consulting, Hologram BI,

Horvath & Partner, Hyperspace, iGrafix, macs software, myDials, Performance Solutions

Page 126: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 126

Technologies (managePro), Prelytis, Procos AG, Prodacapo, QPR Software, Rocket CorVu,

Software AG, Stratsys AB, UNIT4 Coda

9.5 Klassifikation der Anbieter von Information Management

Die folgende Auflistung von Anbietern erhebt keinen Anspruch auf Vollständigkeit.

Umgekehrt fokussiert Sie auf den deutschsprachigen Raum und enthält eine Reihe von

lokalen Anbietern. Die Klassifikation folgt der Taxonomie von Abbildung 38. Eine

weitergehende Beschreibung zu ausgewählten Anbietern findet man beispielsweise im ISIS

BI & BPM Kompendium (2011).

Datenintegration – Plattformen

die GROSSEN: IBM, Informatica, Oracle, SAP, SAS Institute/DataFlux

die Herausforderer: Adeptia, Astera, Attunity, Axway, CA/Inforefiner, Columba Global

Systems, Comlab/Ares, Composite Software, Gamma Soft, HVR Software, Information

Builders/iWay Software, Parity Computing, Pervasive, SnapLogic, Software AG, Tibco,

Uniserv, Versata

Open Source: CloverETL, JBOSS Enterprise Middleware, Jitterbit, JumpMind, Talend

ETL/ELT

AbInitio, BOARD, CA/Advantage Data Transformer, Cubeware, Datarocket, Datawatch, IBM,

Informatica, Information Builders, iQ4bis, Menta, Microsoft, Open Text, Oracle, Pervasive,

Pitney Bowes Software, SAP, SAS, Software Labs, SQ Data, Syncsort, Theobald Software,

Tonbeller AG, Uniserv, Versata

Spezielle Werkzeuge zur Planung von DW (“pre-ETL”): Wherescape 3D

Open Source: Apatar, The Bee Project, CloverETL, Enhydra Octopus, KETL, Pentaho/Kettle,

RapidMiner, Talend

ETL – Spezialwerkzeuge semantische Web-Crawler/-Extraktion

30 Digits Web Extractor, Business Intelligence Group, Brainware, Connotate, Fetch

Technologies, Kapow Software, Lixto, Teezir

Datenklassifikation

Data Global, EMC/Kazeon, FileTek/Trusted Edge, Index Engines, Microsoft, Nogacom,

Rocket Software/Arkivio, StoredIQ, Varonis Systems

Datenqualität

AS Address Solutions, Ataccama, Datactics, Datanomic, Datras, emagixx, Harte Henks,

Human Inference, IBM, Informatica, Innovative Systems, Omikron, Oracle, Pitney Bowes

Software, SAP, SAS, tekko, TIQ Solutions, Uniserv, Versata

Open Source: CloverETL, RapidMiner, Talend

Page 127: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 127

9.6 Entwicklung von Big Data: Marktschätzungen

Der Big Data-Markt besteht aus Software-, Hardware- und Services-Anbietern. Zur Big Data-

Software werden Datenhaltungssysteme, Daten-Management und Analytik gezählt, die den

Belangen und Herausforderungen von Big Data gerecht werden. Dazu gehören:

Datenhaltungssysteme: NoSQL-Datenbanken wie Hadoop und analytische Datenbanken,

eine neue Generation von Data Warehouse Software- und Hardware-Technologien,

Big Data Management, i.e. Daten-Management (Integration, Repository, Datenqualität,

Governance) angewandt auf Big Data,

Big Data analytische Plattformen und Applikationen inklusive neuer Konzepte zur Daten-

Visualisierung, Data Discovery, Location Intelligence, Textanalyse etc. mit Fokus auch

auf die Analyse multi-strukturierter Daten.

Big Data-Services entsprechen den traditionellen Services wie Support, Training sowie

Beratungs- und Entwicklungs-Dienstleistungen, jetzt bezogen auf Big Data. Big Data-

Hardware umfasst alle Typen von Hardware, jetzt angewandt auf Big Data. Neu sind hier

insbesondere Data Appliances, gebündelte und aufeinander abgestimmte Software- und

Hardware-Lösungen, meist auch noch kombiniert mit den entsprechenden Dienstleistungen.

Entwicklung von Big Data

Markt- und Potenzialschätzungen

Anbieter wie EMC sprechen von $70b.

Investitionen in Hadoop: $350m.

Big Data ist mehr als ein Hype.

39 © 2012 S.A.R.L. Martin

Quelle: Wikibon - http://wikibon.org/wiki/v/Big_Data_Market_Size_and_Vendor_Revenues

Abbildung 39 : Wikibon’s 5 Jahres-Vorhersage für den Big Data-Markt (Software, Hardware, Services weltweit).

Am Jahresanfang 2012 ist dieser Big Data-Markt noch ein recht überschaubarer Markt, der

laut Wikibon (http://wikibon.org/wiki/v/Wikibon:About), einer „Professional Community“,

gerade mal auf $5 Milliarden (Software, Hardware und Services) geschätzt wird. Aber dieser

Markt soll in den nächsten 5 Jahren auf $50 Milliarden wachsen (Abb. 39). Das macht ein

Page 128: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 128

CAGR von 58% von heute bis 2017. Anbieter wie EMC sprechen sogar von $70 Milliarden

als Zielgröße. Die Gründe für dieses rasante Wachstum haben wir ja bereits in Kap. 2.4

diskutiert: Die Nutzenpotenziale, die Analysen im Big Data versprechen, zielen direkt auf die

Bottom Line der Unternehmen in allen Branchen: Umsatzsteigerungen, Kosteneinsparungen,

Erhöhung der Wettbewerbsfähigkeit und neue, innovative Geschäftsmodelle. Wer will da

zurückstehen?

Aber trotz aller Euphorie für die Marktentwicklung und die Zukunft: Noch wird im Big Data-

Markt nicht das große Geld verdient. Wikibon hat dazu die Umsätze der „reinen“ Big Data-

Anbieter 2011/2012 ermittelt. Als „reiner“ Big Data-Anbieter zählt dabei ein Software-,

Hardware- oder Service-Anbieter, der mehr als 50% seines Umsatzes mit Big Data macht.

Der Gesamtumsatz dieser Anbieter (Februar 2012) macht gerade mal $311 Millionen aus,

also gerade mal rund 5% des Gesamtumsatzes im Big Data-Markt (Abb. 40).

Big Data-Anbieter 2011/12

Quelle: Wikibon - http://wikibon.org/wiki/v/Big_Data_Market_Size_and_Vendor_Revenues

40 © 2012 S.A.R.L. Martin

Abbildung 40: Weltweiter Jahresumsatz der führenden “reinen” Big Data-Anbieter bezogen auf Februar 2012. Die „reinen“ Big Data-Anbieter sind definiert als Anbieter von Software, Hardware oder Services, die mehr als 50% mit Big Data umsetzen. Diese gezeigten Zahlen spiegeln nur diese Umsätze wieder.

Aber umgekehrt sind es genau diese Anbieter, auf die nahezu alle Innovationen und

alternativen Ansätze zu Data Management und Analytik zurückgeführt werden können. Und

diese Anbieter sind deshalb auch das Ziel von Übernahmen durch die großen IT-Anbieter:

HP hat Vertica, Teradata Asterdata und EMC Greenplum übernommen. Das zeigt, dass sich

die großen IT-Anbieter ihren Anteil an diesem Wachstumsmarkt sichern. Das unterstreicht

auch, dass die Markteinschätzungen zum Wachstum nicht unbedingt aus der Luft gegriffen

sind, da die großen Anbieter hier investieren. So sind beispielsweise in das Apache

OpenSource-Projekt Hadoop bisher $350 Millionen geflossen.

Page 129: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 129

Wie sieht nun der $5 Milliarden Big Data-Markt in 2012 aus, wenn die „reinen“ Big Data-

Anbieter gerade mal mit 5% zum Markt beitragen? Es dominieren wie immer die großen IT-

Anbieter, und die haben sich alle Big Data auf die Fahnen geschrieben. In der Abbildung 41

listen wir der Wikibon-Schätzung folgend alle IT-Anbieter, die mehr als $100 Millionen

Umsatz mit Big Data machen. Die SAP ist noch nicht dabei, steht aber mit geschätzten $85

Millionen in 2011 kurz vor dieser Schwelle. Bei den Zahlen fällt zum einen auf, dass im

Augenblick viel Geschäft mit Hardware und auch mit Services (beispielsweise IBM) gemacht

wird, und zum anderen, dass mit Ausnahme von Teradata bei allen Anbieter der Big Data-

Umsatz vernachlässigbar klein ist. Aber das soll sich ja ändern, wenn auch völlig klar ist,

dass wir mit Big Data ganz am Anfang stehen. Auch ist in diesem Markt mit vielen

Übernahmen der kleinen innovativen Software-Anbieter durch die großen IT-Anbieter zu

rechnen ganz analog zur BI-Übernahmewelle in den Jahren 2007/08.

Big Data-Umsätze großer IT-Anbieter

Quelle: Wikibon - http://wikibon.org/wiki/v/Big_Data_Market_Size_and_Vendor_Revenues

Vendor

Big Data

Revenue

(in $US millions)

Total Revenue

(in $US millions)

Big Data

Revenue as

Percentage of

Total Revenue

IBM $1,100 $106,000 1%

Intel $765 $54,000 1%

HP $550 $126,000 0%

Oracle $450 $36,000 1%

Teradata $220 $2,200 10%

Fujitsu $185 $50,700 1%

CSC $160 $16,200 1%

Accenture $155 $21,900 0%

Dell $150 $61,000 0%

Seagate $140 $11,600 1%

EMC $140 $19,000 1%

Capgemini $111 $12,100 1%

Hitachi $110 $100,000 0%

Total 2012 Big Data Revenue by Vendor

41 © 2012 S.A.R.L. Martin Abbildung 41: TOP-Anbieter, die mehr als $100 Millionen Umsatz im Big Data machen (Software, Hardware, Services weltweit). Mit Ausnahme von Teradata liegt der Big Data-Umsatzanteil bei allen Anbieten bei rund 1% des Gesamtumsatzes oder sogar darunter.

Fazit: Big Data – der Markt:

Der Markt ist jung und unreif. Wir stehen ganz am Anfang, aber eine Explosion des Marktes ist zu erwarten: Big Data hat großes Potenzial und ist ein sehr schnell wachsender Markt.

Unternehmen sollten den Big Data-Markt beobachten, um nicht den Anschluss zu verlieren. Es empfiehlt sich, Nutzenpotenziale für das Unternehmen jetzt zu identifizieren und in Abhängigkeit von einer solchen Analyse erste Piloten zu starten.

Anbieter sollten eine glaubwürdige Position aufbauen und eine Roadmap, die klar erkennbare Werte bietet und die notwendige Flexibilität, um im Big Data-Markt zu prosperieren.

Page 130: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 130

9.7 Grundsätze zur PM/Analytik-Plattform- und Werkzeugauswahl

Die Evolution der traditionellen BI von Reporting und Analyse historischer Daten („Data

Warehouse“) zu prozess-orientierter, operationaler BI hat schon 2003/04 eingesetzt. Das ist

einer der Hauptgründe, warum die großen BPM/SOA-Plattform-Spieler (HP, IBM, Microsoft,

Oracle, SAP) und die führenden ERP II Anbieter (beispielsweise Infor) ihre Plattformen um

BI-Lösungen in 2007 (HP erst in 2011) ergänzt und arrondiert haben. Unter diesen

Gegebenheiten haben Anwender und Kunden die Wahl zwischen drei Szenarien:

Das konservative Szenario: Man wählt eine der fünf Plattformen. Der Nutzen für die

Anwender und Kunden liegt auf der Hand: Alles kommt aus einer Hand, alles ist integriert

und alles passt (mindestens sagt das das Marketing der Anbieter und einiges stimmt ja

auch!) Allerdings sind die Nachteile auch offenkundig: Man hängt am Tropf der Plattform

seines Anbieters und ist dessen Preisgestaltung (Lizenzierung, Wartung und Support)

ausgesetzt. Dazu kommt das Risiko, dass man nicht immer voll darauf bauen kann, dass die

aufgekauften BI-Lösungen vom neuen Besitzer mit der gleichen Sorgfalt und den

entsprechenden Investitionsvolumen weiterentwickelt wird. Ein konservativer Kunde wird

dann sagen: Mit den Nachteilen kann ich leben. Ich bin auf der sicheren Seite, denn eine

Entscheidung für einen der großen Anbieter stellt ein minimales Risiko dar.

Das innovative Szenario: Die SOA-basierten Plattformen der Großen Fünf bieten auch eine

große Chance, denn eine SOA folgt Standards. Niemals zuvor hat man in der IT gesehen,

dass alle großen Anbieter wirklich zusammen arbeiten und die Standards nach vorne

bringen (Das könnte zwar noch besser sein, aber viele der Standards sind schon

praxistauglich.) Mit anderen Worten, SOA macht die Plattformen offen. Sie stellen einen Bus

dar, in den jeder andere Anbieter sich leicht einklinken kann. Best-of-Breed wird möglich.

Das ist die Chance für innovative und kleine, agile Anbieter, Nischenfunktionalität zur

Ergänzung oder als Alternative zur Basisfunktionalität der Plattform erfolgreich in den Markt

bringen zu können. Innovative BI-Nutzer können so von der Offenheit der Plattform

profitieren und sich durch bessere BI-Werkzeuge Marktvorteile erarbeiten. Hier ist an

Enterprise Search, Simulationsverfahren, Text Mining, linguistische Verfahren,

Netzwerkanalysen etc zu denken.

Das Low-Budget-Szenario. Die Offenheit der Plattformen bietet Unternehmen, die nur

Commodity-Lösungen zu einem Commodity-Preis suchen ebenfalls eine Chance:

OpenSource-Lösungen sind aufgrund der Service-Orientierung leicht integrier- und nutzbar.

Das ist heute die Low-Budget-Alternative zu den BI-Lösungen der Plattform-Anbieter.

Inzwischen wird auch nahezu die gesamte Performance Management und Analytik-

Funktionalität in Form von OpenSource-Lösungen angeboten.

Heute tut sich eine weitere Möglichkeit auf, denn mit den Initiativen zu Cloud Computing

kommt eine Alternative zu den traditionellen „on premise“-Lizensierungsmodellen in den

Markt, die jetzt die Plattformanbieter unter Druck bringt, auch ein BI as a Service anzubieten.

Nahezu alle Anbieter haben diesen Schritt bereits vollzogen. BIaaS hat zudem das Potential,

BI in den Mittelstand zu bringen, denn da ist bis heute nur Excel als Werkzeug angekommen,

aber Mittelständler unterliegen den gleichen Compliance-Anforderungen wie die

Großunternehmen. Insofern ist das Ende von isolierten Excel-Lösungen als Unternehmens-

Werkzeug eingeläutet. Dieser Riesenmarkt wird sich mit BIaaS und ähnlichen Angeboten

Page 131: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 131

aus der „Wolke“ erschließen lassen, aber nicht unbedingt nur mit den Plattformen der heute

(noch) führenden Anbieter.

9.8 Roadmap für die Nutzer von Big Data

Die aktuellen Big Data-Aktivitäten in Unternehmen kann man in drei Gruppen einteilen:

agiles Big Data, operationelles Big Data und „High Resolution Management“. So lassen sich

im Endeffekt die Angebote der Anbieter besser verstehen, und CIOs und CTOs können für

ihre Ziele die richtigen Angebote besser auswählen.

Agiles Big Data bezeichnet den Ansatz, dass alles nicht viel kosten und vor allem auch

schnell gehen sollte. Bei diesem Ansatz helfen beispielsweise die Technologie-Angebote, die

Analysten rasch erlauben festzustellen, ob eine Datenmenge aus dem Big Data fürs

Unternehmen Potenzial hat. Hier eignen sich insbesondere auch die jetzt auf den Markt

kommenden Data as a Service-Angebote, die über ein OPEX-Finanzierungsmodell

kurzfristig operativ abgerechnet werden können und die schnell nutzbar – und wenn es sich

nicht lohnt – auch schnell wieder abschaltbar sind. Im agilen Big Data-Ansatz sind die

Analysten oder Data Scientists (siehe Kapitel 3.4) die Macher. Die Unternehmen, die einen

solchen Ansatz fahren haben typischerweise eine robuste Unternehmenskultur in daten-

getriebenem Treffen von Entscheidungen. Die Kernfrage im agilen Big Data ist: Wie kann

man eine Art von Spreadsheet-Konzept in der Welt von Big Data etablieren?

Operationelles Big Data bezeichnet die Automatisierung und Verschlankung des

Analyseprozesses, damit man Entscheidungen treffen kann und Geschäftsprozesse

intelligenter werden. Hier findet der Wettbewerb statt zwischen der OpenSource-Welt von

Hadoop und den in Kapitel 9.3 genannten Anbietern zusammen mit den Data Discovery-

Lösungen wie sie beispielsweise MicroStrategy, QlikTech, SAS Institute, Tableau Software

und TIBCO Spotfire anbieten. Die Kernfrage im operationellen Big Data ist: Wie können wir

eine Infrastruktur schaffen, so dass jeder Nutzen aus dem ziehen kann, was wir aus dem Big

Data lernen?

High Resolution Management meint die Idee, dass die Management-Prozesse und auch

so mancher operativer Geschäftsprozess auf Basis der viel detaillierteren Fakten, die man

aus dem Big Data gewinnen kann, komplett neu zu gestalten ist. Die Kernfrage im High

Resolution Management ist: Wie können wir die Art und Weise ändern, mit der wir unser

Unternehmen managen, wenn wir all die Details über Markt und Kunden aus dem Big Data

zur Verfügung haben?

Mit diesem Modell als Hintergrund lässt sich sehr schön die SAP-Strategie darstellen, die wir

wegen der Bedeutung von SAP im deutschsprachigen Markt hier anführen. Sanjay Poonen24

sagt: „SAP is attempting to create an integrated approach that allows companies to perform

24

Sanjay Poonen ist President und Corporate Officer bei SAP Global Solutions, siehe Beitrag in Forbes:

http://www.forbes.com/sites/danwoods/2012/01/05/bringing-value-of-big-data-to-business-saps-integrated-

strategy/

Page 132: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 132

analytics, make big data operational, and support applications for high resolution

management all in one environment.”

Wie wir schon gesagt haben: Big Data Technologien sind noch jung und unausgereift. Big

Data-Vorgehensweise stützen sich auf eine noch überschaubare Menge von Erfahrungen.

Hier haben wir fünf Herausforderungen zusammengestellt, die Nutzern helfen sollen, die

ersten Schritte in Richtung Big Data zu gehen.

1. Herausforderung: Das Aufspüren von talentierten Mitarbeitern, die Big Data und

Analytik kennen und Erfahrungen gemacht haben. Das ist nicht zu unterschätzen,

denn solche Experten sind noch rar im Markt. Hier sollte man auf jeden Fall auf

spezialisierte Beratungsunternehmen zurückgreifen, denn sonst kann man schnell viel

Zeit und Geld verlieren ohne einen Mehrwert aus Big Data zu erzielen. Vor allem: Starten

Sie nicht ins Big Data ohne externe Beratung, die neben den Big Data-Technologien vor

allem auch in Sachen Organisation berät. Im Big Data braucht man neue Wege in der

Zusammenarbeit IT und Fachabteilung sowie neue Rollen und

Arbeitsplatzbeschreibungen. Wir hatten die Data Scientists in diesem Zusammenhang ja

schon genannt (Kap. 3.4).

2. Herausforderung: Das Auswählen der Technologie und der Werkzeuge. Hier sollte

natürlich auch der externe Berater helfen. Es empfiehlt sich (nicht nur) im Big Data, die

Strategie zuerst festzulegen, also beispielsweise, ob man ins agile oder operative Big

Data will oder sogar ein High Resolution Management anstrebt. Denn – wie schon gesagt

– die Auswahl der Technologie und der Werkzeuge, sowie die Frage der Bereitstellung –

Cloud oder nicht Cloud – hängt davon ab.

3. Herausforderung: Das Feststellen der Relevanz von Information für die

Problemstellung. Welche Information bietet einen Mehrwert in Bezug auf die Kosten der

Identifizierung, Extraktion, Speicherung und Analyse? Das ist die Grundsatzfrage, die

man a priori in den seltensten Fällen beantworten kann. Ein Lösungsansatz ist das

Aufstellen von Relevanzmaßen. Bei Stimmungsanalysen kann man beispielsweise eine

Datenquelle danach bewerten, wie oft ein uns interessierender Begriff in welchem

Zeitraum vorkommt. Dabei helfen dann die bekannten Suchfunktionen, um sich solche

Statistiken zu erarbeiten. Hier sollte auch der externe Berater mit Best Practices helfen.

Ansonsten gilt: Ausprobieren und iterieren („trial and error“). Man betritt hier definitiv

Neuland.

4. Herausforderung: Das kontinuierliche “Anders-Denken”. Hier gilt als Regel: keine

Annahmen treffen, keine Hypothesen haben. Denn Big Data-Analysen dienen ja gerade

dazu, Hypothesen zu finden, die man so nicht kannte und erwartet hatte. Das Testen

solcher Hypothesen erfolgt erst in einem zweiten Schritt. Das Problem ist hier, dass wir

aus der „alten“ Zeit, in der nur wenig Information zur Verfügung stand, es gewohnt sind,

mit Hypothesen zu arbeiten, die man aus Erfahrungswissen her kannte. Analyse diente

dann genau dem Testen solcher Hypothesen. Jetzt im Big Data dient Analyse zuerst

eben dem Finden von Hypothesen. Das ist neues, anderes Denken, an das man sich erst

noch gewöhnen muss.

5. Herausforderung: Ein Ende finden und den Analyseergebnissen vertrauen. Hier

können wir an den zweiten der fünf Nutzenaspekte aus Kapitel 2.4 anknüpfen: Testen

Page 133: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 133

aller Entscheidungen. Wenn eine Hypothese gefunden wurde, dann sollte man die

schnell in einen Test umsetzen und Kunden und Markt entscheiden lassen, ob die

Hypothese falsch ist oder zu positiven Auswirkungen geführt hat. Das entspricht dem

Vorgehen der Big Data-Vorreiter, die ihre gefundenen Hypothesen zügig in

Testumgebungen umgesetzt haben und dann die Wirkung gemessen haben. Das ist

schnell und dann auch monetär bewertbar. Im Endeffekt ist das natürlich auch wieder ein

iteratives Verfahren nach der “trial and error”-Methode. Da man aber Kunde und Markt

einbezieht, hat man in jeder Iteration eine direkte Wirkung auf die Bottom-Line und damit

eine zuverlässige Steuerung des Gesamtprozesses mit Umsatz und Profit als mögliche

Zielgrößen. Hier sieht man auch, wie wichtig das Wissen eines externen Beraters in den

organisatorischen Fragen ist: Nur wenn ein solches iteratives Verfahren in der

Unternehmensorganisation machbar ist, können Big Data-Analysen tatsächlich einen

messbaren Mehrwert erzeugen.

Fazit: Big Data-Roadmap:

Nutzer von Big Data sollten (wie immer) mit dem Aufstellen der Strategie beginnen. Die

sollte den Richtlinien agiles oder operatives Big Data oder High Resolution Management

folgen sollte.

Nutzer von Big Data stehen vor fünf Herausforderungen, die (wie immer) nicht nur im

Meistern der Technologie bestehen, sondern vor allem in der Organisationsstruktur (Wie

stelle ich mich für Big Data auf?) und in der Vorgehensweise (iterativ Hypothesen finden

und testen) bestehen.

Der Erfolg von Big Data-Analysen muss iterativ durch seine Auswirkungen auf Kunden-

und Marktverhalten gemessen und monetär bewertet werden.

Page 134: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 134

10 Schlusswort und Literaturverzeichnis

Ich bin davon überzeugt, dass meine Vision von Performance Management und Analytik, die

Operationen, Taktiken und Strategien umfasst, Standard wird für die kontinuierliche

Entwicklung von metrisch-orientiertem Management, der Voraussetzung, um sich heutigen

Aufgaben wie Governance, Risiko-Management und Compliance zu stellen. Ebenso bin ich

davon überzeugt, dass die hier diskutierte Referenzarchitektur analytischer Infrastrukturen

Standard wird für dynamische, unternehmensspezifische SOA (service-orientierte) IT-

Architekturen. Die Merger und Akquisitionen insbesondere der Jahre ab 2007 geben mir hier

bereits Recht. Die Anbieter SOA-basierter Plattformen ergänzen sich um Analytik per

Service-Orientierung. Dieses White Paper wird insofern weiterhin helfen, Entscheidungen

über Strategien und über Plattformen und analytische Services auch im Sinne von Cloud

Computing als IT-Bereitstellungsmodell zu treffen.

Performance Management und Analytik sind die richtigen Reaktionen auf die

Herausforderung, ein Geschäft zu leiten: Man kann nur managen, was man messen kann.

Wichtig dabei ist, dass das Messen über die reinen Finanzkennzahlen hingehen muss. Wir

müssen operative, taktische und strategische Metriken miteinander kombinieren, um die

richtigen KPMs zu haben. Das ist eines der Leitmotive und die große Herausforderung, die

Unternehmen in eine erfolgreiche Zukunft begleiten. Die technologischen Fortschritte beim

mobilen Internet und bei den sozialen Medien und den daraus resultierenden

Kollaborationsmethoden haben hier die wesentlichen Voraussetzungen geschaffen und

wirken als die großen Treiber.

Fazit:

Business Intelligence – Status Quo: Kritischer Erfolgsfaktor von BI heute ist, Information in

den Kontext von Geschäftsprozessen zu stellen, denn auf die Geschäftsprozesse kommt es

an! Information, auf die Prozesse bezogen, erlaubt den Mitarbeitern, die Prozesse regeltreu

(„compliant“) zu gestalten und nachvollziehbar verfolgen können. So können

Prozessverantwortliche und Führungskräfte die augenblickliche Position und Situation jedes

Prozesses verstehen und rechtzeitig Maßnahmen treffen, wenn Probleme und Risiken sich

abzeichnen. So lassen sich bessere Entscheidungen treffen. Business Intelligence gehört zu

und an jeden Arbeitsplatz. Business Intelligence dient heute dazu, Prozesse intelligent zu

machen und mittels Performance Management zu steuern. Aus traditioneller Business

Intelligence ist Performance Management und Analytik geworden.

Annecy, im Oktober 2012

E-Mail-Adresse: [email protected]

Page 135: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 135

Literatur:

Inmon, W.H., Imhoff, C., and Sousa, R.: Corporate Information Factory, New York, John

Wiley & Sons, 1998, 274 Seiten

Lehmann, P., Martin, W., und Mielke, M.: Data Quality Check 2007 – Trends im deutschen

Markt, Steinbeis Edition, Berlin – Ludwigshafen, 2007, 34 Seiten

Luckham, D.: The Power of Events: An Introduction to Complex Event Processing in

Distributed Enterprise Systems, Boston, Addison Wesley Professional, 2002, 400 Seiten

Martin, W.: Business Performance Management und Real-Time Enterprise – auf dem Weg

zur Information Democracy, Strategic Bulletin, IT Research, www.it-research.net, Aying bei

München, 2003-A, 32 Seiten

Martin, W.: CRM 2004 – Kundenbeziehungsmanagement im Echtzeitunternehmen, Strategic

Bulletin, IT Research, www.it-research.net, Aying bei München, 2003-B, 32 Seiten

Martin, W.: BI 2004 – Business Intelligence trifft Business Integration, Strategic Bulletin, IT

Research, www.it-research.net, Aying bei München, 2004, 32 Seiten

Martin, W.: SOA 2008 – SOA basierendes Geschäftsprozessmanagement, Strategic Bulletin,

IT-Verlag für Informationstechnik GmbH, Aying bei München, 2007, 28 Seiten

Martin, W.: Regelbasierte Komposition von agilen Business Services, White Paper, S.A.R.L.

Martin, www.wolfgang-martin-team.net, Annecy, 2008, 23 Seiten

Martin, W.: Information Governance – Ergebnisse einer Marktbefragung zum Status Quo und

zu den Trends 2012, Research Note, S.A.R.L. Martin, www.wolfgang-martin-team.net,

Annecy, 2012, 12 Seiten

Martin, W.: Big Data, Strategic Bulletin, IT-Verlag für Informationstechnik GmbH, Aying bei

München, 2012, 42 Seiten

Martin, W., Nußdorfer, R.: Portale in einer service-orientierten Architektur – Prozesse und

Menschen – Kollaborations- und Präsentationsdienste, Kompendium „Status und Trend“,

iBond White Paper Vol. 4, www.soa-forum.net,München, 2006, 33 Seiten

Martin, W., Eckert, J., und Repp, N.: SOA Check 2010 – Status Quo und Trends im

Vergleich zum SOA Check 2009, 2008 und 2007, IT-Verlag für Informationstechnik GmbH,

Aying bei München, 2010, 33 Seiten

Nußdorfer, R., Martin, W.: RTE – Real-Time orientierte IT Architektur, White Paper “Das

große Ganze – IT Architekturen strategisch geplant“, iBonD White Paper Vol. 1, www.soa-

forum.net; 2003, 35 Seiten

Nußdorfer, R., Martin, W.: BPM – Business Process Management – Änderung des

Entwicklungsparadigmas, White Paper “Geschäftsprozesse als Lösungen“, iBonD White

Paper Vol. 3, www.soa-forum.net; 2007, 43Seiten

-: ISIS BI & BPM White Paper, Edition 2011, nomina, München, 2011, 95 Seiten

Page 136: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 136

11 Glossar und Liste der Abkürzungen

In diesem Glossar fassen wir die wesentlichen Definitionen, die wir in diesem White Paper

aufgestellt haben, nochmals zusammen.

Analytik bezeichnet sowohl den Prozess zur Gewinnung von Information und der Ableitung

eines Modells zur Nutzung von Information (beispielsweise prädiktive Modelle aus einem

Data Mining Prozess) als auch die Einbettung und Nutzung dieses Modells in

Geschäftsprozessen. Die Idee ist, „intelligente“ Prozesse zu schaffen.

Analytische Datenbanken verbessern die Skalierbarkeit und die Performance deutlich

gegenüber traditionellen Datenbanken. Zusätzlich helfen sie auch, die Betriebskosten zu

senken. Das beruht auf der Kombination von bekannten und neuen Technologien wie

Spaltenorientierung, Komprimierung, speziellen, intelligenten Zugriffsverfahren, massiv

paralleler Verarbeitung sowie In-Memory-Technologien.

Agilität bedeutet die Fähigkeit zur Flexibilität.

Eine Architektur in der Informatik spezifiziert das Zusammenspiel der Komponenten eines

komplexen Systems. Sie beschreibt die Übersetzung fachlicher Anforderungen in

Bauinstruktionen. Damit hat eine Architektur Charakteristiken und Konsequenzen.

BI as a Service (BIaaS) bedeutet die Bereitstellung von analytischen und Performance

Management Services mittels des Cloud Computing Modells. Dabei bezeichnet Cloud

Computing25 ein auf Virtualisierung basierendes IT-Bereitstellungsmodell, bei dem

Ressourcen sowohl in Form von Infrastruktur als auch Anwendungen und Daten als verteilter

Dienst über das Internet durch einen oder mehrere Leistungserbringer bereitgestellt wird.

Diese Dienste sind nach Bedarf flexibel skalierbar und können verbrauchsabhängig

abgerechnet werden.

Big Data (früher: die Datenflut) bedeutet nicht nur ein riesiges Datenvolumen, sondern

auch einen Mix aus strukturierten und unstrukturierten Daten mit komplexen Beziehungen

untereinander. Eine wahre Flut von Daten wartet im Web auf uns. Die Quellen im Web sind

vielfältig: Portale, Web-Applikationen, Social Media, Videos, Photos und mehr, eben Web-

Content aller Art. Neben der schieren Datenflut ist die Unterschiedlichkeit und Vielzahl der

Quellen das zweite große Problem: Der Zugriff auf eine Quelle im Big Data ist jedes Mal neu

zu definieren: Die Konsequenz ist ein Zeit- und Ressourcenproblem. Dazu kommt, dass

immer mehr Mitarbeiter im Unternehmen möglichst in Echtzeit Big Data nutzen möchten.

BI-Governance besteht wie jede Governance aus vier Elementen, einer

Organisationsstruktur, aus den BI-Governance-Prozessen, den entsprechenden

Management-Policies und einer Technologieplattform. Die Organisationsstruktur besteht aus

einem Leitungsgremium, dem ein BI-Sponsor vorsitzt, dem BI-Kompetenzzentrum und den

Data Stewards. Dazu gehören wohl-definierte Rollen und Verantwortlichkeiten.

Business Activity Monitoring (BAM) ist Teil von operativem Performance Management.

Dabei dient BAM dem Verarbeiten von Ereignissen (einfachen Ereignissen oder

25

Definition von Cloud Computing nach Prof. Dr. Helmut Krcmar, TU München, 2008.

Page 137: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 137

Ereignisströmen). Die Aufgabe von BAM ist das Erkennen und Bewerten von Ereignissen,

um Aktionen zum Gegensteuern auszulösen. Der Verarbeitung komplexerer Ereignisse dient

das Complex Event Processing.

Als Business Intelligence (BI) bezeichnet man die Fähigkeit, Bereitschaft und Fertigkeit,

das Geschäft zu kennen und zu verstehen – oder detaillierter ausgedrückt: Unter Business

Intelligence verstehen wir alle Strategien, Prozesse und Technologien, bei denen aus Daten

Information und aus Information erfolgskritisches Wissen gewonnen wird, so dass

Entscheidungen auf Basis von Fakten getroffen werden, die Aktionen zur Unternehmens-

und Prozesssteuerung auslösen.

Business Process Management (BPM) dient dem Managen des Lebenszyklus von

Geschäftsprozessen. Es ist ein Kreislaufmodell, das aus drei Phasen besteht:

Phase 1: Analysieren, planen, modellieren, testen und simulieren von

Geschäftsprozessen.

Phase 2: Ausführen von Geschäftsprozessen durch applikationsübergreifende

Arbeitsabläufe („process flow“) mittels einer Prozessmaschine auf einer service-

orientierten Architektur (SOA) als Infrastruktur

Phase 3: Planen, Überwachen und Steuern der Prozesse, ihrer Performanz und des

Zusammenspiels aller Geschäftsprozesse

Eine Business Scorecard ist eine widerspruchsfreie, umfassende Gruppe von Metriken

gemäß einer Managementpolitik, um die Performanz (Leistung) einer Gruppe von

Prozessen, eines Unternehmensbereiches oder des gesamten Unternehmens zu

überwachen und zu steuern. Widerspruchsfrei bedeutet insbesondere, dass Metriken sich

nicht widersprechen und so Konflikte zwischen Rollen und kollaborativen Teams schaffen,

die in unterschiedlichen Kontexten arbeiten. Sie wird im Rahmen einer BI-Governance aus

dem Informationsprofil einer Rolle abgeleitet und mit Hilfe der Technologie von Dashboards

implementiert.

Business Services sind Komponenten eines Geschäftsprozesses und stellen so fachliche

Services dar, die von Service-Zentren, Kompetenz-Zentren oder auch von traditionellen

Abteilungen geleistet werden. Sie werden entweder intern bereitgestellt oder von Dritten

bezogen. Sie können auch als SaaS bereitgestellt werden.

Business-Vokabular (oder Business-Glossar oder -Terminologie) stellt die Terminologie der

gesamten Fachlichkeit in einem Unternehmen und seinem Unternehmensnetzwerk dar. Es

ist zwingend notwendig, denn Prozesse brauchen eine einheitliche gemeinsame

Terminologie zur Modellierung und Kommunikation mit allen an den Prozessen Beteiligten,

den Mitarbeitern in den Fachabteilungen und in der IT, aber auch den Lieferanten, Partnern

und sogar den Kunden. Cloud Computing siehe in diesem Kontext unter BIaaS.

Complex Event Processing (CEP) meint die Verarbeitung komplexer Ereignisse. Aufgabe

von CEP ist die Erkennung, Analyse, Gruppierung und Verarbeitung voneinander

abhängiger, beliebiger Ereignisse. Damit ist CEP der nächste Schritt über BAM hinaus. CEP

bezeichnet die Methoden, Techniken und Werkzeuge, um solche Ereignisse zu verarbeiten

während sie passieren, also in Echtzeit. CEP leitet aus Ereignissen höheres, wertvolles

Wissen in Form von komplexen Ereignissen ab. Das sind Situationen die sich nur als

Kombination mehrerer Ereignisse erkennen lassen.

Page 138: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 138

Compliance bedeutet die Erfüllung der von der Unternehmensleitung gemachten Vorgaben

(„Policies“) sowie der rechtlichen und regulativen Vorgaben. Mit anderen Worten: Jeder im

Unternehmen handelt so, wie er handeln sollte.

Unter Data Discovery versteht man eine neue Generation von BI-Werkzeugen, die sich

durch außerordentliche Benutzerfreundlichkeit und Flexibilität auszeichnen. Dazu kommt die

Verwendung von In Memory-Technologien, die intern zur Speicherung und Verarbeitung

genutzt werden. Der große Vorteil der In Memory-Technologie ist die Performance: Daher

sind Data Discovery-Werkzeuge insbesondere zur Big Data-Analytik geeignet. Weiterhin

setzen sie auf Visualisierung, interaktive, intuitive Analyse, Kollaboration und Autonomie der

Endanwender.

Ein Data Mart ist im Gegensatz zu einem Data Warehouse keine unternehmensweite

Lösung, sondern ein Data Warehouse Konzept zur Lösung von entweder isolierten

Teilaufgaben der Entscheidungsunterstützung oder im Rahmen einer Data Warehouse

Architektur eine aufgabenbezogene Teilmenge eines Data Warehouse.

Data Mining ist definiert als ein Prozess zur Identifizierung und/oder Extraktion vorher

unbekannter, nicht-trivialer, unerwarteter und wichtiger Information aus großen bis sehr

großen Mengen von (strukturierten) Daten.

Data Scientists sollen die Verarbeitung von Big Data fördern und helfen, die Potenziale von

Big Data auch zu realisieren. Sie treiben als Mittler zwischen der IT und den

Fachabteilungen den weiteren Ausbau der Zusammenarbeit quer über alle

Geschäftseinheiten inklusive der IT. Das erfordert neue Skills und eine Neuorientierung der

IT: Die IT muss in den Zeiten von Big Data den Hauptfokus auf Data Management legen.

Ein Data Warehouse ist ein Konzept für eine subjektorientierte, integrierte, zeitbezogene

und dauerhafte Haltung von Information zur taktischen und strategischen

Entscheidungsunterstützung im Unternehmen. Es ist eine von den operationellen IT-

Systemen getrennte Datenhaltung, die über eine Datenintegrationsplattform auch im

Rahmen von operativer Entscheidungsunterstützung eingesetzt werden kann.

Datenintegration stellt Informations-Services zur Verfügung, um Daten, aber auch Meta-

und Stammdaten zu analysieren, Datenmodelle abzuleiten, Daten und Metadaten

aufzubereiten und zu profilieren, sowie ETL- (extraction, transformation, load) Dienste.

Eine Datenintegrationsplattform erlaubt parallelen und simultanen Zugriff auch in Echtzeit

auf operative und dispositive Daten per Services im Rahmen einer SOA. So wird das

traditionelle Data Warehouse zu einer Komponente der Datenintegrationsplattform.

Datenqualität sollte bereits in die operativen Prozesse im Rahmen einer TQM (total quality

management)-Initiative eingebaut werden. Die vier Eckpfeiler von Datenqualität sind:

Qualität wird als Grad der Übereinstimmung mit Anforderungen definiert.

Das Grundprinzip der Qualitätsplanung ist Vorbeugung.

Null-Fehler-Prinzip muss zum Standard werden.

Qualitätskosten sind die Kosten für Nichterfüllung der Anforderungen.

Echtzeit im Business bedeutet die richtige Information zum richtigen Zeitpunkt am richtigen

Ort zum richtigen Zweck verfügbar zu haben. Die „Echtzeit“-Forderung im Business hat also

Page 139: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 139

nichts mit der Uhrzeit zu tun. Was für „Echtzeit“ entscheidend ist, ist die Verfügbarkeit von

Information in der Geschwindigkeit, mit der sie benötigt wird.

ELT, siehe ETL-Prozesse.

Enterprise 2.0 bezeichnet die Nutzung von Social-Software-Plattformen in einem

Unternehmen oder zwischen Unternehmen und seinen Kunden und Partnern (nach Andrew

McAfee). Bei Enterprise 2.0 geht es um das Nutzen und Nutzenkonzepte von Web 2.0-

Technologie im Unternehmen, nicht um die Web 2.0-Technologien allein.

Eine Entscheidungs-(Regel-)Maschine (englisch: business rule management sytem –

BRMS) setzt eine Entscheidungslogik operativ um. Eine Entscheidungslogik wird mittels

Regeln beschrieben.

ETL-Prozesse (extract, transform, load) dienen der Füllung und Auffrischung eines Data

Marts oder eines Data Warehouse mit internen oder externen Daten. Dabei meint „extract“

das Entladen von Daten aus den unterschiedlichen Datenquellen, „transform“ das

Transformieren dieser Daten in das Data Warehouse Datenmodell und „load“ das

entsprechende Laden. Alternativ gibt es auch ELT-Prozesse, bei denen der Transform- und

Ladeschritt in umgekehrter Reihenfolge durchgeführt werden. Während bei den ETL-

Prozessen der Transform-Schritt außerhalb der Datenbank vollzogen wird, findet er bei den

ELT-Prozessen in der Datenbank statt, was in der Regel zu Performance-Gewinnen führt.

Ein Geschäftsprozess ist….

eine Menge von Aktivitäten & Aufgaben ausgeführt von Ressourcen

(Services geleistet von Menschen & Maschinen)

unter Nutzung unterschiedlicher Information

(strukturiert & unstrukturiert)

mittels unterschiedlicher Interaktionen

(vorhersehbar & unvorhersehbar)

gesteuert von Management-Politiken und Prinzipien

(Geschäftsregeln & Entscheidungskriterien)

mit dem Ziel, vereinbarte Endergebnisse zu liefern

(Strategien & Ziele)

Governance bezeichnet die verantwortungsvolle, nachhaltige und auf langfristige

Wertschöpfung ausgerichtete Organisation und Steuerung von Aktivitäten und Ressourcen

im Unternehmen. Das bedeutet ein regelkonformes Management und Verhalten. In allen

Aktionen der Unternehmensressourcen – Menschen, Maschinen und Systemen – muss

sichergestellt sein, dass die Management-Policies und -Leitlinien beachtet und umgesetzt

werden. Auf diese Art und Weise stellt Governance Compliance sicher.

Hadoop ist ein Apache Software Foundation Entwicklungsprojekt. Es arbeitet wie ein Daten-

Betriebssystem und besteht aus drei Komponenten: der Speicherschicht HDFS (Hadoop

distributed file system, der Programmierumgebung MapReduce zur Verarbeitung von

Abfragen und einer Funktionsbibliothek. Dazu kommen noch einige Ergänzungen wie die

High Level Query Languages (HLQL) Hive, Pig und JAQL, sowie ZooKeeper (Managen

verteilter Konfiguration), Chukwa (Echtzeit-Monitoring) und andere.

Information Management hat als Zielsetzung, vertrauenswürdige Daten zu schaffen. Die

Aufgaben von Information Management sind die Definition der Daten (die Unternehmens-

Page 140: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 140

Terminologie), die Modellierung der Daten (die Unternehmens-Semantik), das Meta- und

Stammdaten-Management (Transparenz und Nachvollziehbarkeit), das Datenqualitäts-

Management (Relevanz und Korrektheit), die Datenintegration und die Datensicherheit und -

Schutz.

Ein Kompetenzzentrum ist eine in vielen Unternehmen genutzte Organisationsstruktur, die

eine funktionsübergreifende Einheit im Unternehmen darstellt, Sie ist als interdisziplinäres

Team verantwortlich, den Einsatz einer bestimmten Disziplin im Unternehmen zu fördern,

beispielsweise ein BI-Kompetenzzentrum den Einsatz von BI. Location Intelligence ist die

geographische Dimension von Business Intelligence. Es kombiniert Technologie, Daten und

Services mit Fachwissen, um Organisationen in die Lage zu versetzen, ihre Geschäftsdaten

auch räumlich geographisch zu messen, zu vergleichen, zu visualisieren und zu analysieren.

MapReduce ist eine von Google vorgeschlagene Programmierumgebung und -Modell für

verteile Verarbeitung über viele bis sehr viele Knoten, die aus preiswerter „Commodity“-

Hardware bestehen können.. Mehr dazu unter Big Data und Hadoop.

Mash-up (engl. für Vermanschung) bezeichnet die Erstellung neuer Inhalte durch die

nahtlose Kombination bereits bestehender Inhalte. Eine SOA ist in der Regel die

Voraussetzung.

Meta-Daten sind Information über Daten, die in der Regel in einem Repository gespeichert

werden. Meta-Daten setzen sich zusammen aus den Stammdaten, den Navigations-Daten

und den Administrationsdaten. Sie beschreiben den Aufbau, die Elemente, die

Eigenschaften der Elemente von Daten inklusive entsprechender Regeln.

Eine Metrik beschreibt, wie die Leistung eines Prozesses zu messen und zu managen ist

und / oder wie ein Prozess zu überwachen und zu steuern ist. Sie wird durch Metrisierung

der Unternehmens- und Prozess-Ziele abgeleitet. Metriken werden wie Sensoren entlang der

Prozessstrecke eingesetzt, um ein proaktives Erkennen von Problemen (also beispielsweise

das absehbare Nichterreichen des geplanten Endergebnisses) zu ermöglichen, so dass man

rechtzeitig gegensteuern kann. Eine Metrik besteht aus Kennzahlen und ihren Skalen, um

das Auskommen der Kennzahl zu interpretieren, zu bewerten und Entscheidungen zu

treffen.

Multi-strukturierte Daten sind Daten, die unbekannte, unzureichend definierte oder multiple

Schemata haben. Beispiele sind maschinen-generierte Ereignis-Daten, Sensor-Daten,

System-Log-Daten, interner/externer Web Content inklusive Social Media Daten, Texte und

Dokumente, Multi-Media-Daten wie Audio, Video etc.

NoSQL bedeutet „not only SQL“. Es ist eine Initiative, einen alternativen Ansatz zur

Datenhaltung voranzutreiben. Es handelt sich dabei um Datenbanken, die einen nicht-

relationalen Ansatz verfolgen. Man nutzt keine festgelegten Tabellenschemata mehr und

versucht, ohne Join auszukommen. So erreicht man eine horizontale Skalierbarkeit und

exzellente Lesegeschwindigkeiten auch bei Datenmengen à la Big Data. Man bezeichnet sie

auch als „strukturierte Datenspeicher“.

OLAP (online analytical processing) ist eine Methode innerhalb der Analytik, die schnelle

und interaktive Zugriffe auf relevante Information ermöglicht. Es bietet insbesondere

komplexe Analysefunktionen, die sich durch Multidimensionalität auszeichnen. Das bedeutet

die Anordnung der verschiedenen Metriken (Kennzahlen) entlang unterschiedlicher

Page 141: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 141

Dimensionen, beispielsweise Umsatz in Bezug auf Kunde, Produkt, Region, Berichtsperiode

etc.

Performance Management ist definiert als ein Geschäftsmodell, das einem Unternehmen

ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander

abzustimmen und konsistent zu halten. Das Planen, Überwachen und Steuern von

Prozessen ist Aufgabe von Performance Management innerhalb von BPM.

Ein Repository ist eine Datenbank zur Haltung und Verwaltung von Meta-Daten.

Risiko-Management bezeichnet alle Aktivitäten der Risikoerkennung, Risikoverminderung

und Risikovermeidung.

Selbstbedienungs-Business Intelligence (self-service BI) erlaubt den Nutzern, Daten

interaktiv und visuell zu analysieren. Sie hat rollenspezifische und personalisierte Mensch-

Maschine-Schnittstellen und unterstützt insbesondere auch Suchfunktionen. Damit schafft

sie eine Autonomie der Nutzer gegenüber der IT. Selbstbedienungs-BI ist heute Bestandteil

von Data Discovery-Werkzeugen.

Ein Service ist (in der Informatik) eine Funktionalität, die typischerweise mittels einer

Anfrage-Antwort über eine standardisierte Schnittstelle ausgelöst und gemäß einem SLA

konsumiert wird. Ein Service ist somit eine spezielle Ausprägung einer

„Softwarekomponente“.

Ein Service Level Agreement (SLA) definiert die (auch gesetzlich) bindenden

Lieferungsbedingen und Konditionen für Services zwischen den Service-Anbietern und

Service-Nehmern.

Service-Orientierung (SO) beschreibt eine Kollaboration zwischen einem Verbraucher

(Konsument, Servicenehmer) und einem Anbieter (Produzent, Servicegeber). Der

Verbraucher will eine bestimmte Funktionalität (ein “Produkt” oder eine “Dienstleistung -

Service”), den ein Anbieter bereitstellt. Eine solche Kollaboration arbeitet nach den folgenden

Prinzipien:

Prinzip 1 – Konsequente Ergebnisverantwortung. Der Service-Geber übernimmt die

Verantwortung für die Ausführung und das Ergebnis des Services. Der Service-Nehmer

übernimmt die Verantwortung für die Kontrolle der Service-Ausführung.

Prinzip 2 – Eindeutige Service Level. Jede Serviceausführung ist eindeutig vereinbart

hinsichtlich Zeit, Kosten, Qualität. Input und Output der Services sind klar definiert und

beiden Parteien bekannt per Service Level Agreement (SLA).

Prinzip 3 – Pro-aktives Event Sharing. Der Service-Nehmer ist über jede vereinbarte

Statusänderung seines Auftrages informiert. Der Service-Geber ist verpflichtet den

Service-Nehmer unmittelbar über unvorhergesehene Ereignisse zu informieren.

Prinzip 4 – Service-Verknüpfung. Ein Service kann zur Leistungserbringung einen oder

mehrere andere Services nutzen. Umgekehrt kann jeder Service von anderen Services

zur Leistungserbringung genutzt werden.

Social Business Intelligence meint eine Erweiterung der bekannten und traditionellen BI

um Social Media-Funktionalität und Kollaboration, um Wissensmanagement, um neue

Technologien (Web- und Cloud-Integrationswerkzeuge, analytische Datenbanken,

Page 142: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 142

Textanalytik) und um neue Anwendungsfelder (Social Media Performance Management,

Social Media Analytik).

Social Media-Interaktion baut auf Social Media Monitoring ganz im Sinne des Closed-loop

auf. Es bedeutet ein Interagieren des Unternehmen mit den Teilnehmern der sozialen

Medien. Das Unternehmen kann jetzt auf relevante Beiträge in den sozialen Medien sofort

reagieren und intervenieren. Das bringt Vorteile vor allem im Kundenservice oder bei der

Einführung neuer Produkte im Markt, da sich sofort eine Kommunikation mit Communities im

Web aufbauen und unterhalten lässt.

Social Media Monitoring meint das Aufspüren, wo, wann und wie über ein Unternehmen,

eine Persönlichkeit, ein Produkt oder eine Marke in den Social Media geredet und diskutiert

wird. Das beginnt mit dem Identifizieren und Extrahieren der relevanten Quellen im Big Data

mit Hilfe der agilen Web-Integrationswerkzeuge. Mit Hilfe von Textanalytik können dann

diese Quellen ausgewertet werden. Das liefert nicht nur statistische Information, wo und wie

viele Spuren sich im Web und in den Social Media befinden, sondern mit Hilfe von

Stimmungsanalysen (sentiment analysis) lässt sich auch die Tonalität aller Beiträge

bestimmen.

SQL steht fuer „sequential query language“. Es ist eine mengentheoretisch orientierte,

standardisierte Abfragesprache fuer relationale Datenbanksysteme.

Stammdaten sind fachlich orientierte Metadaten, die die Basis für das Business-Vokabular

darstellen. Es sind die Metadaten, die die Business-Strukturen wie Anlagen, Produkte und

Dienstleistungen und die Geschäftsparteien (beispielsweise Lieferanten, Kunden,

Mitarbeiter, Partner etc.) beschreiben. Damit erhält man eine einheitliche Sicht auf alle

Unternehmensstrukturen.

Textanalytik ist eine Erweiterung von Analytik, insbesondere von Data Mining und Text

Mining und bringt Analytik ins Content Management und ins World Wide Web. Es verbindet

linguistische Verfahren mit Suchmaschinen, Text Mining, Data Mining und Algorithmen des

maschinellen Lernens.

Web-Analyse meint die Anwendung von Performance Management und Analytik auf das

Nutzen von und Verhalten auf Webseiten durch die Besucher („Internauten“).

Wissensmanagement hat zwei Aufgaben, den Wissenstransfer von Person zu Person und

die Dokumentation von Wissen. Es geht nicht nur darum Wissen in die Köpfe der Mitarbeiter

im Unternehmen zu bringen und dort zu halten, sondern vielmehr auch darum, dieses

Wissen zu extrahieren und für andere nutzbar zu machen.

Page 143: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 143

Liste der Abkürzungen

ACID atomicity, consistency, isolation, durability

B2B business to business

B2C business to consumer

BAM business activity monitoring

BI business intelligence

BIaaS business intelligence as a service

BPM business process management

CAD computer aided design

CAGR compound annual growth rate

CAM computer aided manufacturing

CC competency center

CEP complex event processing

CFO chief financial officer

CIO chief information officer

CPM corporate performance management

CPO chief performance officer

CRM customer relationship management

CRUD create, read, update, delete

DBA Datenbank-Administrator

DBMS database management system

DI Datenintegration

DW data warehouse

DWaaS data warehouse as a service

EII enterprise information integration

ELT extract, load, transform

ERP enterprise resource planning

ESB enterprise service bus

ESDB enterprise service data bus

ETL extract, transform, load

GIS geographical information system

GRC governance, risk management and compliance

HDFS Hadoop distributed file system

HLQL high level query language

HOLAP hybrid OLAP

IaaS infrastructure as a Service

IT information technology

KPM key performance metric

LLDM low latency data mart

MDM master data management

MR map reduce

MOLAP multidimensional OLAP

NoSQL not only SQL

ODS operational data store

Page 144: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 144

OPEX operational expenditure

OLAP online analytical processing

OLTP online transactional processing

PaaS platform as a service

PM performance management

PPM process performance management

RDBMS relational DBMS

RFID radio frequency identification

ROLAP relational OLAP

ROI return on investment

SaaS software as a service

SDK software development kit

SLA service level agreement

SME small medium enterprise

SOA service oriented architecture

SOM self-organising maps

SQL sequential query language

TQM total quality management

XML extensible markup language

Page 145: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 145

12 Die Sponsoren

Actuate Corporation

Actuate, Hersteller von Business Intelligence und Reporting–Software, ist Gründer des BIRT Open

Source Projekts und seit Beginn richtungsweisend daran beteiligt. BIRT wird von über 1,5 Mio.

Entwicklern weltweit genutzt und ist die Basis für die ActuateOne® Plattform, mit der Entwickler

maßgeschneiderte Anwendungen für Business Analytics und Kundenkommunikation schnell

aufsetzen können. Mit ihren Möglichkeiten im Bereich Skalierung und Visualisierung ist sie die ideale

Grundlage für den Umgang mit Big Data und die zunehmende Nutzung von mobilen Geräten mit

Touchscreen.

ActuateOne Anwendungen basieren auf einem BIRT-Design und integrieren beliebige Daten, inklusive

unstrukturierter Quellen. Sie bieten für jeden Anwender, unabhängig von seinen Vorkenntnissen ein

einheitliches Nutzererlebnis. Eine Plattform unterstützt jede Einsatzumgebung – ob Cloud, hybride

Modelle, On-Premise, Web oder mobile Endgeräte.

Actuate hat weltweit über 5.000 Kunden aus verschiedenen Branchen, darunter Finanzdienstleister,

Technologie-Unternehmen und die öffentliche Hand. Der Softwareanbieter hat seinen Hauptsitz im

Silicon Valley und ist mit dem Kürzel BIRT an der NASDAQ gelistet.

Mehr Informationen zu Actuate unter www.actuate.com sowie zur BIRT Community unter www.birt-

exchange.com.

arcplan Information Services

arcplan ist ein führender innovativer Softwareanbieter von Business Intelligence, Dashboard-,

Corporate Performance- und Planungslösungen, die steuerungsrelevante Informationen interaktiv auf

PCs und mobilen Endgeräten bereitstellen. arcplan-basierte Lösungen verbessern die operative

Leistungsfähigkeit der Unternehmen unter Verwendung Ihrer bestehenden Infrastruktur. Kunden und

Partner nutzen das arcplan-Produktportfolio wie in der Abbildung (S. 126) dargestellt: arcplan

Enterprise®, das zentrale Business Intelligence (BI)-Produkt von arcplan, ist eine hochflexible BI-

Plattform, die weltweit von mehr als 3.000 Kunden für den Aufbau und Betrieb von analytischen

Anwendungen, Dashboards und Berichtssystemen genutzt wird. arcplan Excel Analytics® ist ein in

Excel integriertes Ad-Hoc- und Berichtswerkzeug, das die Möglichkeiten von arcplan Enterprise

optimal ergänzt. arcplan Edge® ist eine vorkonfigurierte Lösung für Budgetierung, Planung und

Forecasting und kombiniert Planungsfunktionen mit den Stärken der Prozesssteuerung und dem Web-

basierten Berichtswesen von arcplan Enterprise, sowie die Integration mit Excel. arcplan Engage®

ergänzt das Portfolio, bringt mit „Search & Collaboration“ Web 2.0-Funktionen in die BI-Welt und bietet

einfache Self-Service-Funktionen für arcplan Enterprise-Systeme, integriert aber auch weitere

unstrukturierte Datenhaltungssysteme wie CMS (Content Management Systeme), E-Mail oder andere

BI-Plattformen.

Page 146: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 146

Hinzu kommen Lösungsangebote für mobile BI mittels arcplan Mobile und als integriertes Paket web-

basierte Ad-Hoc Analysen (Web Pivoting) mit arcplan Spotlight.

Alle arcplan-Produkte besitzen mit dem arcplan Application Designer eine zentrale, grafisch

ansprechende Entwicklungsumgebung, mit deren Hilfe Kunden schnell und erfolgreich ihre

Projektziele umsetzen und sowohl Zeitplanung als auch Budget einhalten können.

Anwendungsvorlagen erleichtern den Entwicklungsprozess noch weiter.

Übersicht arcplan Produktportfolio

Als zentraler BI-Motor für alle Corporate Performance Management-Aufgaben im Unternehmen dient

der arcplan Application Server. Er ist aktuell für Windows® als 32 bit und 64 bit-Version erhältlich.

arcplan Enterprise bietet die bi-direktionale Verbindung zu unterschiedlichen SAP-Datenquellen,

einschließlich SAP BW und SAP BW IP. Gleichzeitig bietet arcplan Enterprise-Schnittstellen zu einer

Vielzahl anderer Datenquellen, wie Oracle (jede Oracle-Datenbank, Oracle OLAP, Oracle Essbase,

Hyperion Financial Management, Hyperion Enterprise), IBM (Cognos TM1, IBM DB2 UDB, DB2

Cubing Services), Kognitio, Microsoft (SQL Server & Analysis Services), Teradata, jede ODBC-, OLE

DB-, XMLA-, XML-Datenquelle oder Web-Service/SOA Systeme mit offener API.

Seit 1993 hat arcplan weltweit mehr als 3.000 Kunden ermöglicht, die Effizienz ihrer

Unternehmensabläufe durch die effektive Verbindung von Information und Analyse entscheidend zu

verbessern. Zu den Kunden von arcplan zählen Unternehmen aus allen Branchen.

arcplan Enterprise® ist laut The BI Survey 10 (2011) die Nr. 1 bei den Werkzeugen eines Drittanbieters

für SAP BW, Oracle Essbase und IBM Cognos TM1.

Weitere Information finden Sie unter: www.arcplan.de

Page 147: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 147

Cubeware

Die 1997 gegründete Cubeware GmbH mit Sitz in Rosenheim und Niederlassungen in Berlin,

Darmstadt, Düsseldorf und Hamburg sowie Tochtergesellschaften in Österreich, der Schweiz und

Houston (USA) ist einer der führenden Anbieter von Business Intelligence (BI)- Software.

Cubeware Software adressiert Fachabteilung und Mittelstand. Sie ist intuitiv, schnell einzuführen und

leicht zu administrieren. Die Lösungen sind offen für alle Vorsysteme und Datenbanken und

integrieren sich nahtlos in die Plattformen von Microsoft, IBM, Infor, Oracle und SAP.

Cubeware Produktportfolio

• Cubeware Cockpit V6pro (BI-Frontend)

• Cubeware Importer (OLAP-Modellierung und ETL)

• Cubeware Connectivity for SAP® Solutions (SAP-Anbindung)

• Cubeware BI-Templates für SAP FI, CO, SD und MM (Standards zur Datenübernahme)

Als Datenbanken

werden je nach

Projekt-

anforderung die

Microsoft SQL

Server Analysis

Services, IBM

Cognos TM1, Infor

PM/Infor10 ION BI

OLAP, Oracle

Hyperion Essbase

und SAP BW

genutzt. Im SAP-Umfeld ist Cubeware die ideale Lösung für ein spürbares Mehr an Flexibilität,

Effizienz und Fachanwendernähe.

Controlling, Fachanwender und Management arbeiten mit Cubeware einfach und schnell in den

unterschiedlichsten Abteilungen. Sie analysieren, planen und reporten eins-zu-eins interoperabel in

Windows, Web und auf mobilen Endgeräten.

Cubeware beschäftigt heute über 100 Mitarbeiter und gehört zum internationalen Firmenverbund von

Cranes Software Ltd. Zu den über 2.500 Cubeware Kunden zählen Unternehmen verschiedenster

Branchen, Firmengrößen und Anwendungsgebiete.

Weltweit ist ein stetig wachsendes Netz qualifizierter Business-Partner aktiv.

Weitere Information sind unter http://www.cubeware.de abrufbar.

Page 148: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 148

IBM Deutschland

Die Software IBM Business Analytics liefert umfassende, einheitliche und korrekte Informationen,

denen Entscheidungsträger zum Verbessern der Unternehmensleistung vertrauen. Ein umfassendes

Portfolio aus Geschäftsvorteilen, fortgeschrittener Analytik, finanziellen Vorteilen und

Strategiemanagement sowie Analyseanwendungen bietet Ihnen sofort klare und umsetzbare Einblicke

in die aktuelle Leistung und gibt Ihnen die Möglichkeit, zukünftige Ergebnisse vorherzusagen. Als Teil

dieses Portfolios unterstützt IBM SPSS Predictive Analytics Software Organisationen, zukünftige

Ereignisse vorherzusagen und proaktiv auf Basis dieser Erkenntnisse zu handeln, um bessere

Geschäftsergebnisse zu erzielen. Kunden aus den Bereichen Wirtschaft, öffentlicher Verwaltung und

Lehre verlassen sich weltweit auf IBM SPSS Technologie als Wettbewerbsvorteil zur

Kundengewinnung, -bindung und Erhöhung der Kundenumsätze bei gleichzeitiger Betrugsreduzierung

und Risikominimierung. Durch die Integration von IBM SPSS Software in ihre täglichen Prozesse

werden Organisationen zur Predictive Enterprise – sie sind dadurch in der Lage Entscheidungen zu

treffen und zu automatisieren, um die Geschäftsziele zu erreichen und einen messbaren

Wettbewerbsvorteil zu gewinnen.

Zu den Kunden von SPSS in Deutschland zählen große Unternehmen und Institutionen wie GfK AG,

Bundesagentur für Arbeit, Versatel AG, Deutsche Telekom AG, Vattenfall Europe-Hamburg AG, MSD

Sharp & Dohme GmbH , Commerzbank AG, Yamaha Motor Deutschland GmbH, Barmer Ersatzkasse,

DekaBank Deutsche Girozentrale, OBI GmbH & Co. Franchise Center KG, TUI AG, AOL Deutschland

GmbH & Co. KG, O2 Germany GmbH & Co. KG, Allianz Versicherungs AG, AMB Generali Holding

AG, DBV Winterthur Versicherung AG, Gruner + Jahr AG & Co. KG, Raiffeisenlandesbank

Niederösterreich Wien, IT Austria und KTM Sportmotorcycle AG.

Weitere Information finden sich unter http://www-01.ibm.com/software/de/analytics/.

Page 149: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 149

pmOne AG

Die pmOne AG ist ein expandierendes Unternehmen im Markt für Business Intelligence (BI). Das

Lösungsangebot auf Basis von Microsoft-Technologie, das sich an Kunden in Zentraleuropa richtet,

hat drei Säulen: Data Warehousing als Fundament, Anwendungen für Performance Management

(CPM) – insbesondere Berichtswesen, Unternehmensplanung und Konzernkonsolidierung – sowie

Visualisierung durch Information Design.

Die zur pmOne-Gruppe gehörende MindBusiness GmbH ist spezialisiert auf SharePoint-Lösungen

und Dienstleistungen für Office-Rollouts. Aktuell vereinen 150 Mitarbeiter über 900 Mannjahre

Projekterfahrung. Die 2007 gegründete pmOne AG befindet sich zu hundert Prozent im Eigentum des

Managements und der Mitarbeiter. Die pmOne-Gruppe hat acht Unternehmensstandorte in

Deutschland, Österreich und der Schweiz.

Referenzen

Die pmOne AG hat Lösungen bei zahlreichen Unternehmen erfolgreich eingeführt, dazu gehören:

Dr. August Oetker KG: Konzernbilanz & Konsolidierung

AirBerlin: Unternehmensweites Data Warehouse

KraussMaffei: Konzernplanung und Reporting

M+W Group: Konzernkonsolidierung, Planung, Reporting, Treasury und Projektcontrolling

VALORA: Konzerninformationssystem

Heraeus: Enterprise Data Warehouse

Webseminare

Um Interessenten einen ersten Einblick in die unterschiedlichen Themen zu eröffnen, bietet die

pmOne AG kompakte Webseminare an. In 60 Minuten können sich Teilnehmer von ihrem Arbeitsplatz

aus bei einer interaktiven Online-Präsentation informieren. Zur Auswahl stehen unter anderem diese

Themen:

Tricks und Kniffe in Excel: 60 Minuten, die Ihren Feierabend retten

Einführung in Information Design: Business-Grafiken und Dashboards richtig gemacht

Überblick für Entscheider: Business Intelligence mit Microsoft

Modern Zusammenarbeiten mit Microsoft SharePoint

Data Mining für Excel-Anwender mit dem Microsoft SQL Server - Geheimnisverrat: Analysepower

mit den kostenfreien Add-Ins für Data Mining in Microsoft Office

Die hohe Kunst von Konsolidierung und Konzernsteuerung: Tagetik 4.0

Einfaches Reporting und schnelle Analyse: Excel-Add-In XLCubed

Data Warehouse: Wofür, für wen und wie? Erprobte Methodik, erzielbarer Nutzen und Hinweise

auf typische Fallstricke

Aktuelle Termine werden laufend online auf www.pmone.de/webseminare veröffentlicht.

Kontakt:

E-Mail: [email protected]

www.pmone.de | www.pmone.at | www.pmone.ch | www.pmone.com

Page 150: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 150

Uniserv GmbH

Die Uniserv GmbH, Pforzheim, ist der größte spezialisierte Anbieter von Data Quality Solutions in

Europa. Data Management – die Verzahnung von Datenqualitätssicherung und Datenintegration –

steht dabei im Mittelpunkt. Firmen wie Amazon, Deutsche Bank und Volkswagen vertrauen bei ihren

Initiativen für Datenqualität, Datenintegration, Datenmigration und -konsolidierung sowie

Datensynchronisation auf die Lösungskompetenz und Qualität von Uniserv. Das Produktportfolio ist

vielfältig einsetzbar – im Umfeld von CRM-Anwendungen, eBusiness, Direct- und Database-

Marketing, CDI/MDM-Anwendungen, Data Warehousing, Business Intelligence sowie Performance

Management und Analytics.

In Performance Management und Analytik geht es darum, Unternehmensziele und Geschäftsprozesse

in einem Closed-Loop kontinuierlich aufeinander abzustimmen und konsistent zu halten sowie

Sachverhalte systematisch zu untersuchen. Dabei spielen Unternehmensdaten in ihrer Gesamtheit

über alle Datendomänen hinweg eine entscheidende Rolle. Denn sie sind der Rohstoff für

Informationen. Aus Informationen entsteht Wissen. Und dieses Wissen bildet insbesondere die

Grundlage für strategische Geschäftsentscheidungen, aus denen wiederum beispielsweise

Unternehmensziele abgeleitet und Geschäftsprozesse modelliert werden.

Mit seinen Data Quality und Data Integration Services innerhalb des Data Quality Service Hub leistet

Uniserv unter Nutzung von Cloud-Technologien hier einen wertvollen Beitrag. Erstens lässt sich

Datenqualität mittels der bereitgestellten Services nach einer vorangestellten Analyse sowie initialen

Datenbereinigung in einem geschlossenen Kreislauf auf Dauer zuverlässig sicherstellen. Zweitens

können verschiedenste Daten permanent extrahiert, transformiert und wieder geladen werden (ETL).

Damit stehen immer perfekte Daten als Informationsrohstoff zur Verfügung, die optimale

Voraussetzung für Performance Management und Analytik, wie sie sein sollen.

Weitere Information finden Sie unter www.uniserv.com

Page 151: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 151

Viscovery Software GmbH

Als eines der ersten Data-Mining Unternehmen in Europa zählt Viscovery (ehemals eudaptics

software gmbh) zu den führenden Anbietern von Predictive-Analytics-Lösungen. Die Viscovery Suite

verfügt über eine einzigartige, patentierte Technologie zur explorativen Analyse und statistischen

Modellierung komplexer Daten. Das Viscovery Team verfügt über umfangreiches Know-how und

langjährige Projekterfahrung in Customer Analytics, Kundensegmentierung und -scoring, bis hin zu

Text Mining-Anwendungen, genetischen Analysen und industrieller Prozessoptimierung.

Viscovery kann auch für Text Mining-Aufgaben eingesetzt werden. Die Abbildung zu einer Viscovery Text Mining-Anwendung zeigt das Korpus von veröffentlichten Texten zu schädlichen Effekten des Rauchens. Das Balken-Diagramm zeigt eine Liste von gemeinsam auftretenden Termen in einer ausgewählten Teilmenge der Texte.

Die intuitive Oberfläche von Viscovery ermöglicht auch Benutzern ohne statistisches Vorwissen,

visuelle Clusteranalysen, Kundenprofile und Segmentierungen zu erstellen und interaktiv den

einzelnen Gruppen operative Maßnahmen zuzuordnen. Eine Demoseite zu "Website visitors" finden

Sie auf http://www.viscovery.net/demos/click-stream-analysis und eine zu einer Klassifikation von

Eiskristallen auf http://www.viscovery.net/demos/snow-crystals-classification. Die Projektumgebung

von Viscovery unterstützt den Data Mining-Prozess durch eine übersichtliche Workflow-Struktur und

eine inline Dokumentation, die den gesamten Analyseweg protokolliert. Alle Workflows haben erprobte

Voreinstellungen, die modifiziert und als Vorlagen wieder verwendet werden können. Die

Page 152: Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort ... SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller Die Version 8.1 dieses White

Wolfgang Martin Team

BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 152

hochperformanten Viscovery-Modelle sind sehr einfach in Echtzeit integrierbar, automatisch erstellbar

und aktualisierbar.

Viscovery wird weltweit von zahlreichen Kunden, wie Banken, Versicherungen, Telekoms, Industrie,

Medien und Handel, bis hin zu Forschungseinrichtungen und Universitäten seit vielen Jahren

erfolgreich in den unterschiedlichsten Bereichen eingesetzt. Seit September 2007 ist Viscovery ein

Unternehmen der Biomax Gruppe.

Viscovery ist der einzige kontinental-europäische Data Mining-Anbieter, der in Gartner's "Magic

Quadrant 2008 for Customer Data-Mining Applications" gelistet ist.

Weitere Information zu Viscovery finden Sie auf www.viscovery.net.

Impressum Dr. Wolfgang Martin S.A.R.L. Martin 6 rue Paul Guiton 74000 Annecy - France

www.wolfgang-martin-team.net N° TVA FR81413866625 RCS Annecy B 413 866 625 00010 NAF/APE 6202A