Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort...
Transcript of Wolfgang Martin Team - it-daily.net · BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3 Vorwort...
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 2
Copyright
Dieses Dokument wurde von S.A.R.L Martin / Dr. Wolfgang Martin verfasst. Alle Daten und
Informationen wurden mit größter Sorgfalt recherchiert und zusammengestellt. Eine Garantie in Bezug
auf Vollständigkeit und Richtigkeit wird ausgeschlossen.
Alle Rechte am Inhalt dieses Dokuments, auch die der Übersetzung, liegen bei den Autoren. Daten
und Informationen bleiben intellektuelles Eigentum der S.A.R.L. Martin im Sinne des Datenschutzes.
Kein Teil des Werkes darf in irgendeiner Form (Druck, Photokopie, Mikrofilm oder einem anderen
Verfahren) ohne schriftliche Genehmigung durch S.A.R.L Martin reproduziert oder unter Verwendung
elektronischer Verfahren verarbeitet, vervielfältigt oder verbreitet werden. S.A.R.L Martin übernimmt
keinerlei Haftung für eventuelle aus dem Gebrauch resultierende Schäden.
Copyright © S.A.R.L. Martin, Annecy, 2004 – 2012
Disclaimer
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen etc. in diesem Werk
berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne
der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von
jedermann benutzt werden dürften. In diesem Werk gemachte Referenzen zu irgendeinem
spezifischen kommerziellen Produkt, Prozess oder Dienst durch Markenname, Handelsmarke,
Herstellerbezeichnung, etc. bedeutet in keiner Weise eine Empfehlung oder Bevorzugung durch die
S.A.R.L Martin.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 3
Vorwort
Das vorliegende White Paper „Performance Management und Analytik“ erscheint jetzt im
August 2012 im neunten Jahr mit der Version 9.0. Im Januar 2004 habe ich dieses White
Paper gemeinsam mit Richard Nußdorfer mit der Version 1.0 begonnen. Nach dem Tode von
Richard Nußdorfer im Oktober 2008 habe ich unser Werk fortgesetzt. Die vorliegende
Ausgabe beschreibt Konzepte, Business-Architekturen und technische Architekturen von
Performance Management und Analytik.
Performance Management ist definiert als ein Geschäftsmodell, das einem Unternehmen
ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander
abzustimmen und konsistent zu halten. Es arbeitet als ein Closed-loop-Modell, um die
Leistung („Performanz“) von Geschäftsprozessen auf operativer, taktischer und strategischer
Ebene aktiv zu managen, i.e. zu planen, zu überwachen und zu steuern. Vom Standpunkt
des Business ist diese Aufgabe auf allen Ebenen prinzipiell gleichartig, aber aus technischer
Sicht treffen hier zwei unterschiedliche Technologien für Performance Management von
verschiedenen Entwicklungsrichtungen aufeinander: Traditionelle Business Intelligence trifft
auf Business Process Management (BPM) und konvergiert im Modell einer service-
orientierten Architektur (SOA).
Nach einigen Jahren mit unterschiedlichen Bezeichnungen wie CPM (Corporate
Performance Management), BPM (Business Performance Management) oder EPM
(Enterprise Performance Management) habe ich mich ab der Version 6.0 entschlossen, nur
noch von „Performance Management“ zu sprechen, und nutze den Begriff gemäß der oben
gegebenen Definition als Dachbegriff für CPM, BPM und EPM. Ab der Version 6.1 habe ich
konsequenterweise auch den Begriff „Enterprise Information Management“ durch
„Information Management“ ersetzt.
Analytik (vom griechischen: ἀναλύειν analyein = auflösen) ist definiert als die Durchführung
einer systematischen Untersuchung eines Sachverhaltes oder eines Gegenstandes
hinsichtlich aller bestimmenden Faktoren oder Komponenten. Der Untersuchungsprozess als
solches ist die Analyse.1 Er dient der Ableitung von Wissen aus internen und externen Daten
und Information für Unternehmenssteuerung ganz im Allgemeinen. Analytik wird immer
wichtiger, denn das Datenvolumen explodiert. Die weltweite Datenproduktion liegt aktuell bei
mehr als 2 Zettabytes (1021 B = 1 Milliarde TB). Willkommen im Big Data, wie man jetzt sagt.
Die drei wesentlichen Treiber dieser Datenexplosion sind Social Media, Video und das
mobile Internet.
Im Big Data steckt großes Potential, vor allem viel Wissen, das man sich nur erschließen
muss. Aber das Potential an Wissen ist nicht so einfach zu erschließen, denn ein solcher
verwobener Mix aus riesigen, unüberschaubaren und fragmentierten Daten macht es
schwierig, die Daten zu identifizieren, zu extrahieren, zu speichern, zu verwalten und zu
analysieren. Hier braucht man neue Ansätze und Technologien für Analytik.
1 siehe http://de.wikipedia.org/wiki/Analytik
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 4
Zielsetzung des White Papers. Unternehmen, die Performance Management- oder
Analytik-Lösungen entwickeln wollen, werden sich entscheiden müssen, welche
Basisplattform sie für diesen Schritt wählen werden und welche Best-of-Breed-Produkte
benötigt werden. Dieses White Paper soll Sie bei der Entwicklung von Konzepten und bei der
Entscheidungsfindung unterstützen.
Der Verfasser ist seit 1984 im kommerziellen IT-Business in Managementfunktionen, als
Analyst und strategischer Berater tätig. Davor war er von 1973 bis 1984 als Wissenschaftler
tätig. Er verbindet so Wissenschaft und Praxis und hat sich mit strategischen Überlegungen
und Zukunftsentwicklungen in der IT und den Auswirkungen auf das Business von 1996 bis
2001 als Analyst bei der Meta Group und danach als unabhängiger Analyst
auseinandergesetzt.
Das vorliegende White Paper gliedert sich in zwei Teile. Der hier vorliegende erste,
allgemeine Teil beschäftigt sich damit, Konzepte, Vorteile und Nutzen von Performance
Management und Analytik zu beschreiben und - damit verbunden - die Referenz-Architektur.
Der zweite Teil beschäftigt sich mit im Markt gängigen Anbieter-Lösungen für Performance
Management und Analytik. Um den Lesern eine praktische Übersicht über den aktuellen
Markt zu geben, wurden zu ausgewählten Anbietern spezielle Beschreibungen aufgestellt.
Derzeit verfügbar sind Kompendien zu2:
arcplan, BOARD, Cubeware, epoq, geoXtend, IBM, Informatica, Kapow Software, Lixto,
PitneyBowes/MapInfo, Panoratio, SAP, Stibo Systems, TIBCO/Spotfire, Tonbeller
Die Version 8.1 dieses White Papers ist im März 2012 erschienen. Die hier vorliegende
Version 9.0 ist eine überarbeitete und weiterentwickelte Version. In dieser Version 9.0 sind
neu das Kapitel 2.4 zu Nutzenpotenzialen von Big Data, das Kapitel 7.3 zu NoSQL-
Datenhaltungs- und -Datenbanksystemen, das Kapitel 9.6 zur Entwicklung von Big Data und
Marktschätzungen und das Kapitel 9.8 zur Big Data-Roadmap für Kunden (Nutzer von Big
Data). Ergänzt wurden die Themen BI-Kompetenzzentrum (Kap. 3.4), fachliche Elemente
von Performance Management (Kap. 4.1), analytische Services (Kap. 5.1) und Datenqualität
(Kap. 6.6). Überarbeitet wurden insbesondere die Themen Data Discovery (Kap. 5.2) und
Latenz (Kap. 7). Wie immer wurden die Kapitel 1 (Zusammenfassung) und 9.3 bis 9.5
(Anbieterverzeichnis) auf den neuesten Stand gebracht.
Die Version 9.0.1 bringt einige kleinere Ergänzungen in den Kapiteln 9.3 bis 9.5.
Über Anregungen, Kommentare, Kritik aber auch über Lob freute sich der Verfasser.
Annecy, im Oktober 2012 Dr. Wolfgang Martin, Wolfgang Martin Team
2 Kostenfreier Download auf http://www.wolfgang-martin-team.net in den Sektionen „White Paper“ und „Research
Notes“
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 5
Biographie des Verfassers:
© 2012 S.A.R.L. Martin37
Dr. Wolfgang Martin
Dr. Martin ist u. a.
• Mitglied des CRM Expertenrates,
• Ventana Research Advisor,
• Research Advisor am Institut für Business Intelligence der Steinbeis Hochschule Berlin
• Mitgründer und Partner von www.iBonD.net
• Vorsitzender des IIR Forums zu „Stammdaten-Management“.
Vor der Gründung des Wolfgang MARTIN Teams war Dr. Martin über fünf Jahre bei der META
Group, zuletzt als Senior Vice President International Application Delivery Strategies.
Darüberhinaus kennt man ihn aus TV-Interviews, durch Fachartikel in der Wirtschafts- und IT-
Presse, als Autor der Strategic Bulletins zu den Themen BI/CPM, BPM, SOA und CRM (www.it-
research.net) und als Herausgeber und Co-Autor, u.a. „Data-Warehousing – Data Mining – OLAP“,
Bonn, 1998, „CRM–Jahres-Gutachten 2003 – 2004 – 2005 – 2006 – 2007“, Würzburg, 2002, 2003,
2004, 2005, 2007, „CRM Trendbook 2009“, Würzburg, 2009.
Biographie
Dr. Wolfgang Martin ist europäischer Experte auf den Gebieten
Business Intelligence, Performance Management, Analytik, Big Data
Business Process und Information Management, Information Governance
service-orientierte Architekturen (SOA)
Customer Relationship Management (CRM)
Cloud Computing (SaaS, PaaS)
Sein Spezialgebiet sind die Wechselwirkungen technologischer Innovation auf
das Business und damit auf die Organisation, die Unternehmenskultur, die
Businessarchitekturen und die Geschäftsprozesse. The Info Economist zählte
ihn in 2001 zu den 10 einflussreichsten IT Consultants in Europa.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 6
Inhaltsverzeichnis
1 Zusammenfassung (Management Summary) ............................................................................... 8
2 Business Intelligence im Wandel ................................................................................................. 14
2.1 Die Mängelliste traditioneller Business Intelligence ......................................................... 15
2.2 Die Bedeutung von Information im New Normal ............................................................. 16
2.3 Big Data und Echtzeit ......................................................................................................... 19
2.4 Nutzenpotenziale von Big Data .......................................................................................... 20
2.5 Prozess-Orientierung – ein neuer Kontext für BI ............................................................ 24
2.6 Service-Orientierung – das neue Paradigma .................................................................... 28
3 Performance Management – Strategien, Prozesse, Menschen, Metriken und Governance ..... 32
3.1 Prozess- und service-orientierte Business Intelligence ..................................................... 32
3.2 Die Governance: Rollen, Verantwortlichkeiten und Rechte ........................................... 37
3.3 Das Arbeiten mit Performance Management und Analytik ............................................ 41
3.4 Das Business Intelligence-Kompetenzzentrum ................................................................. 43
4 Performance Management – Methoden und Technologien ....................................................... 47
4.1 Die fachlichen Elemente von Performance Management ................................................ 47
4.2 Von Business Intelligence zu Performance Management und Analytik ......................... 50
4.3 Performance Management und Analytik in einer SOA ................................................... 53
4.4 Renaissance von „BI“ im Enterprise 2.0 ........................................................................... 55
4.5 Planung im New Normal ..................................................................................................... 58
5 Analytik – Basis für Performance Management ......................................................................... 61
5.1 Analytische Services ............................................................................................................ 62
5.2 Data Discovery ..................................................................................................................... 65
5.3 Web-Analyse ........................................................................................................................ 69
5.4 Trends im Data Mining ....................................................................................................... 70
5.5 Textanalytik ......................................................................................................................... 76
5.6 Location Intelligence – Die Bedeutung des „Wo“............................................................. 80
5.7 Social Business Intelligence ................................................................................................ 83
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 7
6 Information Management ............................................................................................................ 88
6.1 Die Aufgaben von Information Management ................................................................... 88
6.2 Datenintegrationsplattform ................................................................................................ 90
6.3 Informations-Services ......................................................................................................... 92
6.4 Agile Integrations- und Extraktionswerkzeuge im Big Data ........................................... 94
6.5 Meta- und Stammdaten-Management ............................................................................... 96
6.6 Datenqualität – Vorsorge tut Not ....................................................................................... 99
6.7 Information Governance – Schlüssel zu erfolgreichem Information Management .... 104
7 Auf die Latenz kommt es an ....................................................................................................... 107
7.1 Business Activity Monitoring und Complex Event Processing ..................................... 108
7.2 Analytische Datenbanken ................................................................................................. 111
7.3 NoSQL-Datenhaltungs- und -Datenbanksysteme........................................................... 114
8 Performance Management und traditionelle BI: fundamentale Unterschiede ....................... 118
9 Der Performance Management/Analytik-Markt und seine Spieler .......................................... 119
9.1 Trends in Performance Management und Analytik ...................................................... 119
9.2 Taxonomie des Marktes für Performance Management und Analytik ........................ 121
9.3 Klassifikation der Anbieter von analytischen Datenbanken ......................................... 122
9.4 Klassifikation der Performance Management/Analytik-Anbieter ................................ 124
9.5 Klassifikation der Anbieter von Information Management .......................................... 126
9.6 Entwicklung von Big Data: Marktschätzungen .............................................................. 127
9.7 Grundsätze zur PM/Analytik-Plattform- und Werkzeugauswahl ................................ 130
9.8 Roadmap für die Nutzer von Big Data ............................................................................ 131
10 Schlusswort und Literaturverzeichnis ................................................................................... 134
11 Glossar und Liste der Abkürzungen ...................................................................................... 136
12 Die Sponsoren ......................................................................................................................... 145
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 8
1 Zusammenfassung (Management Summary)
Performance Management und Analytik sind Methoden, Verfahren und Werkzeuge der
Steuerung im Unternehmen. Sie werden geradezu unabdinglich, wenn Umsätze langsamer
wachsen oder gar stagnieren und zurückgehen, wenn Budgets immer knapper werden, die
Marktdynamik ansteigt und der Wettbewerbsdruck immer weiter zunimmt. Dann steigen die
Anforderungen an das Management signifikant. Das Aufspüren von Profit, rigorose
Kosteneinsparungen, die Intensivierung von Kundenkontakten und effektvoller Einsatz der
wenigen noch verfügbaren Mittel und Ressourcen sind absolute Chefsache. Geopolitische
Unsicherheiten machen das Planen noch schwieriger, gleichzeitig noch wichtiger denn je.
Dazu kommen immer neue Regulierungen wie im Finanzberichtswesen und der
Bilanzkonsolidierung. Nur Unternehmen, die ihren Kurs jederzeit, flexibel und vor allem
schnell zu ändern können, sind in der Lage im heutigen „New Normal“ zu überleben. Ohne
Performance Management und Analytik geht das nicht mehr.
Das New Normal ist das Zeitalter nach der Wirtschaftskrise in 2008. Denn nach dieser Krise
ist und wird nichts mehr so sein wie vorher. "Strategy, as we knew it, is dead," sagt Walt
Shill, Leiter des nordamerikanischen Management Consulting von Accenture.3 Heute geht es
in Unternehmen um Flexibilität im operativen Geschäft und um die Geschwindigkeit, mit der
sich auftuende Gelegenheiten ergriffen und umgesetzt werden können. Wenn Strategien und
Forecasts wöchentlich oder sogar täglich zu ändern und anzupassen sind, dann muss das
so sein und funktionieren. Das New Normal meint darüber hinaus auch das Zeitalter der
Digitalisierung des Unternehmens. Das mobile Internet macht Information allgegenwärtig.
Soziale Medien sorgen für eine bisher nicht gekannte Verbreitungsgeschwindigkeit von
Information. Willkommen im New Normal!
Mit anderen Worten: Traditionelle Steuerung im Unternehmen stößt an ihre Grenzen, da jetzt
die alten Prinzipien von „operational excellence“ nicht mehr ausreichen. Operational
excellence bewirkte eine Industrialisierung des Unternehmens. Industrialisierung bedeutet
Automation und Standardisierung. So werden Geschäftsprozesse beschleunigt und
optimiert, so erhöht man den Durchsatz und verbessert die Qualität. Das brauchen wir heute
und morgen, aber wir brauchen im New Normal noch mehr. Eine Steuerung im Unternehmen
im New Normal erfordert zusätzlich Agilität, die man über die traditionellen
Unternehmensziele Effektivität und Effizienz, die man durch Industrialisierung erreicht,
hinaus braucht. Agilität bedeutet die Fähigkeit einer Organisation zum permanenten Wandel
und die Anpassungsfähigkeit der eigenen Geschäftsmodelle und Prozesse an die Markt- und
Kundendynamik. Auf das schnelle und richtige Agieren in Zeiten des Wandels und
Unsicherheit kommt es an. Da auch der Lebenszyklus von Strategien und Prozessen immer
kürzer wird, werden Änderungen in immer schnelleren Zyklen notwendig.
Unternehmenssteuerung heute und morgen muss agil sein, um als Unternehmen nicht nur
zu überleben, sondern auch zu prosperieren.
3 Siehe Wall Street Journal (25. Jan.2010)
http://online.wsj.com/article/SB10001424052748703822404575019283591121478.html#printMode
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 9
Steuerung im Unternehmen beruht daher nicht nur auf den traditionellen Instrumenten der
Unternehmensführung (Planung, Durchführung, Kontrolle und Steuerung), sondern umfasst
drei weitere Komponenten: Governance, Risiko-Management und Compliance. Governance
bezeichnet die verantwortungsvolle, nachhaltige und auf langfristige Wertschöpfung
ausgerichtete Organisation und Steuerung von Aktivitäten und Ressourcen im Unternehmen.
Risiko-Management bezeichnet alle Aktivitäten der Risikoerkennung, Risikoverminderung
und Risikovermeidung. Compliance bedeutet die Erfüllung der von der
Unternehmensleitung gemachten Vorgaben („Policies“) sowie der rechtlichen und regulativen
Vorgaben. Weitere und strengere Regulationen sind in Zeiten der aktuellen Krisen zu
erwarten. Unternehmenssteuerung heute muss diesen Anforderungen gerecht werden.
Agilität, Industrialisierung und Compliance sind heute im „new normal“-Zeitalter für ein Unter-
nehmen entscheidend, ob man zu den Gewinnern oder Verlierern auf dem globalen Markt
zählt.
Ein weiterer großer Vorteil von Industrialisierung, Agilität und Compliance ist die Fähigkeit,
innovative Ideen zügig umsetzen zu können. Neue Produkte und Dienste sowie neue Tarife
lassen sich in kürzester Zeit in den Markt bringen. Traditionelle Prozesse wie das
Mahnwesen können kundenorientiert werden und verloren geglaubte Umsätze wieder
aktivieren. Im Cross-/Up-Selling lässt sich durch den Einsatz des Wissens über den Kunden
neues Umsatzpotenzial erschließen. Frühzeitiges Erkennen von Risiken und Problemen
vermeidet Ausschuss und Retouren. So wird die Wettbewerbskraft entscheidend gesteigert:
Man verblüfft den Mitbewerb und begeistert seine Kunden.
Der Weg heute zu Industrialisierung, Agilität und Compliance besteht aus einem
umfassenden Ansatz zu einem service-basierten Geschäftsprozess-Management. Im Zuge
einer solchen Prozess-Orientierung wird aber oft das Prinzip „Kein Prozess ohne Daten“
übersehen. Parallel zu einem Prozess- und Service-Management muss im Rahmen von
Prozess-Orientierung daher ein Information Management aufgebaut werden.
In den vergangenen Jahren haben Unternehmen Information Management nur im Kontext
von Business Intelligence (BI) gesehen. In umfangreichen Business-Intelligence-Projekten
und Initiativen wurde daran gearbeitet, Information verfügbar zu machen, um eine auf Fakten
basierende Steuerung im Unternehmen zu unterstützen. Die Erfahrungen haben aber
vielfach gezeigt, dass Information zwar oft vorhanden sind, aber nicht in den Kontext der
Geschäftsprozesse gebracht wurden und daher nur von beschränktem Nutzen für die
Steuerung im Unternehmen waren. Um den Nutzen von BI zu erhöhen und um hier einen
Durchbruch zu erzielen, muss ein neuer Weg beschritten werden: Information muss in den
Kontext von Geschäftsprozessen und Business-Services gestellt werden. Das ist die
Grundidee von Performance Management. Dazu braucht man ein über das traditionelle BI
hinausgehendes Information Management.
In einem prozess- und service-orientierten Unternehmen gehören Prozess-
Management, Performance Management und Information Management zusammen.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 10
Business Process Management (BPM) dient dem Managen des Lebenszyklus von
Geschäftsprozessen: Von Analyse und Design über Ablauf und Ausführung bis zum Planen,
Überwachen, Steuern und Anreichern der Prozesse.
Performance Management ist definiert als ein Geschäftsmodell, das einem Unternehmen
ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander
abzustimmen und konsistent zu halten. Das Planen, Überwachen und Steuern von
Prozessen ist Aufgabe von Performance Management innerhalb von BPM.
Analytik bezeichnet sowohl den Prozess zur Gewinnung von Information und der Ableitung
eines Modells zur Nutzung von Information (beispielsweise prädiktive Modelle aus einem
Data Mining-Prozess) als auch das Anreichern von Geschäftsprozessen und Business-
Services durch solche Modelle. Die Idee ist, „intelligente“ Prozesse und Services zu
schaffen.
Die Zielsetzung von Information Management ist es, vertrauenswürdige Daten zu
schaffen. Die Aufgaben von Information Management sind die Definition der Daten (die
Unternehmens-Terminologie), die Modellierung der Daten (die Unternehmens-Semantik),
das Meta- und Stammdaten-Management (Transparenz und Nachvollziehbarkeit), das
Datenqualitäts-Management (Relevanz und Korrektheit), die Datenintegration und die
Datensicherheit und -Schutz.
Performance Management ist ein wichtiger Schritt in Richtung des optimalen Planens,
Überwachens und Steuerns von Geschäftsprozessen auf der Ebene von Operationen,
Taktiken und Strategien. Performance Management basiert auf dem Prinzip der Zuordnung
von Metriken („Kennzahlen“) zu Prozessen. Performance Management beginnt schon mit
der Modellierung und dem Design operativer Prozesse. Metriken müssen gleichzeitig und
parallel mit den operativen Prozessen abgeleitet und entwickelt werden. Ziele müssen
messbar gemacht werden. Zielerreichung muss kontinuierlich kontrolliert werden, und es
müssen Maßnahmen getroffen werden, um die Leistung der Prozesse ständig und auch in
Echtzeit zu kontrollieren. Das schafft Performance Management, weil es als Kreislaufmodell
(„closed loop“) Teil von BPM ist.
Performance Management ist unter den herrschenden Bedingungen der nächste
strategische Schritt in Richtung agiler Steuerung im Unternehmen, damit ich mein
Unternehmen fit mache, um die Herausforderungen des New Normal zu meistern. Der
Leitspruch lautet „Man kann nur managen, was man auch messen kann“.
Mit anderen Worten: Prozesse stellen die Wettbewerbskraft des Unternehmens dar. Daher
sind Prozesse der neue Fokus des Managements (vgl. Nußdorfer, Martin, 2007). Gewinnen
oder Verlieren im Markt hängt von der Qualität, Flexibilität und Compliance der
Geschäftsprozesse ab. Die erforderliche Flexibilität erhält man insbesondere durch eine
Service-Orientierung der Prozesse: Prozesse werden aus Business-Services
zusammengesetzt.
Dabei kommt es auch auf die geeignete IT-Unterstützung mit der richtigen Infrastruktur an.
Eine service-orientierte Architektur (SOA) als Infrastruktur für BPM, Performance und
Information Management ist erforderlich, um den Lebenszyklus von Geschäftsprozessen in
einem Kreislaufmodell zu managen. BPM, Performance Management, Analytik und
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 11
Information Management auf einer SOA ermöglichen automatisierte, standardisierte,
zuverlässige, revisionssichere und anpassungsfähige Prozesse mit Compliance über
Geschäftsfunktionen, Abteilungen und sogar Unternehmen hinweg. So spart man Kosten,
begeistert Kunden und Mitarbeiter und erhöht den Umsatz. Dank einer SOA werden
Prozesse von den zugrunde liegenden IT-Systemen und -Anwendungen unabhängig: Ein
Unternehmen kann Prozesse im Einklang mit der Marktdynamik und den Bedürfnissen der
Kunden ändern und segelt so immer am Wind. SOA bedeutet deshalb im Endeffekt
„Software for Change“.
Außerdem macht eine SOA "intelligente" Prozesse möglich: Analytik kann in Prozesse und
Business-Services eingebettet werden.
Analytik ist der Schlüssel für die Planung, Überwachung und Steuerung sowohl der Prozesse
als auch ihrer Leistung („Performance“). Die Aufgabe lautet: Probleme sollen rechtzeitig
erkannt werden, um dem Problem gegensteuernde Maßnahmen rechtzeitig einzuleiten. Das
schafft Frühwarnsysteme ohne die ein Risiko-Management nicht machbar ist.
Ein Beispiel aus dem täglichen Leben erläutert, wie prädiktive Modelle als
Frühwarnsysteme arbeiten: In einem Kaufhaus werden die Verkaufsflächen
rechtzeitig disponiert, geliefert und nachgefüllt, bevor Produkte vergriffen sind. So
wird das Problem vermieden, dass ein Kunde mit Kaufabsicht ein leeres Regal
vorfindet und das Produkt nicht kaufen kann.
Analytik ist heute im Zeitalter von Big Data wichtiger denn je. Big Data bedeutet nicht nur ein
riesiges, immer grösser werdendes Datenvolumen, sondern auch einen Mix aus
strukturierten und unstrukturierten Daten mit komplexen Beziehungen untereinander. Ein
Unternehmen verfügt bereits über große Mengen strukturierter (in der Regel rund 20% aller
Unternehmensdaten) und unstrukturierter Daten (die machen rund 80% aller
Unternehmensdaten aus). Die wahre Flut von Daten wartet im Web auf uns. Es ist aber nicht
nur die schiere Menge an Daten, die eine Herausforderung darstellt, sondern auch die
Menge und Diversität der Quellen: Portale, Web-Applikationen, Social Media, Videos, Photos
und mehr, eben Web-Content aller Art. Big Data treibt jetzt eine neue Klasse von
Integrationswerkzeugen zur agilen Web- und Cloud-Integration und auch den Einsatz
innovativer Datenbank-Technologien, um die Petabytes, sogar Exabytes von Daten
auswerten zu können, da durch die schiere Menge an Daten die bisher im Markt
dominierenden relationalen Datenbanksysteme an ihre Grenzen stoßen: Es etablieren sich
so „Analytische Datenbanken“ und „NoSQL-Datenhaltungssysteme4“, die innovative
Algorithmen zum Zugriff- und Speicher-Management mit innovativen Ansätzen wie Spalten-
Orientierung und innovativer Hardware-Technologie wie In-Memory-Verarbeitung
miteinander verbinden.
Die traditionellen BI-Werkzeuge erweisen sich ebenfalls als unzureichend für Big Data-
Analytik. Data Discovery, eine interaktive Variante von Analytik, steht jetzt ganz vorne in der
Bedeutung. Dazu gehören Filtern und Visualisieren von Daten, kollaborative Werkzeuge zur
Teamarbeit, intuitive Benutzerschnittstellen und eine neue Generation von Geräten wie die
Tablets, damit man in den Fachabteilungen produktiv und erfolgreich arbeiten kann. Im
Fokus steht jetzt auch Location Intelligence, die Erweiterung von Business Intelligence um
4 NoSQL = not only SQL, SQL = sequential query Language.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 12
die Dimension „Raum“. Denn im mobilen Internet konvergieren jetzt Information, Zeit und
Raum. Die Lokalisierungsdaten aus Smartphones und Navigationsgeräten erlauben eben
ganz neue Typen von Analysen. Dazu kommen neue analytische Methoden und Verfahren
zur Analyse auch unstrukturierter Daten, beispielsweise Textanalytik. Textanalytik ist eine
neue Klasse von Analytik, die linguistische Verfahren mit Suchmaschinen, Text Mining, Data
Mining und Algorithmen des maschinellen Lernens verbindet. Das alles ergibt ein komplett
neues Arsenal für Analytik im Unternehmen.
Solche neuen Methoden und Technologien erfordern auch neue Rollen wie die der Data
Scientists, die als Mittler zwischen der IT und den Fachabteilungen den weiteren Ausbau
der Zusammenarbeit treiben, die Verarbeitung von Big Data fördern und helfen, die
Potenziale von Big Data auch zu realisieren. Das erfordert neue Skills und eine
Neuorientierung der IT: Die IT muss in den Zeiten von Big Data den Hauptfokus auf Data
Management legen.
Performance Management und Analytik unterscheiden sich deutlich vom traditionellen
Business Intelligence Ansatz. Der Unterschied besteht nicht nur darin, dass man jetzt mit
dem Big Data umgehen muss, sondern auch darin, dass jetzt im Zuge von Performance
Management und Analytik Entscheidungen in den Kontext von Prozessen und Services
gestellt werden und so auch operativ umgesetzt werden können. Mit traditionellen Business
Intelligence-Werkzeugen (etwa Berichtswesen, Adhoc-Abfragen, OLAP (online analytical
processing), Data Mining etc.) war es immer schwierig, die richtige Information zum richtigen
Zeitpunkt am richtigen Ort für den aktuellen Zweck zu haben. Diese traditionellen Werkzeuge
gaben nicht das her, was man wollte: Ergebnisse, die man direkt auf Geschäftsprozesse und
Strategien anwenden und umsetzen konnte. Der Return on Investment (ROI) solcher
Werkzeuge war in der Regel sehr niedrig, wenn er überhaupt messbar war.
Traditionelle Business Intelligence-Werkzeuge waren zudem meist schwer zu handhaben.
Nur eine Handvoll Experten war in der Lage, aus den traditionellen Werkzeugen die richtige
Information herauszuziehen. Management-Entscheidungen und Maßnahmen wurden daher
eher auf Grund von Vermutungen getroffen, weniger auf Grund von Fakten. Hier wurden
inzwischen viele dieser Probleme beseitigt. „Selbst-Bedienungs-BI (self-service BI)“, vor
allem auch im Rahmen von Data Discovery, erlaubt heute, dass auch gelegentliche Nutzer
von Analytik und Performance Management die Fakten und die Information bekommen, die
sie im Rahmen einer BI-Governance benötigen. Die Benutzerschnittstellen sind in Richtung
Social Media Interfaces weiterentwickelt worden und erlauben eine Nutzung à la Facebook
und Twitter. Mobile Lösungen auf Smartphones und Tablets haben hier den Weg gezeigt,
wie Software-Ergonomie zu sein hat.
Zur Ergonomie gehören nicht nur die Bedienbarkeit der Werkzeuge, sondern auch die
Möglichkeiten der Automation von Arbeitsschritten und analytischen Prozessen. Die
Schwachstellen in der heutigen Praxis mit Business Intelligence wie manuelle
Informationsbereitstellung und manuelle Analyse werden durch zuverlässige und sichere
Automation abgelöst. Das Anreichern von Prozessen durch Analytik mit Hilfe einer SOA stellt
ein weiteres Mittel zur besseren Handhabung dar: Ein Mashing-up5 von analytischen
5 „Mash-up“ (engl. für Vermanschung) bezeichnet die Erstellung neuer Inhalte durch die nahtlose (Re-)
Kombination bereits bestehender Inhalte.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 13
Services mit operativen und kollaborativen Services wird ohne weitere Integrationsaufwände
und total flexibel möglich. Das schafft innovative Geschäftsprozesse und Business-Services
in einer neuen Qualität, die über traditionelle Workflow-Modelle deutlich hinausgeht.
Fazit: Analytik und Performance Management sind eine wesentliche Grundlage von
Steuerung im Unternehmen zur Umsetzung der drei Management-Prinzipien
Industrialisierung, Agilität und Compliance. Sie sind die konsequente Weiterentwicklung der
traditionellen Business Intelligence. Mit Hilfe von Analytik lässt sich das Big Data erschließen
und wertvolles Wissen zur Steuerung im Unternehmen ableiten. Mit Hilfe von Performance
Management kann dieses Wissen über eine Service- und Prozess-Orientierung von den
Unternehmensstrategien bis zum operativen Tagesgeschäft hin umgesetzt und in allen
Aktivitäten eines Unternehmens eingesetzt werden. Man schafft ein intelligentes
Unternehmen. Hierin liegt der Nutzen und Wert von Analytik und Performance
Management.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 14
2 Business Intelligence im Wandel
Performance Management und Analytik können als die Nachfolger von Business Intelligence
verstanden werden. Daher betrachten wir hier zunächst die Entstehung des Begriffs
Business Intelligence, die Ziele, die man mit Business Intelligence verfolgt hat und welche
Probleme zu lösen und Herausforderungen zu meistern waren.
Die älteste bekannte Quelle, in der der Begriff Business Intelligence (BI) verwendet wird,
stammt aus dem Jahre 1958. Im Oktober-Heft des IBM-Journals schreibt Hans Peter Luhn
über „A Business Intelligence System“. 1989 greift Howard Dresner, seinerzeit Analyst bei
der Gartner Group, den Begriff wieder auf, und es ist die Gartner Group, die in den 90er
Jahren diesen Begriff benutzt, verbreitet und bekannt macht. Aber dennoch gibt es heute
immer noch unterschiedliche Auffassungen, was BI ist: Sogar innerhalb eines Unternehmen
gibt es zum Teil unterschiedliche Vorstellungen zu BI und welchen Nutzen sie bringt. Da ist
folgende weitgehend anerkannte Definition hilfreich zum Verständnis, was Business
Intelligence ist und was sie bedeutet:
Als Business Intelligence bezeichnet man die Fähigkeit, Bereitschaft und Fertigkeit, das
Geschäft zu kennen und zu verstehen – oder detaillierter ausgedrückt: Unter Business
Intelligence verstehen wir alle Strategien, Prozesse und Technologien, bei denen aus Daten
Information und aus Information erfolgskritisches Wissen gewonnen wird, so dass
Entscheidungen auf Basis von Fakten getroffen werden, die Aktionen zur Unternehmens-
und Prozesssteuerung auslösen.
Der Anspruch des Konzeptes Business Intelligence ist also, Entscheidungen auf Fakten zu
stellen und bessere Entscheidungen zu treffen. BI soll Antworten geben auf Fragen wie:
Wissen Sie, welche Ihrer Lieferanten zur Erreichung Ihrer Produktionsziele absolut
notwendig sind? Wird deren Lieferunfähigkeit Ihre Produktion stunden- oder gar tagelang
zum Stillstand bringen?
Wissen Sie, welchen Anteil Ihr Unternehmen an den Geschäftseinnahmen Ihrer
Lieferanten hat? Nutzen Sie diese Information, um von den Lieferanten günstige
Konditionen zu erhalten?
Wissen Sie, mit welchen Kunden Sie den größten Gewinn machen? Bieten Sie diesen
Kunden einen überragenden Service, um sie zu binden? Sind Sie in der Lage, Ihren
Kunden zum geeigneten Zeitpunkt höherwertige bzw. andere Produkte zu verkaufen (Up-
Selling/Cross-Selling)?
Wissen Sie bereits im ersten Quartal, dass Sie Ihr Vertriebsziel im vierten Quartal nicht
erreichen werden, weil sie nicht genügend Interessenten (Leads) haben?
Wissen Sie, wie viele Einnahmen Ihnen tatsächlich verloren gehen, weil Ihre Kunden in
Stoßzeiten telefonisch nicht zu Ihrem Call-Center durchkommen?
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 15
Wissen Sie, wie viele Geschäfte Ihnen entgehen, weil Sie Cross-Selling-Möglichkeiten im
Direktverkauf, im Handel oder über Internetshops nicht voll ausnutzen?
Wissen Sie, wie viel Geld das für Ihr Unternehmen bedeutet? Wissen Sie, wie Sie dieses
Geld finden, bekommen und dauerhaft behalten können?
BI mit Hilfe von Softwareunterstützung betreiben wir seit den 70/80er Jahren. Haben wir in
dieser Zeit die Antworten gefunden? Nicht immer, denn das Problem ist, wie man all diese
guten Dinge sowohl operativ im Tagesgeschäft als auch auf strategischer Ebene nutzen,
umsetzen und leben kann. Das ist vielfach nicht gelungen. Besonders am Anfang der 2000er
Jahre trat eine große Ernüchterung ein, was das Thema Business Intelligence betrifft. Das
gab einen Schub zu einem neuen Ansatz für Business Intelligence: Performance
Management und Analytik, so wollte man Business Intelligence mit neuem Leben füllen.
2.1 Die Mängelliste traditioneller Business Intelligence
Traditionelle Business Intelligence diente der Entscheidungsunterstützung im Rahmen
strategischer Planung und taktischer Analyse. Die Zielsetzung traditioneller Business
Intelligence war schon richtig: Entscheidungen auf Fakten zu stellen. Leider hat das in vielen
Fällen nicht den erwarteten Mehrwert und die gewünschte Akzeptanz gebracht. Berichte,
Kennzahlen, analytische Applikationen etc., was hat es genutzt? Das Problem ist, wie man
all diese guten Dinge im Unternehmen nutzen und umsetzen kann, denn Information erzeugt
nur dann Wert, wenn man sie nutzt und einsetzt.
Was stimmte nicht an traditioneller Business Intelligence?
Business Intelligence war Bottom-up und nicht prozessorientiert. Das führte zu einem
ungenügenden Einbeziehen der Fachabteilungen. Die wirklichen geschäftlichen prozess-
orientierten Anforderungen wurden nicht adressiert. Damit hat traditionelle Business
Intelligence den Mangel an geschäftlich orientierter Relevanz.
Business Intelligence war ausschließlich ein Informationsbereitstellungsmodell zur
Entscheidungsunterstützung (Bill Inmons „Informationsfabrik“; Inmon, 1996). Damit
waren Daten und die analytischen Prozesse zur Erzeugung von Information untrennbar
miteinander verbunden. Die Konsequenz ist: Inflexibilität und Komplexität. So wird jede
Innovation an der Quelle erstickt. Die Akzeptanz sinkt drastisch.
Business Intelligence konnte Entscheidungen zwar unterstützen, es fehlte aber die
Rückkopplungskomponente, das Treffen von Maßnahmen. Kennzahlen, die nicht im
Kontext von Prozessen stehen, bringen kaum Wert, da sie nicht zu Maßnahmen zur
Prozesssteuerung umsetzbar sind.
Beispiel: Ist auf der strategischen Ebene eine Kennzahl im roten Bereich, dann
müssen – in der Regel immer noch vom Menschen – Entscheidungen getroffen
werden, die taktische und operative Maßnahmen bedeuten. So wird Information
genutzt, basierend auf Fakten entschieden und ein deutlich höherer Mehrwert erzeugt
als im traditionellen Business Intelligence Modell ohne Rückkopplungskomponente.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 16
Operative Aspekte von Business Intelligence wurden nicht mit einem kohärenten Ansatz
abgedeckt. Traditionelle Business Intelligence forderte ein Data Warehouse als die
einzige Quelle von zuverlässiger, qualitativ hochstehender Information. Damit konnte
Business Intelligence nicht im operativen Umfeld eingesetzt werden und wirkte nur im
isolierten Raum taktischer und strategischer Analysen. Die potentielle Wertschöpfung
durch Echtzeitanalysen wurde außen vorgelassen.
Business Intelligence war retrospektiv. Der Fokus lag auf Analyse und Diagnose. Das
Potential prädiktiver Modelle zum rechtzeitigen Erkennen und Vermeiden von Problemen
und Risiken wurde nicht genutzt.
Beispiel: In einem mittelständischen Fertigungsunternehmen wird die Qualität der
Produktion nach Abschluss einer Schicht analysiert. So werden die möglichen
Schwachstellen einer Produktion schnellstens identifiziert, so dass Maßnahmen
ergriffen werden können, die sicherstellen, dass diese Fehlerquellen für die folgende
Schicht eliminiert werden. Pro-aktive BI erzeugt einen deutlichen Mehrwert, den es
auszuschöpfen gilt.
Business Intelligence-Werkzeuge haben vielfach den Informationsverbraucher nicht
ausreichend mit Information versorgt. Daher hatte man entweder das Problem, dass
Information nicht zugänglich war (oder gar versteckt und zurückgehalten wurde), oder
man hatte das Problem einer Datenflut („information for the masses“). Das führt wieder
zu einem drastischen Sinken der Akzeptanz.
Business Intelligence war ein werkzeugbezogener Ansatz, der auf proprietären
Technologien basierte. Jede analytische Komponente spielte ihre eigene Rolle in einem
isolierten Umfeld. Das hat Inkompatibilität und Inkonsistenz geschaffen und zu isolierten
Informationssilos geführt. Auf der Vorstandsebene passten dann die Zahlen nicht
zusammen.
Diese Mängelliste zeigt deutlich auf: Es war an der Zeit, Business Intelligence neu zu
erfinden. Denn die alte Idee, Entscheidungen auf Fakten zu stellen, ist ja nicht falsch. Das
haben die Verfechter von Business Intelligence zwar immer so gesehen, aber jetzt kommt
als wichtigster Treiber für eine Evolution und gleichsam Neuentdeckung von Business
Intelligence der grundlegende Wandel in den Märkten hinzu: Wir sind im New Normal
angekommen, der digitalen Welt, die Big Data produziert und im Big Data lebt. Information
ist zu einem der wichtigster Güter geworden: Unternehmen sind heute „daten-getrieben“.
2.2 Die Bedeutung von Information im New Normal
“A number of new rules will apply in the New Normal. Consumers will have zero tolerance for
digital failure. They will expect to get internet access anytime, anyplace. Internet and
connectivity will be just as ubiquitous as electricity. Consumers will demand fulfillment of their
information needs instantaneously. The effect on companies will be tremendous.”6
6 „The New Normal“ von Peter Hinssen (2010) http://www.peterhinssen.com/books/the-new-normal/synopsis
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 17
Das New Normal ist das Zeitalter nach der Wirtschaftskrise 2008. Nach dieser Krise ist und
wird nichts mehr so sein wie vorher. Zugenommen haben deutlich und nachhaltig
Komplexität und Dynamik im Business. Jetzt geht es im Unternehmen um Flexibilität im
operativen Geschäft und um die Geschwindigkeit, mit der sich auftuende Gelegenheiten
ergriffen und umgesetzt werden können. Treiber ist zum einen die neue Verteilung der Macht
zwischen den alten gesättigten und den neuen aufstrebenden und expandierenden Märkten
und zum anderen die ständig steigende Vernetzung der Welt. Wir sind in der digitalen Welt
angekommen: Informationstechnik, Kommunikation, Wirtschaft und soziale Bereiche
konvergieren. Das mobile Internet macht Information allgegenwärtig und immer verfügbar.
Es ist vor allem auch schnell. Information rast um die Weltkugel dank sozialer Netze wie
Facebook und Twitter. Im mobilen Internet konvergieren Information, Zeit und Raum. Das ist
es, was die digitale Welt schafft und ausmacht. Willkommen im New Normal!
Die Herausforderungen im New Normal sind das Meistern der Volatilität und der
Geschwindigkeit der Märkte. Es gibt kaum noch Stabilität. Unvorhersehbarkeit und
zunehmende Veränderungsgeschwindigkeit sind zur zentralen Herausforderung des
Managements geworden. Agilität im Business ist angesagt. Nicht-agil zu sein bedeutet im
heutigen Markt schlicht und einfach Geschäft und Marktpositionen zu verlieren. Das stellt
das Management vor neue Aufgaben: Traditionelle Steuerung im Unternehmen funktioniert
nicht mehr. Information wird zur entscheidenden Ressource zur Bewältigung von Komplexität
und Dynamik der digitalen Welt. (Abb. 1)
1
Märkte und Markttrends
“The New
Normal”
Big Data Social Media,Mobiles Internet
Digitalisierung
alte saturierteMärkte
neue expandierende
Märkte Globalisierung
Komplexitätder Systeme Marktdynamik
Volatilität
Volatilität
© 2012 S.A.R.L. Martin
Abbildung 1: Das „New Normal“ wird durch drei Kräfte bestimmt, der Globalisierung der Märkte, der Digitalisierung der Welt und der Volatilität der Märkte. Die Konsequenz: Nichts ist mehr so, wie es einmal war. Die Globalisierung schafft Spannungen und Verwerfungen, die Volatilität schafft Unsicherheit und Ungewissheit, und die Digitalisierung hat zudem alles in einem bislang unvorstellbaren Masse beschleunigt und Big Data geschaffen.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 18
Traditionelle Steuerung im Unternehmen beruhte trotz eines teilweise sogar massiven
Einsatzes von Business Intelligence-Methoden und Werkzeugen zur
Entscheidungsunterstützung auf Erfahrungswissen. Entscheidungen wurden so intuitiv aus
Erfahrungen der Vergangenheit in die gegenwärtige Situation übertragen und auf die Zukunft
angewendet. Das funktioniert im New Normal nicht mehr, denn Erfahrungswissen führt nur
dann zu „richtigen“ Entscheidungen, wenn das Unternehmensmodell von Vergangenheit,
Gegenwart und Zukunft übereinstimmen. Das ist im New Normal aber nicht die Regel.
Aufgrund der zunehmenden Komplexität und Dynamik sind Erfahrungen aus der
Vergangenheit nicht mehr uneingeschränkt auf die Gegenwart geschweige denn auf die
Zukunft übertragbar. Erfahrungswissen zu nutzen, führt im New Normal in der Regel zu
falschen Entscheidungen. Falsche Entscheidungen sind fatal in der heutigen
Marktdynamik, denn eine Revision von falschen Entscheidungen ist im New Normal nicht
mehr machbar: Die Zeit ist einfach nicht mehr da! Falsche Entscheidungen trifft man auch,
wenn man zu spät entscheidet. Frühzeitig und rechtzeitig Probleme zu erkennen, so dass
man noch rechtzeitig gegensteuern kann, ist insbesondere im New Normal unabdinglich.
Richtige Entscheidungen basieren also auf rechtzeitiger Information und auf einem
Verstehen der Dynamik des Unternehmensmodells, das ein Abbild entsprechend der
Marktlage darstellt.
Im Old Normal war das Unternehmensmodell stabil: Stabile Märkte, vor allem
Wachstumsmärkte, erlauben, ein Unternehmen mit einer Strategie und einer
Organisationsstruktur über einen langen Zeitraum kontinuierlich und gleichmäßig zu
managen und zu steuern. Hier war Erfahrungswissen sehr wertvoll und erlaubte ein gutes
Navigieren in „ruhigen Wassern“. Der Wert von Information zur Steuerung im Unternehmen
wurde zwar erkannt und Information war wichtig, aber keineswegs immer ausschlaggebend.
Das zeigte sich in der Bereitstellung von Reports, die keiner nutzte. Das zeigte sich in der
Nutzung von Spreadsheets, in denen Zahlen so lange „massiert“ wurden, bis Information und
Erfahrungswissen übereinstimmten. Das zeigte sich in mangelnder Akzeptanz von
Dashboards und analytischen Werkzeugen. Das zeigte sich in der im vorigen Kapitel
beschriebenen Mängelliste traditioneller Business Intelligence. Man kam im Old Normal ja
auch „ohne“ durch. Das Geschäft lief vielfach wie von alleine, wenn es einmal richtig
aufgesetzt war.
Im New Normal ist alles anders. Wegen der Dynamik der Märkte und des Geschäftes muss
jenseits von Erfahrungswissen schnell entschieden werden. Jetzt kommt es darauf an, im
richtigen Augenblick die richtige Information zu haben, die für eine zu treffende Entscheidung
die richtige Relevanz hat. Das ist gar nicht so einfach, denn diese richtige Information ist aus
einem riesigen Volumen irrelevanter und damit überflüssiger Information herauszufiltern. Das
ist schwieriger denn je, denn das New Normal produziert mehr und mehr Daten, das „Big
Data“. Die beiden wesentlichen Treiber dieser Datenexplosion sind die Social Media und
das mobile Internet, mit anderen Worten, die Digitalisierung der Welt. Das New Normal treibt
so in reflexibler Art die Komplexität durch Big Data.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 19
2.3 Big Data und Echtzeit
Die „Big Data-Herausforderung“: Immer mehr Nutzer wollen in nahezu Echtzeit die Daten
aus der immer mehr ausufernden Datenflut und aus immer mehr und unterschiedlichsten
Quellen analysieren.
Diese Big Data-Herausforderung beschreibt recht gut, was Big Data ist und was es bedeutet:
Extremes und anhaltendes Wachstum des Datenvolumens. Allein im Jahr 2011 hat die
Menschheit 1,8 ZB neue Daten produziert. (1 Zetta Byte = 1 Milliarde Tera Bytes). Diese
Daten sind zudem mehrheitlich unstrukturiert.
Die Anzahl der Datenquellen nimmt massiv zu. Es sind nicht nur die Social Media,
sondern auch maschinell erzeugte Daten wie die Lokalisierungsdaten aus dem mobilen
Internet oder Messdaten aus intelligenten Ablesegeräten (Telephonie, Strom, Gas,
Wasser, RFID etc.).
Die Anzahl der Mitarbeiter, die Information brauchen und wollen steigt rasant an. Die in
dieser extremen Menge von Daten verborgene Information und das darin verborgene
Wissen wollen sich mehr und mehr Unternehmen und innerhalb der Unternehmen mehr
und mehr Fachbereiche zu nutzen machen.
Information hat den größten Wert, wenn sie neu und aktuell ist. Denn Dinge in der
digitalisierten Welt des New Normal passieren jetzt und überall. Daher brauchen wir
Information in Echtzeit, hier und jetzt.
Jeder dieser vier Trends an sich ist eine große Herausforderung an die
Informationstechnologie. Jetzt gilt es aber diese vier Anforderungen gemeinsam zu meistern,
sonst gibt es keine Antworten und Erkenntnisse! Damit ist klar, dass die traditionellen
Business Intelligence (BI)-Technologien zum Analysieren von Daten nicht mehr ausreichen,
ja, man kann sogar sagen, zum Teil obsolet geworden sind. Diese Herausforderungen, die
Big Data an uns stellt, kommen nun zu den alten Mängeln der traditionellen BI als weitere
Anforderungen an die „neue“ BI hinzu und erzwingen weitere Innovationen. Diese
Innovationen passieren in der Tat jetzt und heute auf allen Ebenen von BI, auf der
Datenhaltungsebene, auf der Information Management-Ebene und auf der Ebene der BI-
Werkzeuge. Das wird in den folgenden Kapiteln beschrieben.
Hinzu kommt, dass heute im New Normal Information in Echtzeit zur Verfügung stehen
muss, damit Entscheidungen rechtzeitig getroffen werden können, denn nur so kann man
proaktiv mittels Kennzahlen Unternehmen und Prozesse überwachen und steuern.
Beispiel: Angenommen, ein Einflussfaktor im Geschäftsmodell eines Unternehmens
ist „Liefertreue“. Dann muss Liefertreue messbar gemacht werden. Beispielsweise
könnte man festsetzen, dass 90 Prozent aller Lieferungen innerhalb von zwei Tagen
erfolgen sollen. Das ergibt eine strategische Kennzahl für diesen Prozess. Eine
operative Kennzahl für diesen Prozess könnte der „Lagerbestand“ gemessen an
einem festgelegten Mindestbestand in einem Warenlager sein. Falls der
Lagerbestand unter die Mindestmenge fällt, wird eine Nachbestellung automatisch
ausgelöst: Das Auskommen der Kennzahl Lagerbestand löst also eine Entscheidung
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 20
aus, die eine Maßnahme in Gang setzt. Diese Kennzahl ist daher eine operative
Steuerungsinformation. Sie arbeitet proaktiv als Frühwarngröße, da durch die
Maßnahme das Problem „ausverkauft“ verhindert wird. So wird ein Problem
rechtzeitig erkannt und das Risiko eines Ausverkaufs wird minimiert.
Basierend auf den im Beispiel diskutierten Konzepten kann man jetzt auch „Echtzeit“
definieren.
Definition: Echtzeit im Business bedeutet die richtige Information zum richtigen Zeitpunkt
am richtigen Ort zum richtigen Zweck verfügbar zu haben.
Die „Echtzeit“-Forderung im Business hat also nichts mit der Uhrzeit zu tun. Was für
„Echtzeit“ entscheidend ist, ist die Verfügbarkeit von Information in der Geschwindigkeit, mit
der sie benötigt wird. Monatliche, wöchentliche oder tägliche Informationsbereitstellung kann
also durchaus „Echtzeit“ sein, wenn der zugrundeliegende Prozess entsprechend langsam
abläuft (Beispiel: Fahrplan-Information bei Buchung versus Verspätungs-Information bei der
Reise). Daher spricht man auch besser nicht von „Echtzeit“, sondern von „Rechtzeitigkeit“.7
Das Beispiel zeigt weiter, dass Kennzahlen nicht nur diagnostische Aufgaben haben wie
früher in der traditionellen Business Intelligence, sondern insbesondere auch
vorausschauenden Charakter im Sinne von Vorhersage („Forecasting“) haben. Mittels
solcher Kennzahlen erhalten Prozesse die Fähigkeit, proaktiv und korrektiv zu agieren:
Probleme und Risiken werden rechtzeitig erkannt und behandelt bevor Schäden auftreten.
Das ist Geschäftssteuerung durch Echtzeit-Control. So spart man Zeit, Ressourcen und
Kosten.
2.4 Nutzenpotenziale von Big Data
Im Big Data steckt großes Potenzial, vor allem viel Wissen, das man sich nur erschließen
muss. Aber das Potenzial an Wissen ist nicht so einfach zu erschließen, denn ein solcher
verwobener Mix aus riesigen, unüberschaubaren und fragmentierten Daten macht es
schwierig, die Daten zu identifizieren, zu extrahieren, zu speichern, zu verwalten und zu
analysieren. Bevor wir uns aber die dazu notwendigen Innovationen anschauen, wollen wir
die Nutzenpotenziale verstehen und erkennen, wie wir vom Big Data profitieren können.
Beginnen wir dazu mit zwei Beispielen.
Beispiel: Big Data im Handel. Im Handel kämpft man schon lange mit sehr großen
Datenmengen, den Kassenbon-Daten beispielsweise. In den Kassenbon-Daten
steckt viel Kundenwissen, denn sie eignen sich gut, um die Produktprofitabilität pro
Kunden auszurechnen. Das ist eine wichtige Kennzahl zur Steuerung von
personalisierten Kampagnen und Echtzeit-Produktempfehlungen, also eine im
analytischen CRM typische Kennzahl im Handel für die Outbound- und Inbound-
7 Nur ist „Echtzeit“ leider zu einem neuen Buzz-Wort geworden und führt so gelegentlich zu Irrungen und
Wirrungen.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 21
Kundenkommunikation. Nur konnte man mit den traditionellen BI-Werkzeugen diese
Kunden/Produkt-Profitabilität-Kennzahl nicht ausrechnen, da das zugrunde liegende
Datenvolumen zu groß war und die Analysen einfach zu lange dauerten, um
beispielsweise im Rahmen von Kundeninteraktionen Empfehlungen in Echtzeit
auszusprechen. Mit Big Data-Technologien lässt sich das Problem lösen.
Beispiel: Stimmungsanalysen in den Social Media. Insbesondere die
Konsumgüterhersteller interessieren sich für die Meinungen aller Marktteilnehmer zu
den eigenen Produkten und Marken ebenso im Vergleich dazu zu den Produkten und
Marken der Mitbewerber. Hier bieten die Social Media neue und ergiebige Quellen.
Neben der Chance, Zielgruppen mit chirurgischer Präzision zu bearbeiten, bringen
Social Media aber auch Risiken: In Blogs, Foren und Tweets wird schlicht und einfach
alles über Produkte und Unternehmen gesagt – inklusive echter Lügen:
Expertenforen können schnell und nachhaltig Werbesprüche entzaubern. Zur
Auswertung all dieser Kommunikation in den Social Media beginnt man mit dem
Identifizieren und Extrahieren der relevanten Quellen im Big Data. Dann gilt es, diese
Quellen auszuwerten. Das liefert nicht nur statistische Information, wo und wie viele
Spuren sich im Web und in den Social Media befinden, sondern mit Hilfe von
Stimmungsanalysen (sentiment analysis) lässt sich auch die Tonalität der Beiträge
bestimmen. Auf Basis eines Social Media Monitoring kann im nächsten Schritt eine
Social Media-Interaktion aufgebaut werden. Das Unternehmen kann jetzt auf
relevante Beiträge sofort reagieren und intervenieren. Das bringt Vorteile vor allem im
Kundenservice oder bei der Einführung neuer Produkte im Markt, da sich sofort eine
Kommunikation mit Communities im Web aufbauen und unterhalten lässt. So sind
beispielsweise schon in verschiedenen Service-Call Centern die Agenten auch zu
Social Media-Agenten geworden, die jetzt eine Multikanal-Kommunikation mit den
Kunden über die traditionellen und die Social Media-Kanäle führen können. Das ist
der Schritt von Outbound- und Inbound-Kundenkommunikation zur Unbound-
Kundenkommunikation. So schafft man eine gesteigerte Time-to-Market und eine
höhere Kundenbindung bei einer vergleichsweise überschaubaren Investition.
Wenn man sich diese Beispiele genauer anschaut, dann lassen sich fünf Nutzenaspekte
von Big Data erkennen.
1. Transparenz durch Big Data. Nicht nur Hersteller von Konsumgütern interessieren sich
für Stimmungsanalysen in Social Media, sondern auch die Touristik-Branche. Eine
Hotelkette interessiert sich beispielsweise für das elektronische Feedback ihrer Gäste
und/oder für die Bewertungen der Mitbewerber. Auch eine ganz neue Art der
Wettbewerbsbeobachtung ist mittels der öffentlich zugänglichen Satellitenbilder machbar.
Man kann so Hinweise über Fabrikkapazitäten erhalten, rechtzeitig Expansionen
erkennen oder auch topologische Beschränkungen, die Expansionen des Mitbewerbers
behindern können. Alles wird möglich, wenn all diese Daten im Unternehmen zugreifbar
und auswertbar werden. In der Verbindung mit den Unternehmenskundendaten erhält
man so nicht nur eine 360°-Sicht auf den Kunden, wie immer im CRM gefordert, sondern
sogar eine 360°-Sicht auf den gesamten Markt: Mitbewerber, Kunden der Mitbewerber,
Presse, Marktmultiplikatoren etc. Denn im Big Data spiegelt sich ja der Markt mit allen
Marktteilnehmern wieder.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 22
Um von diesem Nutzenaspekt zu profitieren, muss das „Silo-Denken“ in den
Unternehmen endlich aufhören. Das Sammeln von Fachabteilungs-bezogenen Daten ist
nicht ausreichend, um Kunden- und Marktwissen durch Big Data aufzubauen. Im
Finanzwesen ist es immer noch üblich, Daten über die Finanzmärkte, über den
Zahlungsverkehr und das Kreditwesen getrennt zu halten und nicht über
Abteilungsgrenzen hinweg zu nutzen. Das hindert den Aufbau kohärenter Kundensichten
und das Verstehen der Beziehungen und Beeinflussungen zwischen Finanzmärkten.
2. Testen aller Entscheidungen. Big Data bietet die Möglichkeit, das Treffen von
Entscheidungen grundlegend zu ändern: Big Data-Analyseergebnisse werden als
Hypothesen aufgefasst und dann mittels kontrollierter Experimente werden diese
Hypothesen getestet. Das erlaubt, Entscheidungen und Maßnahmen auf Basis von
getesteten Fakten zu treffen. So lassen sich auch Ursache-Wirkungsbeziehungen von
reinen Korrelationen unterscheiden.
Internet-Unternehmen wie Amazon und eBay waren mit bei den ersten, die solche
kontrollierten Experimente nutzten, um die Konversionsraten von Besuchern ihrer
Webseiten zu steigern. Dazu wurden gezielt bestimmt Funktionen und Verbindungen auf
Webseiten geändert und die Wirkung entsprechend gemessen. So konnten die Faktoren
ermittelt werden, die die Konversionsraten steigern. Mittels des mobilen Internets kann
jetzt die Wirkung von Außenwerbung bezogen auf den Standort gemessen und
entsprechend optimiert werden. Das wird durch die Klickraten auf den QR-Codes auf
Werbeflächen ermöglicht. So lässt sich im Big Data auch ein cross-mediales Marketing
aufbauen. Die Konzepte des kontrollierten Testens von Änderungen von Webseiten
werden heute auch in der realen Welt machbar. Das geschieht nicht nur durch die QR-
Codes, sondern auch beispielsweise mittels Video-Aufzeichnungen von
Kundenbewegungen in Kombination mit Kundeninteraktionen und Bestellmustern, die sich
in Transaktionsdaten verbergen. Durch kontrollierte Experimente lassen sich so Produkt-
Portfolios und -Platzierungen sowie Preise kontinuierlich und gezielt verbessern. Daraus
folgt eine Kosteneinsparung durch mögliche Reduktionen des Produktangebots ohne
Risiko des Verlustes von Marktanteilen und sowie eine Steigerung der Marge durch den
Verkauf höherwertiger Produkte.
3. Personalisierung in Echtzeit. Kunden- und Marktsegmentierung hat eine lange
Tradition. Jetzt mit Big Data gibt es völlig neue Möglichkeiten durch Echtzeit-
Personalisierung von Kundeninteraktionen. Im Handel kennen wir solche Strategien
bereits von den Big Data-Vorreitern wie Amazon und eBay, aber auch von sozialen
Netzen, wo uns Freundschaften vorgeschlagen werden. Natürlich profitiert man auch in
anderen Branchen von solchen personalisierten Kundeninteraktionen, beispielsweise im
Versicherungswesen. Hier können Versicherungspolicen auf den Kunden individuell
zugeschnitten werden. Als Datenbasis dazu dienen kontinuierlich angepasste Profile der
Kundenrisiken, Änderungen in der Vermögenslage oder auch Lokalisierungsdaten.
Kraftfahrzeuge können mit speziellen Sendern ausgerüstet werden, so dass sie über eine
Lokalisierung im Falle eines Diebstahls wiedergefunden werden können.
4. Prozess-Steuerung und Automatisierung. Big Data erweitert den Einsatz von Analytik
zur Prozess-Steuerung und Automatisierung. So können Sensor-Daten von
Produktionsstraßen zur Autoregulierung von Produktionsprozessen genutzt werden.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 23
Damit lassen sich Kosteneinsparungen durch optimalen Materialeinsatz und durch
Vermeidung von menschlichen Eingriffen erzielen, wobei gleichzeitig der Durchsatz
erhöht werden kann. Proaktive Wartung ist ein anderes Einsatzgebiet. Maschinen können
kontinuierlich über Sensoren überwacht werden, so dass auftretende Unregelmäßigkeiten
sofort erkannt werden und rechtzeitig beseitigt werden können, bevor Schäden auftreten
oder es zum Stillstand kommt.
Andere Beispiele stammen aus der Konsumgüter-Branche. Getränke oder auch
Speiseeis-Hersteller nutzen die täglichen Wettervorhersagen, um die eigenen
Nachfrageplanungsprozesse an das aktuelle Wetter anzupassen. Dabei sind die
Messdaten zur Temperatur, zur Niederschlagsmenge und zur täglichen
Sonnenscheindauer entscheidend. Dieses Wissen erlaubt eine Prozessoptimierung durch
die Verbesserung der Vorhersagewerte um einige Prozent.
5. Innovative Informations-getriebene Geschäftsmodelle. Big Data erlaubt auch neue,
innovative Geschäftsmodelle auf der Basis von Information. Preis-Information wurde
früher vielfach vertraulich behandelt. Heute in den Zeiten des Internets und Internethandel
sind Preise in der Regel öffentlich verfügbar. Das erlaubt den Internet- und anderen
Händlern die Preise des Mitbewerb zu überwachen und rechtzeitig auf Preisänderungen
zu reagieren. Das erlaubt aber auch den Kunden, sich über die Preise zu informieren und
so den besten Preis für ein gewünschtes Produkt zu erzielen. Darauf haben sich einige
Anbieter spezialisiert, die über Konsolidierung, Aggregieren und Analyse von
Preisinformation ihr eigenes Geschäftsmodell gefunden haben. Das gilt nicht nur im
Handel, sondern auch im Gesundheitswesen, wo durch solche Information-Anbieter die
Behandlungskosten transparent gemacht werden.
Natürlich darf man nicht die Kritik an Big Data vernachlässigen, denn ein mehr an
Information bedeutet nicht unbedingt gleichzeitig bessere Information. Auch macht die
Quellenvielfalt Probleme, was die Vergleichbarkeit der Daten angeht, denn unterschiedliche
Quellen erzeugen durchaus auch Daten in unterschiedlicher Qualität und Beschaffenheit. Für
den Statistiker erhebt sich dann auch noch die Frage, ob und wie Information aus dem Big
Data überhaupt repräsentativ sein kann.
Trotz der Kritik an Big Data: die Big Data-Vorreiter Amazon, eBay, Facebook und Google
zeigen, dass Big Data-Potenziale existieren und geldwerten Vorteil bringen können. Bei aller
Skepsis zum Hype um Big Data: Die IT-Anbieter investieren große Summen und erwarten
viel von diesem schnell wachsenden Markt. Schließlich sollte man auch nicht vergessen,
dass all die genannten Datenquellen sprudeln. Die Informationsproduktion der digitalen Welt
ist enorm und gleichzeitig stehen mächtige Analyseverfahren aus Mathematik, Statistik,
Linguistik und aus der Welt der künstlichen Intelligenz zur Verfügung, mit denen man in der
Tat Hypothesen finden kann, die sich kein Mensch je ausgedacht hätte. Das ist der Reiz,
genauso wie im traditionellen Data Mining jetzt im Big Data „Nuggets“ zu finden, nur noch
grösser und wertvoller.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 24
2.5 Prozess-Orientierung – ein neuer Kontext für BI
Business Intelligence muss in den Kontext von Prozessen gestellt werden, damit
Geschäftsrelevanz gegeben ist.
Warum sind Prozesse so wichtig? Was erreichen wir hiermit? Blicken wir dazu zurück in die
90er Jahre. Die große Hoffnung war damals, das Unternehmen als Ganzes durch ein ERP-
System IT-mäßig zu unterstützen. Die Unternehmen wurden applikations-orientiert. Alle
unternehmensrelevanten Daten sollten in einer Datenbank abgebildet werden und alle
Geschäftsfunktionen sollten mittels der Standardfunktionalität eines ERP-Systems abgebildet
werden. Dieser Traum ist vorbei. Was haben wir gelernt?
“Ein ERP für alles” funktioniert nicht. Die Mehrheit der Unternehmen hat mehrere
heterogene ERP-Systeme und weitere Legacy- und andere Systeme im Einsatz. Die
durchschnittliche (Median) Anzahl von im Einsatz befindlichen operativen Systemen in
einem größeren Unternehmen ist 50. In globalen Konzernen kommt man schnell auf
Zahlen von mehreren Hundert.
Die Leistungskraft der IT wird in Frage gestellt. Die hohe Zahl von Schnittstellen, um
Punkt-zu-Punkt Applikationen mit anderen Applikationen zu verbinden, treibt die Kosten
für Implementierungen neuer Systeme. Das Budget zur Wartung aller dieser
Schnittstellen blockiert jede Innovation durch IT. IT wurde zur Altlast. Die IT-Abteilung
manchmal sogar zum Bremser.
Der erreichte Grad von Prozessautomation ist bescheiden bis nicht existierend.
Daten müssen meist händisch von einem System ins nächste übertragen werden. Die
Prozessqualität bleibt niedrig, die Fehlerrate aber steigt. Die Kosten bekommt man so
nicht in den Griff.
Der erreichte Grad von Prozessintegration ist bescheiden bis nicht existierend.
Prozesse enden an den Grenzen der Applikationen. Kollaboration mit den Lieferanten,
Partnern und Kunden ist kaum machbar. Das macht die Unternehmen langsam und
senkt die Reaktionsfähigkeit. Wieder steigen die Kosten.
Strategieänderungen und Anpassen der Geschäftsprozesse an
Marktgeschwindigkeit und Dynamik sind nicht möglich. Prozesse sind in den
Applikationen einzementiert und applikationsabhängig. Einen Prozess zu ändern heißt
die Applikation zu ändern und alle Applikationen, mit denen einen Punkt-zu-Punkt-
Verbindung besteht. Die Applikation bestimmt den Takt des Unternehmens, nicht die
Strategie. Applikations-orientierte Unternehmen sind starr und unflexibel. Marktsieger
findet man hier nicht, Marktsieger sind agil.
Stammdaten sind redundant über die Applikationen verstreut. Konsistenz bleibt ein
Traum. Jede Applikation hat ihre eigene Terminologie. Produkt- oder Auftragsnummern
in einer Applikation stimmen mit denen in anderen Applikationen nicht überein. Die
Kollaboration mit Lieferanten und Kunden wird zum Kostentreiber: Jedes Mal, wenn ein
neuer Lieferant, ein neuer Kunde, ein neues Produkt dazu kommt, muss eine neue
Übersetzungstabelle erstellt werden und/oder der neue Begriff in allen
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 25
Übersetzungstabellen hinzugefügt werden. Das macht Änderungen langsam,
fehleranfällig und teuer.
Information Management ist nicht machbar. Rechtzeitige Verfügbarkeit und Zugang
zu Information bleibt ein Luxus und ist nicht bezahlbar. Das Unbehagen über den
Zustand der IT ist groß, Outsourcing packt das Übel nicht an der Wurzel. Eine
Auslagerung in individuelle Tabellenkalkulation à la Excel ist keine Lösung, denn so
steigt nur die Inkonsistenz der Daten und von Information. Insbesondere ist man dann
weder revisions- noch betriebssicher.
Das führt uns zu der Kernfrage: Wie lässt sich ein traditionelles applikations-orientiertes
Unternehmen in ein innovatives Prozess-Orientiertes transformieren? Die Antwort heißt
Business Process Management (BPM).
© 2012 S.A.R.L. Martin2
Infrastruktur: SOA
Das prozessorientierte Unternehmen
Geschäftsprozess
Geschäftsprozess
Business Process Management
Planen, Überwachen, Steuern
Anreichern
Metriken, Business-AnalytikModellieren
Analyse, Design, Test,Simulation
Implementieren &
Betreiben
Applikationsüber-greifende Prozess-
und Regel-Maschine
Performance Management &
Analytik
Abbildung 2: Business Process Management (BPM) ist ein Rückkopplungs-Modell („closed loop“). Das Managen der Geschäftsprozesse steht im Zentrum des unternehmerischen Handelns. Die Prozesse werden unabhängig von der implementierten Applikationslandschaft modelliert, ausgeführt, geplant, überwacht, gesteuert und angereichert. Die Infrastruktur dazu ist eine service-orientierte Architektur (SOA). Performance Management ist ebenfalls ein Rückkopplungs-Modell, das innerhalb von BPM das Planen, Überwachen und Steuern der Prozesse und ihrer Performanz übernimmt. Analytik dient der Ableitung von analytischen Modellen und Services, mit denen Prozesse angereichert und dadurch „intelligent“ gemacht werden können. Diese Prozess-Orientierung ist eine Basis-Eigenschaft eines intelligenten und agilen Echtzeit-Unternehmens.
Definition: BPM ist ein Kreislaufmodell, das aus drei Phasen besteht (Abb. 2):
Phase 1: Analysieren, planen, modellieren, testen und simulieren von
Geschäftsprozessen. (Man spricht auch von der „Design-Phase“.)
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 26
Phase 2: Implementieren und Betreiben („Ausführen“) von Geschäftsprozessen durch
applikationsübergreifende Arbeitsabläufe („process flow“) mittels einer Prozess- und
einer Regelmaschine auf einer service-orientierten Architektur (SOA) als Infrastruktur.
Phase 3: Planen, Überwachen, Steuern und Anreichern der Prozesse, ihrer Leistung
(Performance) und des Zusammenspiels aller Geschäftsprozesse.
BPM heißt also Synchronisieren der Prozesse mit kontinuierlichem und umfassendem
Planen, Überwachen und Steuern. Diese Synchronisierung hält Geschäftsprozesse
kontinuierlich à jour mit Ereignissen und intelligentem Planen und Vorhersagen.
Geschäftsprozesse werden zur neuen Kommunikationsplattform für Fachabteilungen und IT.
Eine echte und dauerhafte Kooperation und Kollaboration zwischen Business und IT
bahnt sich an. Business Process Management schafft (Abb. 3):
Prozesse, die zu einer gemeinsamen Kommunikationsplattform zwischen Business
und IT werden. Die Spezifikation von fachlichen Anforderungen basiert jetzt auf einer
gemeinsamen Sprache, die von beiden Parteien, den Fachabteilungen und der IT
gesprochen und verstanden wird. Das technische Design von ausführbaren Prozessen
und Backend-Services, die die Geschäftslogik bereitstellen, lässt sich ohne Bruchstellen
und konsequent ableiten, wenn ein gemeinsam erstelltes fachliches Design vorliegt.
Prozesse, die unabhängig von den Applikationen ablaufen. Kollaboration erfordert
durchgängige, integrierte und synchronisierte Prozesse, die quer über existierende
Applikationen und Systeme auf einer Integrationsdrehscheibe ablaufen. Die
Integrationsdrehscheibe besteht aus einem Enterprise Service Bus (ESB) und einer
Datenintegrationsplattform (DI). Dabei ist es wesentlich zu verstehen, dass der Charakter
solcher Prozesse funktions-, abteilungs- und unternehmensübergreifend ist.
Prozesse, die von den Vorteilen der Service-Orientierung profitieren. Eine SOA ist
fachlich getrieben. Die Granularität des Prozessmodells bestimmt die Granularität der
fachlichen Services in einer SOA. Eine SOA bildet darüber hinaus technische Services
von existierenden Backend-Applikationen auf die fachlichen Services ab. Das bedeutet
einen 100% Investitionsschutz in die existierende IT Architektur. Mit Service-Orientierung
gehen wir den nächsten Schritt und bauen auf den existierenden IT Investitionen auf.
Prozesse, die quer über alle zu Grunde liegenden Applikationsdatenmodelle
zugreifen können. Eine Voraussetzung für automatisierte, ereignis-getriebene und
durchgängige Prozesse ist, dass alle prozessrelevanten Daten aus allen Schnittstellen
und betroffenen Systemen nicht nur integriert und synchronisiert werden, sondern auch
in ein gemeinsames applikationsübergreifendes Datenmodell aggregiert werden. Solch
ein gemeinsames Business-Vokabular steht im Mittelpunkt des Stammdaten-
Managements: Eindeutig definierte und zentral gemanagte Metadaten geben eine
gemeinsame konsistente Sicht der gesamten Business-Terminologie für alle
Geschäftsparteien. Das ist wesentlich, wenn neue Produkte, neue Kunden oder neue
Lieferanten ins Netzwerk der Kollaboration aufgenommen werden. Eine einzige
Änderung in den Stammdaten wird sicher und zuverlässig an alle Systeme und
Geschäftsparteien weitergeleitet.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 27
3 © 2012 S.A.R.L. Martin
Das intelligente Unternehmen
Lieferanten KundenUnternehmen
Kollaborativer Prozess Abteilung/
Business ServicePlanung/Steuerung/
Überwachung
Eingebettete BI
Governance,
Risiko-Management
Management-Fokus Industrialisierung von Prozessen (operational excellence)
Flexibilität von Prozessen (agility)
Regeltreue von Prozessen (compliance)
Prozess-Management trifft
Performance Management und Analytik
Abbildung 3: Ein intelligentes Unternehmen setzt nicht nur auf „operational excellence“, sondern auch auf die Flexibilität des Geschäftsmodells („agility“) und auf Regeltreue („compliance“). Eine Voraussetzung dazu ist die Prozess-Orientierung. Das schafft drei unterschiedliche Anwendungsbereiche für die „neue“ Business Intelligence: 1) Performance Management zur Prozess-Planung, -Überwachung und -Steuerung, 2) Analytik im Sinne von Einbettung von BI in die Prozesse, 3) Governance und Risiko-Management. Hier wirkt BI unterstützend im Sinne von rechtzeitiger Bereitstellung von Information mittels Frühwarnsystemen. So wird aus Business Intelligence „Performance Management und Analytik“.
Prozesse, die Services konsumieren und publizieren. Das Umdenken hier führt von
applikations-orientierten zu service-orientierten Architekturen (SOA – Abb. 4). Prozesse
werden jetzt von Regel- und Prozessmaschinen ausgeführt, die operative, analytische,
kollaborative und Informations-Services orchestrieren. Schließlich kann dann ein
Geschäftsprozess selbst wieder ein Service oder eine Gruppe von Services sein. Hier
lässt sich auch eine gewisse Wiederverwendbarkeit erreichen, in dem Funktionalität und
Daten nicht redundant implementiert werden. Redundanz ist ein typisches Problem des
applikations-orientierten Modells. Service-Orientierung hilft, dieses Problem zu
vermeiden.
Prozesse, die Unternehmen in intelligente Echtzeit-Unternehmen transformieren.
Intelligenz kommt aus Geschäftsmetriken, die dazu dienen, Prozesse und ihre Leistung
(Performance) zu steuern und zu kontrollieren. Geschäftsmetriken werden aus den
Unternehmens- und Prozess-Zielen abgeleitet. So lassen sich Prozesse auf Basis von
gemessener Zielerreichung proaktiv mittels Kennzahlen („Metriken“), „Key Performance-
Metriken (KPM)“8, Regeln und prädiktiven Modellen überwachen und steuern. Wir hatten
8 Mitunter werden Metriken auch als „Indikatoren“ bezeichnet, entsprechend dann auch KPMs als KPIs. Wir
bevorzugen die Begriffe Metrik und KPM, da so der klare Bezug zum „Messen“ ausgedrückt wird.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 28
dazu bereits in Kap.2.2. ein Beispiel zum Messen von strategischer und operativer
„Liefertreue“ betrachtet.
Metriken haben also, wie schon gesagt, nicht nur diagnostische Aufgaben, sondern
insbesondere auch vorausschauenden Charakter im Sinne eines Forecasting. Insbesondere
mittels Echtzeit-Metriken erhalten Prozesse so die Fähigkeit, proaktiv und korrektiv zu
agieren. Mit anderen Worten:
Wir haben Business Intelligence neu erfunden. Wir haben Business Intelligence in den
Kontext der Geschäftsprozesse gestellt. Daraus ergeben sich drei Bereiche, in denen
Business Intelligence eingesetzt wird (vgl. Abb. 3):
1. Performance Management
Definition: Performance Management ist ein Geschäftsmodell, das einem Unternehmen
ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander
abzustimmen und konsistent zu halten. Performance Management bedeutet, Prozesse
zu planen, zu überwachen und zu steuern sowie Prozessinhalte als Basis für
Auswertungen und Prognosen zu benutzen.
2. Analytik. Analytik bezeichnet sowohl den Prozess zur Gewinnung von Information und
der Ableitung eines Modells zur Nutzung von Information (beispielsweise prädiktive
Modelle aus einem Data Mining Prozess) als auch die Einbettung und Nutzung dieses
Modells in Geschäftsprozessen.
3. Governance, Risiko-Management und Compliance (GRC). Governance9 bezeichnet
die verantwortungsvolle, nachhaltige und auf langfristige Wertschöpfung ausgerichtete
Organisation und Steuerung von Aktivitäten und Ressourcen im Unternehmen. Risiko-
Management bezeichnet alle Aktivitäten der Risikoerkennung, Risikoverminderung und
Risikovermeidung. Compliance bedeutet die Erfüllung der von der Unternehmensleitung
gemachten Vorgaben („Policies“) sowie der rechtlichen und regulativen Vorgaben. Hier
spielt Business Intelligence im Wesentlichen die Rolle einer rechtzeitigen
Informationsbereitstellung zur Entscheidungsfindung. Das wird im Risiko-Management
besonders deutlich. Hier sind Frühwarnsysteme, also das rechtzeitige Erkennen von
Risiken zwecks Risikovermeidung oder Risikominderung, gute Beispiele für einen
erfolgreichen Einsatz von BI.
2.6 Service-Orientierung – das neue Paradigma
Jetzt bleibt noch die Infrastruktur für BPM und Performance Management zu definieren, so
dass wir Analytik in die Prozesse einbetten können. Das machen wir, wie schon in Abbildung
2 gezeigt, mit einer SOA (Abb. 4). Agilität und Industrialisierung sind aus der Sicht der
9 Prof. Dr. Matthias Goeken, Frankfurt School of Finance & Management, anlässlich der Auftaktveranstaltung der
Zukunftswerkstatt IT, Frankfurt/Main, 19. April 2007
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 29
Implementierung von Prozessen mittels IT eigentlich zwei sich widersprechende
Anforderungen, jedoch wenn Prozesse im Kontext einer service-orientierten Architektur
(SOA) gemanagt werden, dann bringt man beide Zielsetzungen zusammen. Denn eine SOA
ist eine spezielle Architektur, die darauf abzielt, „Software for Change“ zu ermöglichen. Das
ist die Zielsetzung von „Service-Orientierung“. Das Prinzip einer Service-Orientierung ist
recht einsichtig und vor allem nicht technisch oder technologisch. Es beschreibt eine
Kollaboration zwischen einem Verbraucher (Konsument, Servicenehmer) und einem
Anbieter (Produzent, Servicegeber). Der Verbraucher will eine bestimmte Funktionalität (ein
“Produkt” oder eine “Dienstleistung - Service”), den ein Anbieter bereitstellt. Eine solche
Kollaboration arbeitet nach den folgenden Prinzipien:
© 2012 S.A.R.L. Martin4
BPM und BI mit einer SOA
Eine SOA ist
• IT Architektur
• Unternehmensarchitektur
• Kollaborationsarchitektur
Service Bus
Information Mgt
Analytik &PerformanceManagement
Portal
Präsentations- &
Kollaborations-
Services im
“social media Stil”
Geschäftsprozess-
Management
B2B
Marktplatz, Lieferanten, Partner,
Händler, Kunden, soziale Medien
DI
ERP
SAP
CRM
SCM
PLM
etc
Backend-Services
Op
era
tive D
ate
n
DW
CAD/CAM
Office-
Applikation
Content
Management
Abbildung 4: Eine SOA (service-orientierte Architektur) beschreibt das Design einer Infrastruktur für Geschäftsprozess-Management. Kern der Infrastruktur ist ein Service Bus, der das Management und Lebenszyklusmanagement der Prozesse und Services unterstützt. Hierzu gehören auch die Backend-Services, die Informations-Services (DI = Datenintegration) und die Metadaten/Stammdaten-Services. Der Service Bus stellt auch die Schnittstelle zu externen Services für B2B dar. Informationsdomänen wie Content Management, Wissensmanagement, Office und CAD/CAM können über den Service Bus auch als Services orchestriert werden. Performance Management und Analytik agieren dabei wie ein „Gehirn“ des prozess-orientierten, intelligenten Unternehmens: Mittels „Intelligenz“ werden die Prozesse und ihre Performance geplant, überwacht und gesteuert. Analytik wird dazu per Services in die Prozesse eingebettet, um Probleme und Risiken rechtzeitig zu erkennen. Das Portal agiert als Mensch-Maschine-Schnittstelle und unterstützt die menschlichen Interaktionen durch Kollaborations- und Präsentations-Services, angereichert durch Web 2.0-Werkzeuge, die eine Benutzerinteraktion im „social media Stil“ unterstützen. (ERP = enterprise resource planning; CRM = customer relationship management; SCM = supply chain management; PLM = product life cycle management; DW = data warehouse; CAD/CAM = computer aided design/manufacturing; B2B = business to business)
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 30
Service-Orientierung (SO)
Prinzip 1 – Konsequente Ergebnisverantwortung. Der Service-Geber übernimmt die
Verantwortung für die Ausführung und das Ergebnis des Services. Der Service-Nehmer
übernimmt die Verantwortung für die Kontrolle der Service-Ausführung.
Prinzip 2 – Eindeutige Service Level. Jede Serviceausführung ist eindeutig vereinbart
hinsichtlich Zeit, Kosten, Qualität. Input und Output der Services sind klar definiert und
beiden Parteien bekannt per Service Level Agreement (SLA).
Prinzip 3 – Pro-aktives Event Sharing. Der Service-Nehmer ist über jede vereinbarte
Statusänderung seines Auftrages informiert. Der Service-Geber ist verpflichtet den
Service-Nehmer unmittelbar über unvorhergesehene Ereignisse zu informieren.
Prinzip 4 – Service-Verknüpfung. Ein Service kann zur Leistungserbringung einen oder
mehrere andere Services nutzen. Umgekehrt kann jeder Service von anderen Services
zur Leistungserbringung genutzt werden.
Eine solche Service-Orientierung ergibt ein flexibles Instrumentarium, denn ein Service kann
so als eine Lieferung entsprechend einer Bestellung gemäß den Bedingungen eines SLAs
verstanden werden. Im SLA wird festgelegt, in welcher Zeit, zu welchen Kosten und mit
welchen Ressourcen ein Service geliefert wird. Es wird auch festgelegt, was der Eingang
(Input) in den Service ist und wie der Ausgang (Output) aussieht. Services können auch als
externe Services von Dritten im Sinne von SaaS (Software as a Service) bezogen werden.
Services präsentieren die Geschäftslogik, die traditionell in den Applikationen steckt.
Prozesse haben die Aufgabe, Services – also die Geschäftslogik – gemäß der Prozesslogik
zu orchestrieren und zu choreographieren.
Das Service-Verknüpfung-Prinzip hat eine interessante Konsequenz, wenn man es mit dem
Unterprozess-Prinzip vergleicht: Ein Service verhält sich wie ein Prozess. Die Folge ist, ein
Prozess kann ein Service sein und ein Service ein Prozess. Im Sinne der IT können wir jetzt
definieren:
Definition: Ein Service ist eine Funktionalität, die typischerweise mittels einer Anfrage-
Antwort über eine standardisierte Schnittstelle ausgelöst und gemäß einem SLA konsumiert
wird. Ein Service ist somit eine spezielle Ausprägung einer „Softwarekomponente“.
Jetzt können wir auch eine SOA definieren. Im Ausdruck „SOA“ stecken ja die beiden
Bestandteile „SO = Service-Orientierung“ und „A = Architektur. SO und Service haben wir
bereits definiert, bleibt jetzt noch die Definition des Begriffes „Architektur“. Dieser Begriff hat
leider keine eindeutige Definition, aber unter Zuhilfenahme diverser Online-Lexika lässt sich
ableiten:
Definition: Eine Architektur in der Informatik spezifiziert das Zusammenspiel der
Komponenten eines komplexen Systems. Sie beschreibt die Übersetzung fachlicher
Anforderungen in Bauinstruktionen. Damit hat eine Architektur Charakteristiken und
Konsequenzen.
Jetzt können wir die Charakteristiken einer SOA zusammenstellen:
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 31
Eine SOA ist ein Design-Ansatz für eine spezielle Unternehmensarchitektur und für eine
spezielle informationstechnische Software-Architektur.
Im Sinne des Prinzips Servicenehmer und Servicegeber erfolgt eine Trennung der
traditionellen Applikationslogik in eine Prozess- und Geschäftslogik. Hier findet eine
Entkopplung statt.
Eine SOA ist in jedem Falle unabhängig von Technologie. Die Technologie zur
Implementierung kann also frei gewählt werden.
Informationstechnisch gesehen ist die Service-Orientierung eine Evolution von
Komponenten- Architekturen (Funktionsweise gemäß den „LEGO“-Prinzipien)
SOA Services sind fachlich getrieben: Die Granularität der Prozess- und
Regelmodellierung bestimmt die Granularität der fachlichen Services.
Eine weitere Besonderheit einer SOA ist die Standardisierung10. Der Zugriff auf Services
erfolgt nach Standards (Web Services) genauso wie die Orchestrierung und
Choreographierung der Services (business process execution language BPEL) oder
Infrastrukturdienste wie Authentifizierung und Identifizierung. Eine vor Jahren nicht
vorstellbare Zusammenarbeit der verschiedenen IT-Anbieter treibt die Standards recht
zügig voran. So haben beispielsweise Web Services inzwischen eine allgemeine
Akzeptanz im Markt gefunden.
Damit diese Service-Orientierung funktionieren kann, ist ein Business-Vokabular die
Voraussetzung, damit in allen SOA-basierten Prozessen die gleiche Sprachweise verwendet
werden kann. Dazu braucht man ein Repository, in dem alle Meta- und Stammdaten
einheitlich beschrieben sind. Was die Integrationsdrehscheibe für eine SOA ist, ist das
Repository für Meta- und Stammdaten. Die Architektur des Repositories ist also eine Hub-
and Spoke-Architektur, so dass alle Meta- und Stammdaten über alle Backendsysteme
synchronisiert und historisiert werden können. Das ist die Rolle von Stammdaten-
Management. Das wird in Kap. 6 weiter im Detail diskutiert.
Mehr zu SOA findet man beispielsweise bei Martin (2008) und zu SOA Trends und Einsatz in
Unternehmen im deutschsprachigen Raum bei Martin, Eckert und Repp (2010).
Achtung: ROI kommt in der Regel nicht von einer SOA, sondern von den implementierten, SOA-basierten Prozessen.
10
Eine Klassifizierung der Standards findet man auf http://www.computerwoche.de/soa-expertenrat/?p=209
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 32
3 Performance Management – Strategien, Prozesse, Menschen,
Metriken und Governance
3.1 Prozess- und service-orientierte Business Intelligence
Wie wir gesehen haben, gehört Business Intelligence in den Kontext von Prozessen und
damit natürlich auch in den Kontext von Strategien und Menschen. Geschäftsprozesse sind
heutzutage funktionsübergreifend, abteilungsübergreifend, ja, sogar
unternehmensübergreifend. Prozesse verbinden die Lieferanten der Lieferanten mit den
Kunden der Kunden innerhalb eines kollaborativen Unternehmensnetzwerkes (vgl. Abb. 3).
Definition: Ein Geschäftsprozess ist….
eine Menge von Aktivitäten & Aufgaben ausgeführt von Ressourcen
(Services geleistet von Menschen & Maschinen)
unter Nutzung unterschiedlicher Information
(strukturiert & unstrukturiert)
mittels unterschiedlicher Interaktionen
(vorhersehbar & unvorhersehbar)
gesteuert von Management-Politiken und Prinzipien
(Geschäftsregeln & Entscheidungskriterien)
mit dem Ziel, vereinbarte Endergebnisse zu liefern
(Strategien & Ziele)
Die Vorteile solcher integrierten und durchgängigen („end-to-end“) Prozesse liegen auf der
Hand:
Kostenreduktion durch schnellere und sichere Prozesse. Durch Automation kommt man
zu einer höheren Geschwindigkeit und Qualität von Prozessen, also zu höherem
Durchsatz bei geringerem Einsatz von Ressourcen.
Schnellere Vermarktung durch integrierte, durchgängige Prozesse. Integrierte Prozesse
verbessern die abteilungs- und unternehmensübergreifende Kollaboration und
beschleunigen Produkt- und Serviceentwicklung.
Risikominimierung durch Steuern und Kontrollieren der Effizienz der Prozesse mittels
Metriken zum Messen der Performanz von Prozessen gemäß dem Leitsatz: Man kann
nur managen, was man auch messen kann.
Maximierung der Flexibilität und Agilität des Unternehmens durch kontinuierliches und
schnelles Anpassen der Prozessmodelle an die Marktdynamik und
Kundenanforderungen. So kann man beispielsweise auf Störfälle und unerwartete
Ausnahmen schneller und flexibler reagieren.
Transparenz und Nachvollziehbarkeit durch die Prozesssicht. Damit werden die Auflagen
der Behörden zur Compliance und die Anforderungen der Prüfer erfüllt. So wird
Revisionssicherheit machbar.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 33
Genau aus diesen Gründen ist „Business Process Management (BPM)“ eine der wichtigsten
Anforderungen, die sich zeitgemäßen Unternehmen stellt. BPM und Performance
Management sind die prozessorientierte neueste Version der Unternehmensführung und
Steuerung: Planung, Ausführung und Performanz Management sind seit jeher die drei
Basiselemente jeden Managements gewesen („mach einen Plan, führe ihn aus und sieh zu,
dass dein Ergebnis in Einklang mit dem Plan bleibt“).
© 2012 S.A.R.L. Martin5
Performance Management – ein Regelkreis
Ergeb-
nisGeschäftsprozess
Agiere Entscheide
Zyklustakt
Ereignisse
Strategie
Ziel
Messe
Abbildung 5: Metrisch-orientiertes Management ist ein Top-down-Modell für informationsbasiertes Management. Messbare Ziele werden aus der Geschäftsstrategie abgeleitet. Auf Basis der Strategie und der Ziele werden parallel Prozesse und Metriken zur effizienten Geschäftssteuerung und kontinuierlichen Optimierung abgeleitet. Informationstechnisch werden dann die Prozesse und die Metriken durch operative, kollaborative und analytische Services im Rahmen einer SOA (service oriented architecture) unterstützt. Auf Basis des Auskommens der Metriken werden Entscheidungen getroffen entweder „manuell“ durch einen Menschen oder automatisiert durch Entscheidungsmaschinen. Entscheidungen führen zu Maßnahmen zur Steuerung von Prozessen und ihren Aktivitäten (taktisches und operatives Performance Management) als auch zur Anpassung und Änderung der Strategie und der Ziele (strategisches Performance Management): Der Regelkreis schließt sich. Wichtig ist die Synchronisierung zwischen dem Messen und der Prozessausführung: Die Geschwindigkeit des Mess- und Steuerprozesses muss der Geschwindigkeit des Geschäftsprozesses entsprechen – Grundvoraussetzung für ein Echtzeit-Unternehmen.
Performance Management im BPM-Modell umfasst alle Prozesse, die sich über alle
Funktionen und Abteilungen innerhalb eines Unternehmens erstrecken und sogar darüber
hinaus Unternehmen mit Unternehmen und / oder Verbrauchern verbinden. Metrisch-
orientiertes Management ist das Top-down-Prinzip von Performance Management zur
Optimierung des Managens eines Unternehmens per Regelkreisansatz (Abb. 5). Die
Business-Strategie bestimmt, welche Geschäftsprozesse vom Unternehmen ausgeführt und
gesteuert werden müssen. Geschäftsmetriken werden an jeden Geschäftsprozess
gekoppelt. Die Geschäftsmetriken werden abgeleitet aus den Zielen, so dass der Prozess
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 34
durch Information, Leistungs-(Performanz-)Metriken, Regeln und prädiktive Modelle mess-
und steuerbar wird.
Das Einbetten von Analytik in die Geschäftsprozesse erfordert einen neuen Ansatz zur
Prozess-Modellierung. Das alleinige Modellieren von Prozess-Logik und -Fluss ist nicht mehr
ausreichend. Wir müssen jetzt zusätzlich die Metriken und die Verantwortlichkeiten und
Rollen modellieren. Das bedeutet, Strategie und Ziele mit den Prozessen, Metriken und
Menschen zu verknüpfen, um das Kreislaufmodell zu schaffen. Entscheidend dazu ist eine
Governance.
Beispiel: Überwachen und Steuern des Vertriebsprozesses. Heutige
Vertriebsmethodologien beschreiben und strukturieren die vertrieblichen Tätigkeiten
entlang des Vertriebszyklus, der üblicherweise mit dem Identifizieren eines
Interessenten beginnt und mit dem Zahlungseingang gemäß Rechnung basierend auf
dem abgeschlossen Vertrag endet. Die Methodologie beschreibt die verschiedenen
Stufen der Qualifizierung eines Interessenten bis hin zum Vertragsabschluss, sowie
der Aktivitäten der Lieferung, Rechnungsstellung und Zahlung des Kunden. Die
Anzahl der Stufen hängt von der gewählten Methodologie ab (und spielt in diesem
Beispiel keine Rolle). Performance Management kommt hier mit den Metriken der
Anzahl der qualifizierten Interessenten/Kunden pro Stufe, des geschätzten/realen
Wertes eines Vertrages, der Übergangswahrscheinlichkeit von einer Stufe in die
nächstfolgende und der Übergangszeit von einer Stufe in die folgende. Will man also
als Ziel des Vertriebsprozesses einen Zahlungseingang von x € in einem bestimmten
Monat erreichen, so lässt sich anhand der Metriken schätzen, wie viele Interessenten
in jeder Qualifizierungsstufe man wann braucht, um das Ziel zu erfüllen. Stellt man
fest, dass eine Zielerfüllung nicht möglich ist, so lassen sich die kritischen Parameter
ablesen, die man durch Maßnahmen beeinflussen muss, um eine Zielerfüllung zu
erreichen. So lässt sich der Vertriebsprozess mittels Performance Management pro-
aktiv steuern und kontrollieren.
Metrisch-orientiertes Management basiert auf Information Management (siehe Kap. 6).
Information muss rechtzeitig verfügbar sein (vgl. Kap.2.2), um manuelle oder automatisierte
Entscheidungen für die Kontrolle des Prozesses auszulösen. Das entspricht einem
„information supply chain“-Paradigma: die richtige Information zur richtigen Zeit am
richtigen Ort zum richtigen Informationsverbraucher, der so die richtige Entscheidung treffen
kann. Also bedeutet „rechtzeitig“ die Synchronisierung von Informationsbereitstellung mit
Informationsbedarf.
Eine Menge von Geschäftsmetriken repräsentiert eine Managementpolitik innerhalb des
metrisch-orientierten Managements. Die Idee, die dahintersteckt, ist überzeugend:
Man kann nur managen, was man auch messen kann.
Deshalb ist die Flexibilität zum Ändern und Anpassen aller Metriken eine der wichtigsten
Anforderungen an dieses Modell. Darüber hinaus müssen Geschäftsmetriken konsistent
sein. Metriken verschiedener Prozesse dürfen sich nicht widersprechen. In der Tat sind
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 35
Metriken funktions- und prozessübergreifend: die Performanz eines Geschäftsprozesses
kann die Performanz eines anderen Prozesses beeinflussen oder ihm sogar
entgegenwirken.
Zum Beispiel wird die Liefertreue (vgl. Beispiel in Kap.2.2), eine Metrik, die mit der
Supply Chain verbunden ist, die Kundenzufriedenheit beeinflussen, die wiederum
eine Metrik des Kundenbeziehungsmanagements ist.
Diese Fragestellungen werden von so genannten „Business Scorecards“ adressiert. Eine
Business Scorecard verbindet sämtliche Managementpolitiken der Fachbereiche im
gesamten Unternehmen zu einer einheitlichen und konsistenten Unternehmens-
Managementpolitik. Beispiele spezieller Business Scorecards sind Norton / Kaplans Balanced
Scorecard oder das „Six Sigma Modell“. Die Balanced Scorecard ist beispielsweise eine
Menge von Metriken, die nicht nur wie klassisches Controlling auf finanziellen Parametern
basiert, sondern sie berücksichtigt ebenso Kunden-, Mitarbeiter- und Shareholderaspekte
und ermöglicht so Einblick in die Geschäftsperformanz jenseits der rein finanzorientierten
Quartalsergebnisse. Insofern handelt es sich hier um einen speziellen Typ von metrisch-
orientiertem Management. Trotz der großen Vielfalt solcher Modelle, bleibt das große Ziel
immer das gleiche: Wandle Daten in Information und Wissen um und maximiere deren Wert
für das Geschäft durch „closing the loop“, i.e. die Einbringung von Information und Wissen
zur Prozess-Planung, Überwachung und Steuerung.
Performance Management wird angewendet auf alle Geschäftsfelder wie
Kundenbeziehungsmanagement, Supply Chain Management, Personalwesen etc.
Beispiel: Financial Performance Management ist wie jede andere analytische
Lösung ein Prozess mit Rückkopplung („closed loop“), der das Performance und
Information Management finanzieller Prozesse und Information beschreibt. Dieser
Prozess erstreckt sich von Planung, Budgetierung, Forecasting und strategischer
Planung bis zur Prüfung der Richtigkeit gemäß den gesetzlichen Anforderungen
mittels finanzorientierter Metriken. Dazu gehören auch das gesetzliche Berichtswesen
sowie die Bilanzkonsolidierung. Das beschreibt dann auch die gesetzlich geforderte
Regeltreue im Rahmen der Compliance. Financial Performance Management umfasst
auch Profitabilitätsanalyse sowie Werkzeuge wie Simulationen und
Alternativanalysen („what-if-Analysen“). Entscheidungen werden getroffen mittels
finanzorientierter Metriken und Analysen und werden zurückgekoppelt in die
Planungs-, Budgetierungs- und Forecast Aktivitäten: Der Regelkreis wird
geschlossen.
Wie in Abbildung 5 schon angedeutet, findet Performance Management auf drei Ebenen
statt, auf der operativen, der taktischen und der strategischen Ebene (Abb. 6). Business
Intelligence war bisher auf Entscheidungsunterstützung im Rahmen strategischer Planung
und taktischer Analyse ausgerichtet. Dazu dienen langfristig angelegte Metriken, die die
Erfüllung strategischer Ziele messen und überwachen wie zum Beispiel
Kundenzufriedenheit, Kundenwert, Liefertreue, Lieferantenbewertung, Personalfluktuation
etc. Der Begriff der „Langfristigkeit“ bezieht sich dabei auf die Geschwindigkeit, mit der die
zugehörigen Kennzahlen durch Maßnahmen beeinflussbar sind. Dazu wird in der Regel eine
Ebene taktischer Ziele eingezogen, deren Erreichung Schritte auf dem Weg der
strategischen Zielerfüllung darstellen. Maßnahmen, deren Wirkungen der Erreichung
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 36
taktischer Ziele dienen, erstrecken sich üblicherweise in einem Zeitraum zwischen einigen
Tagen und bis zu einigen Monaten. Im Zuge der Prozess-Orientierung wird nun Business
Intelligence auch operationalisiert, d. h. operative Prozesse werden mittels Intelligenz auch
kurzfristig überwacht und gesteuert. Operatives Performance Management wird auch
„Process Performance Management“ (PPM) genannt, und es umfasst „Business Activity
Monitoring (BAM)“. BAM-Konzepte diskutieren wir in Kap. 7.1.
Operative Intelligence (BAM + CEP)
kurzfristig –
mindestens am gleichen Tag
Strategische
Planung
Taktische
Analyse
Operative
Maßnahmen
traditionelle
Business
Intelligence
Taktisch
mittelfristig –
Tage, Wochen, Monate
Strategisch
langfristig
6 © 2012 S.A.R.L. Martin
PM & Analytik – Zeitraster und Schichten
Abbildung 6: Performance Management (PM) ist der Prozess, mit Hilfe von Metriken Geschäftsprozesse zu überwachen, Entscheidungen auf Grund dieser Messungen zu treffen und Maßnahmen zur Prozess- und / oder Performanz-Steuerung einzuleiten, ein Closed-loop-Ansatz zur Steuerung im Unternehmen. Performance Management reicht von operativem zu strategischem Performance Management. Ein ganz wesentlicher Bestandteil aller Performance Management-Ansätze ist, die Metriken auch in einem monetären Zusammenhang zu stellen. Dazu bedarf es eines prozessorientierten Rechnungswesens, was aber in aller Konsequenz heute nur in wenigen Unternehmen umgesetzt ist
Die Ideen zu Performance Management stammen aus der Kontrolltheorie: Genauso wie man
eine Raumtemperatur über einen geschlossenen Regelkreis überwachen und steuern kann,
so will man jetzt Geschäftsprozesse auch operativ überwachen und steuern. Die
Überwachung und Steuerung von operativen Systemen wird durch die (Realtime-)
Echtzeitprinzipien der Information Supply Chain ermöglicht. Das Konzept der Information
Supply Chain bedeutet wie bereits gesagt, die richtige Information zur richtigen Zeit am
richtigen Ort für den richtigen Zweck zur Verfügung zu haben. Im Performance Management-
Modell wird also Information als Bringschuld behandelt, i. e. eine eingehende oder
entstehende Information wird über die Publish- and Subscribe-Kommunikationsmethode
zeitnah an alle registrierten Informationsverbraucher propagiert. Im traditionellen Data
Warehouse Modell war dagegen Information eine Holschuld. Der Informationsverbraucher
war dafür verantwortlich, sich seine Information selbst abzuholen.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 37
Ein Beispiel gibt hier der Abgleich des Produktangebotes in einem Web-Shop mit
der Produktverfügbarkeit. Die Produktverfügbarkeit ist eine operative Metrik, die den
Bestand von Produkten an Hand der Verkaufs- und Lieferungs-Transaktionen misst.
Die Produktverfügbarkeit ist also mit den Transaktionen synchronisiert. Sinkt nun die
Produktverfügbarkeit unter einen vordefinierten Schwellenwert, so kann ein Alarm
ausgelöst werden. Ein solcher Alarm könnte eine Nachlieferung automatisch
auslösen. Ist eine Nachlieferung nicht möglich, dann könnte man das Produkt aus
dem Katalog des Web-Shops herausnehmen oder sperren, so dass Kunden das
Produkt nicht mehr bestellen können. Damit ist proaktiv sichergestellt, dass
Kundenaufträge nicht storniert werden müssen, Lieferkosten und Kundenfrust werden
vermieden. Zusätzlich könnte man auch noch automatisch einen Vermerk in den
Web-Shop stellen, wann das Produkt wieder lieferbar wäre.
Man sieht an diesem Beispiel, wie auf der operativen Ebene Prozesse proaktiv mit
Information überwacht und gesteuert werden können – alles „voll“ automatisch, also ohne
händische Eingriffe von Produktmanagern. Übrigens, was bedeutet „Echtzeit“ in diesem
Beispiel? Produktverfügbarkeit wird in der Praxis typischerweise zweimal am Tag gemessen.
Das ist ein Erfahrungswert, bei dem die Kosten des Messens in Einklang stehen mit den
Kosten des Risikos, das aufgrund des Ignorierens der Produktverfügbarkeit entsteht.
Zuerst tauchte operatives Performance Management bei Anbietern auf, die aus der
Prozessmodellierung und der Business Integration kamen, indem sie beschreibende und
graphische Elemente zufügten, um operative Leistungs-Metriken sichtbar zu machen. Mittels
Prozesskostenrechnung kann man solche Metriken dann auch in einen monetären Kontext
setzen. Technisch betrachtet bedeutet das, Zugang zu finanziellen Daten innerhalb eines
Data Warehouse zu haben.
Taktisches und strategisches Performance Management wurde zuerst von Anbietern
traditioneller Business Intelligence Werkzeugen entwickelt, indem sie sich vom Data
Warehouse-Modell und von Business Intelligence-Werkzeugen hin zu analytischen
Applikationen und einem geschlossenen Regelkreis-Modell bewegten. Die beiden
unterschiedlichen Ansätze, ein und dasselbe Problem zu lösen, bringt zwar eine gewisse
Verwirrung in den Markt, aber schon seit 2005 findet eine Konvergenz zwischen operativem
Performance Management einerseits und taktischem, strategischem Performance
Management andererseits statt.
3.2 Die Governance: Rollen, Verantwortlichkeiten und Rechte
Ein entscheidender Erfolgsfaktor für Performance Management und Analytik ist die
Governance. Governance im Allgemeinen bedeutet einen Ordnungsrahmen sowie eine
Steuerung und Überwachung einer Geschäftseinheit gemäß vereinbarten Prinzipien. Diese
Prinzipien können von außen beispielsweise durch den Gesetzgeber vorgegeben sein oder
auch interne Regeln und Management-Politiken darstellen. Governance lässt sich daher auf
unterschiedlichste Domänen anwenden. Bei Governance angewendet auf ein Unternehmen
als Ganzes spricht man von Corporate Governance und angewendet auf die IT im
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 38
Unternehmen von IT Governance. Definieren wir daher zunächst Governance ganz
allgemein:
Definition: Governance bedeutet, ein regelkonformes Management und Verhalten
festzulegen und sicher zu stellen. In allen Aktionen unserer Unternehmensressourcen –
Menschen, Maschinen und Systemen – muss sichergestellt sein, dass die Management-
Policies und Leitlinien beachtet und umgesetzt werden.
Governance setzen wir in Performance Management und Analytik zur Beantwortung der
Frage ein: Wer soll wann wo welche Information zu welchem Zweck bekommen? Es geht
also um die Governance der Informationsbereitstellung, die wir jetzt der Einfachheit halber
als „BI-Governance“ bezeichnen. Wir definieren:
Definition: BI-Governance bezeichnet die Menge aller Prozesse und Strukturen zum
Managen und Schützen aller Unternehmens-Information, so dass die richtige Information
und die richtigen Werkzeuge unternehmensweit rechtzeitig zu Analysen und
Steuerungsaufgaben zur Verfügung stehen.
Dazu dient ein Prozessträgermodell, das Rollen, Verantwortungen, Rechte und
organisatorische Einheiten den Prozessen zuordnet. Das traditionelle Prozessmodell, das
sich in der Regel auf die Modellierung der Prozesslogik („die Abläufe“) beschränkte, wird
also nicht nur im Rahmen von Performance Management um die Modellierung der Metriken
erweitert, sondern auch im Sinne der Governance um das Prozessträgermodell.
In einem Prozessträgermodell wird bestimmt, wer die Beteiligten (Mitarbeiter, Partner,
Zulieferer, Kunden etc.) am Prozess sind und für welche Prozesse und Aktivitäten innerhalb
der Prozesse sie verantwortlich sind. So werden die Rollen aller an den Prozessen
Beteiligten sowie die zugehörigen organisatorischen Einheiten in das Prozessmodell mit
aufgenommen. Im metrisch-orientierten Management umfassen diese Prozessträgermodelle
auch Informationsprofile, die die Zuordnung der notwendigen Metriken zur Prozess- und
seiner Performanz-Steuerung beschreiben. Das bedeutet im Endeffekt ein Filtern von
Information. Die am Prozess Beteiligten teilen Daten, Information und Wissen innerhalb ihrer
prozessorientierten Kommunikation und Kollaboration. Daten und Information, die nicht in
diesen Kontext gehören, werden herausgefiltert. Damit entsteht auch das Security-Modell mit
seiner Rechtevergabe quasi als Beiprodukt dieser Top-down-Vorgehensweise. Das Teilen
und Filtern von Information wird durch die Informationsprofile erreicht, die basierend auf dem
Prozessträgermodell den Kontext von Kollaboration beschreiben. Das Informationsprofil stellt
so die Beziehung zwischen Rollen und den zugehörigen Metriken dar und definiert die
Struktur der entsprechenden Business Scorecard. (Abb. 7)
Die Business Scorecard dient der Visualisierung von Information gemäß einem
Informationsprofil. Sie wird in der Regel als Portlet in einem Portal eingebettet (Abb. 8) oder
im mobilen Internet als eine entsprechende App. Ein Portlet genauso wie eine solche App ist
ein Behälter für eine gewisse Menge von Information und/oder kollaborativen Werkzeugen.
Portale sind aus den Ideen früher Intranet- und Extranet-Lösungen entstanden als zentraler
Kontrollpunkt im Sinne einer Mensch-Maschine-Schnittstelle („P2S“, person to system). So
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 39
wird ein Portal als ein System verstanden, das Teilen und Filtern von Daten / Information,
Funktionen / Funktionalität, Inhalten / Wissen und Prozessen erlaubt. Dieses Teilen und
Filtern steht natürlich wieder über das Informationsprofil in Zusammenhang mit der
funktionalen Rolle eines kollaborativen Teams innerhalb eines Geschäftsträgermodells. Ein
kollaboratives Team ist eine Gruppe von Menschen, die je nach Aufgabenstellung an das
Team aus den verschiedenen kollaborativen Geschäftsparteien zusammengesetzt wird. Auf
diese Weise unterstützen Portale funktions-, abteilungs- und unternehmensübergreifende
virtuelle Teams. In Sonderfällen kann auch ein einzelner Portalbenutzer als Team gelten. In
diesem Sinne unterstützen Portale die Governance in Performance Management und
Analytik.
PM und Analytik: die Governance
Org
an
isa
tion Compliance
Messwerte,
Kennzahlen
Menschen
MetrikenProzesseK
ult
ur
Unternehmensstrategie / Ziele
7
Governance
externeinterne
Policies Policies
PoliciesPolicies
© 2012 S.A.R.L. Martin
Abbildung 7: Um Unternehmensstrategien operativ unter der Maßgabe der Zielerreichung umzusetzen, müssen Menschen, Prozesse und Metriken miteinander verknüpft werden, um sicherzustellen, dass jeder im Unternehmen so handelt, wie er/sie handeln sollte. Genau das bedeutet „Compliance“, ein pro-aktives, regelkonformes Management und Verhalten. Die Regeln werden durch Policies entweder extern vorgegeben (beispielsweise durch den Gesetzgeber) oder ergeben sich intern aus der Organisation und Kultur des Unternehmens. Das fließt in der Governance zusammen. Die Governance regelt die Relationen zwischen Menschen, Prozessen und Metriken. Die Relationen zwischen Menschen und Prozessen beschreiben die Verantwortlichkeiten und Verantwortungen, die Rollen und Rechte. Die Relationen zwischen Prozessen und Metriken werden durch Messwerte und Kennzahlen beschrieben, die im Sinne des Performance Managements (PM) die Leistung der Prozesse überwachen sollen. Schließlich werden die Relationen zwischen Menschen und Metriken durch Informationsprofile beschrieben, die genau die Menge und Strukturen der Metriken beschreibt, die ein Mensch im Sinne seiner Prozessverantwortung im Rahmen der Governance zur proaktiven Prozesssteuerung braucht. Ein Informationsprofil beschreibt so die Struktur einer Scorecard, mit dessen Hilfe die zugeordneten Metriken visualisiert werden.
Ein Prozess-Portal (vgl. Abb.4) kann verstanden werden als Abstraktionsschicht, die Inhalte
und Dienste bündelt und aggregiert und den Zugang erleichtert. In diesem Sinne bestimmt
der Teamkontext mittels der Rollen und Informationsprofile die Kollaborationsbandweite,
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 40
beispielsweise welche Daten / Information, Funktionen / Funktionalität, Inhalte / Wissen und
Prozesse an das kollaborative Team geliefert werden. Das umfasst auch die Business
Scorecard und die entsprechenden kollaborativen Werkzeugen. Jeder Portalbenutzer erhält
seine individuelle Umgebung, die sich weiter personalisieren lässt.
8
Abbildung 8: Beispiel eines BI-Portlets zum Einstieg in „seine“ Business Scorecard (fiktives Unternehmen, Screenshot erstellt mit Cubeware: Verschiedene Komponenten wie Chart, Tabelle mit Trendampeln, Top-1-Tabellen mit Bildampeln, Titeln, Logos und Hintergrund können frei platziert werden. Die Navigation erfolgt über Aktionsschaltflächen.) Zur Visualisierung wird heute vielfach wie in diesem Beispiel zum Stil einer Online-Zeitung gegriffen. Für einen solchen Ansatz hat die Quelle GmbH beispielsweise den BI Award 2008 gewonnen, der auf dem offiziellen Forum BI der Deutschen Messe AG auf der CeBIT 2008 vom BARC vergeben wurde (vgl. Kap. 4.4).
Ein solches „Personenportal“ kann man auch als Integrationstechnologie verstehen: Die
ultimative Integration wird erreicht durch menschliches Eingreifen, beispielsweise kann ein
Benutzer innerhalb seines Teamkontexts einen Transfer zwischen Inhalten und Diensten
durchführen. Kollaborative Werkzeuge in Prozess-Portalen sind sowohl synchrone als auch
asynchrone Werkzeuge, wie E-Mail, Blogs, Co-Browsing, Chat, Foren, Instant-Messaging,
Web-Konferenzen, Wikis usw. Hier lassen sich also insbesondere die Technologien aus den
sozialen Medien (social media) einbringen. Denn Social-Media-Technologien sind service-
orientiert, passen also bestens in die SOA-Infrastruktur von Portalen11 und unterstützen die
11 Die Rolle der Portale und ihre Bedeutung im BPM und SOA sind dargestellt in Martin und Nußdorfer (2006).
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 41
Kollaboration von Menschen und Teams. Im mobilen Internet wird das wieder über
entsprechende Apps geleistet, wobei in der Regel eine App einem Mashing-up
verschiedener Portal-Services entspricht. Da heutzutage fast jeder in irgendeiner Form im
Privatleben soziale Medien und mobile Geräte nutzt, erwartet man auch, dass
Softwarelösungen im Unternehmen in gleicher, mindestens ähnlicher Weise funktionieren.
Das ist im Endeffekt ein wichtiger Erfolgsfaktor, um Begeisterung durch Technologie zu
schaffen und so im Endeffekt auch Akzeptanz der Governance.
Fazit: Ziel einer BI-Governance ist das Umsetzen der BI-Strategie in der Praxis – BI also im
Sinne von Performance Management und Analytik zu leben – und im Tagesgeschäft
erfolgreich ein- und umzusetzen.
3.3 Das Arbeiten mit Performance Management und Analytik
Jetzt ist die Frage der Nutzung von Information zu diskutieren. Welche Fähigkeiten und
Unterstützung braucht man, um erfolgreich, effektiv und effizient aus Information mittels
Performance Management und Analytik Wissen abzuleiten und Entscheidungen zu treffen?
Hier setzt sich langsam die Erkenntnis durch, dass man einen kombinierten Ansatz aus
organisatorischen Maßnahmen und technischen Möglichkeiten einsetzen muss, um mit
Performance Management und Analytik erfolgreich zu sein. Man setzt von diesen beiden
Seiten aus an. Früher und zum Teil immer noch heute stand und steht in vielen
Unternehmen die Technologie ganz vorne. BI-Lösungen wurden in der Regel von der IT
ausgesucht. Nur die technologischen Aspekte und Konzepte zählten. Der Mensch als Nutzer
von BI-Technologie wurde typischerweise vernachlässigt. Die Bedienbarkeit von
Werkzeugen war ja – so glaubte man – in Schulungen erlernbar. Das war aber ein Irrtum und
stets auch ein Grund, der viele BI-Projekte zum Scheitern brachte, denn traditionelle
Business Intelligence-Werkzeuge fanden trotz intensiver Schulungen bei weitem nicht immer
die notwendige Akzeptanz. Besondere Business-Analysten oder Poweruser bildeten sich
heraus, die BI-Aufgaben in den Abteilungen übernahmen. Information wurde zum Luxusgut,
das nicht allen Mitarbeitern zur Verfügung stand.
Um aus dieser Sackgasse herauszukommen, stellten konsequenterweise viele BI-Berater
und Unternehmen jetzt den organisatorischen Ansatz ganz nach vorne und die Technologie
hintenan. Das aber ist auch nicht der Weisheit letzter Schluss: Richtig ist, dass es ohne
organisatorische Maßnahmen nicht geht, aber umgekehrt greifen organisatorische
Maßnahmen nur dann, wenn die Mitarbeiter mitziehen. Dazu ist Akzeptanz notwendig, aber
eine Begeisterung der Mitarbeiter noch besser. Zur Begeisterung der Mitarbeiter kann und
sollte Technologie beitragen. Daher ist auch die Technologie ein kritischer Erfolgsfaktor von
Business Intelligence, besonders auch um den wahren Wert und Nutzen von Information zu
erfahren. Organisatorische und technische Aspekte von Performance Management und
Analytik müssen daher ausgewogen werden, auf beide kommt es an.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 42
Zur Begeisterung der Mitarbeiter gehört eine technologisch perfekte Unterstützung der
organisatorischen Maßnahmen. Im Zeitalter von sozialen Netzen, Smartphones und Tablet-
Rechnern muss die Bedienbarkeit aller Werkzeuge der Business Intelligence einfach
stimmen. Da die Informationsbedürfnisse im Rahmen der BI-Governance über die jeweilige
Rolle der Mitarbeiter bestimmt wird, müssen hier Organisation und Technologie Hand in
Hand gehen. Die Werkzeuge müssen also nicht nur die notwendige Ergonomie bieten,
sondern auch den Rollen entsprechend eingerichtet werden können (Abb. 9). So wird eine
BI-Governance nicht als einengendes Regelwerk empfunden, sondern von allen Mitarbeitern
auch gelebt. Mit einem einfachen, intuitiven und visuellen Bedienen der Werkzeuge
entsprechend seiner Rolle schwinden Berührungsängste, werden Barrieren abgebaut und
die notwendige Begeisterung aufgebaut. Das schafft Motivation: So erreicht man das Ziel
von Governance, ein regelkonformes Management und Verhalten aller Mitarbeiter in
Business Intelligence.
Rollen in PM und Analytik
IT/DBA
Entwicklung,
Integration
Controller,
PlanerBusiness-
Analysten
Manager, Konsumenten,
Geschäftsleitung
Informatiker,
Statistiker
SDK
rollenbezogene
Klienten
analytischer
Applikations-Server
Big Data Operative
Daten
Data
WarehouseFiles, XML,
SpreadsheetsEvents &
Services
Governance
Fach-
experten
© 2012 S.A.R.L. Martin9
Abbildung 9: Voraussetzung für den Erfolg mit Performance Management und Analytik ist eine Kombination von organisatorischen Maßnahmen und state-of-the-art Technologie und Architektur. Bei der Technologie sind entscheidend eine intuitive Bedienbarkeit der Werkzeuge, Automatisierung der Informationsbereitstellung und Analyse, rollenbezogene Werkzeuge im Sinne einer Governance und schließlich eine ausgereifte Datenintegration und Konnektivität. Die Architektur sollte service-orientiert sein, damit die Konnektivität eine leichte und flexible Integrierbarkeit bietet und so Agilität schafft. (DBA = Datenbank-Administrator; SDK = Software Development Kit; diese dienen der Erweiterbar- und Anpassbarkeit der Business Intelligence Plattform.)
Eine Akzeptanz von BI-Werkzeugen beruht nicht nur auf der leichten, intuitiven
Bedienbarkeit der Werkzeuge, sondern auch auf den Möglichkeiten der Automation von
Arbeitsschritten und analytischen Prozessen. Die Schwachstellen in der heutigen Praxis mit
Business Intelligence wie manuelle Informationsbereitstellung und manuelle Analyse müssen
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 43
durch zuverlässige und sichere Automation abgelöst werden. Hier kommt es jetzt auf die
Qualität der Werkzeuge im Sinne ihrer Architektur und Prozessorientierung an.
Eine geeignete Technologie schafft neben guter Bedienbarkeit und Automation von
Arbeitsschritten auch eine Autonomie von der IT: Man kann im Rahmen der Business
Intelligence-Governance aufgrund der Ergonomie der Werkzeuge viele Aufgaben in der
Fachabteilung selbständig zu lösen. Hier spricht man heute von Selbstbedienungs-BI (self-
service BI, vgl. Kap. 5.2). Damit wird Business Intelligence zu einer Selbstverständlichkeit im
Tagesgeschäft. So steigt die Effizienz der Mitarbeiter. Sie können sich wieder voll auf ihre
fachlichen Tätigkeiten konzentrieren, da die Technologie sie geeignet unterstützt und nicht
mehr Selbstzweck ist. Umgekehrt wird durch die höhere Autonomie der Fachabteilung in
Sachen Business Intelligence auch die IT von Routineaufgaben entlastet. Die Governance
gibt hier eine bessere und klar definierte Arbeitsteilung zwischen IT und Fachabteilung vor,
die sich aufgrund der nutzerfreundlichen Eigenschaften der Werkzeuge auch so umsetzen
lassen. So entspannt sich in vielen Fällen das Verhältnis zwischen IT und Fachabteilungen.
3.4 Das Business Intelligence-Kompetenzzentrum
Eine BI-Governance besteht wie jede Governance aus vier Elementen: einer
Organisationsstruktur, den BI-Governance-Prozessen, den entsprechenden Management-
Policies und einer Technologieplattform. BI-Governance-Prozesse und Policies dienen der
Steuerung und Überwachung des Business Intelligence-Programms im Unternehmen. Diese
Prozesse und Policies sind Prozesse zur Strategie, zum Design, zur Implementierung und
zum Betrieb von Business Intelligence im Unternehmen. Dazu kommt noch ein
kontinuierlicher Verbesserungsprozess, der sicherstellen soll, dass Erfahrungen und
Lerneffekte kontinuierlich zur Verbesserung des BI-Programms beitragen. Dieses Modell der
BI Governance-Prozesse entspricht dem ITIL V3-Modell und nutzt so die Best Practices, die
man im Service-Management gelernt hat.
Ein BI-Kompetenzzentrum ist eine in vielen Unternehmen genutzte Organisationsstruktur
von BI-Governance. Es ist eine funktionsübergreifende Einheit im Unternehmen, die als
interdisziplinäres Team verantwortlich ist, den Einsatz von BI im Unternehmen zu fördern. Es
besteht aus einem Leitungsgremium, dem ein BI-Sponsor vorsitzt, dem eigentlichen
Kompetenzzentrum und den Business-Analysten und Data Stewards. Der Sponsor sollte aus
der Geschäftsführung oder dem Vorstand kommen, damit die BI-Strategie und die Policies
der BI-Governance im gesamten Unternehmen auch durchgesetzt werden können. Die
Business-Analysten und Data Stewards sitzen in den Fachbereichen und sind dort über die
Information Governance eingebunden. Hier trifft sich die BI-Governance mit der Information
Governance. Auf die Aufgaben einer Information Governance und ihre Beziehung zur BI-
Governance gehen wir im Kapitel 6.7 im Einzelnen ein.
Das BI-Kompetenzzentrum zentralisiert das Management der BI-Strategie und der BI-
Methoden, -Standards, -Regeln und -Technologien (Abb. 10). Sein Leitsatz ist: Das BI-
Kompetenzzentrum plant, unterstützt und koordiniert BI-Projekte und sorgt für den
effizienten Einsatz aller Ressourcen und der Technologie. Seine Aufgaben sind:
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 44
Steuerung der Anwendungslandschaft für Performance Management und Analytik,
Standardisierung von Methoden und Werkzeugen,
Koordination von Fachabteilungen und IT in Sachen Performance Management und Analytik,
Erkennen und kommunizieren von Best Practices von BI-Szenarien,
Methodische und fachliche Unterstützung in allen Fragestellungen und aller Projekte in Performance Management und Analytik,
Querschnittsaufgaben von internem Marketing über Schulungen bis hin zum Change Management,
Bereitstellung der Daten mittels Information Management in der richtigen Datenqualität. Das kann allerdings auch durch ein eigenes Information Management Kompetenzzentrum geleistet werden (vgl. Kap. 6.7).
Typischerweise werden die traditionellen BI-Rollen der Business-Analysten und Poweruser
jetzt organisatorisch dem BI-Kompetenzzentrum zugeordnet. Dabei wandeln sich die Rollen
entsprechend. Aufgrund der deutlich besseren Softwareergonomie von Analytik- und
Performance Management-Werkzeugen werden die Business-Analysten weniger Zeit zur
Informationsbeschaffung auf Zuruf verbringen müssen. Das gibt ihnen mehr Zeit für
interaktive Analyse („Data Discovery“), was zu einer höheren Wertschöpfung im
Unternehmen führt. Als weitere Aufgabe kommt dazu, die fachlichen und technischen
Elemente von Analytik und Performance Management (vgl. Kap.4.1 und 4.2) zu managen.
Das bedeutet insbesondere das Identifizieren und Kommunizieren von Best Practices für
analytische Szenarios gemeinsam mit den Informationskonsumenten. Wenn ein
Informationskonsument mit einer neuen, noch nicht dagewesenen Herausforderung
konfrontiert wird, wie eine Analyse aufgesetzt oder weiterverwendet oder wie die richtige
Information dazu gefunden werden kann, wird gemeinsam mit den Business-Analysten des
BI-Kompetenzzentrums ein neues Szenario kollaborativ entwickelt. Solche Lösungen werden
als Szenarien im BI-Portfolio zur Wiederverwendung eingestellt und kommuniziert. Das BI-
Kompetenzzentrum lernt so beständig und verbessert stetig sein Lösungsportfolio. Das
entspricht einem kontinuierlichen Verbesserungsprozess.
Big Data-Analytik erfordert darüber hinaus neue Skills und Rollen, die sich organisatorisch
gesehen am besten im BI-Kompetenzzentrum ansiedeln lassen. In einigen Unternehmen wie
Amazon, eBay, Facebook, Google, Twitter u.a., die sich schon einige Zeit mit Big Data
beschäftigen, haben sich Rollen wie Data Scientists gebildet. Das sind Mitarbeiter mit
folgendem Profil:
Technische Expertise: Tiefe Kenntnisse in einer Natur- oder Ingenieurs-Wissenschaft
sind notwendig.
Problembewusstsein: die Fähigkeit, ein Problem in testbare Hypothesen aufzubrechen.
Kommunikation: die Fähigkeit, komplexe Dinge per Anekdoten durch einfach
verständliche und gut kommunizierbare Sachverhalte darzustellen.
Kreativität: die Fähigkeit, Probleme mit anderen Augen zu sehen und anzugehen
(„thinking out oft he box“).
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 45
“Data scientists turn big data into big value, delivering products that delight users, and
insight that informs business decisions. Strong analytical skills are given: above all a data
scientist needs to be able to derive robust conclusions from data.” Daniel Tunkelang,
Principal Data Scientist, LinkedIn
Im Endeffekt wird so Datenmanagement wieder zur eigentlichen und Hauptaufgabe der IT12,
während das Beherrschen der Prozesse und der Analytik die Hauptaufgabe der
Fachbereiche ist.
Das Ergebnis der Einrichtung eines BI-Kompetenzzentrums wurde in vielen BI-Programmen
aufgezeigt: So lassen sich BI-Vorhaben schneller voranbringen und Überschneidungen
vermeiden. Beides senkt die Kosten. Als ständige Einrichtung kann das BI-
Kompetenzzentrum sowohl innerhalb der IT-Organisation als auch in einer operativen
Fachabteilung wie dem Finanzressort angesiedelt sein. Für BI-Kompetenzzentren gilt
grundsätzlich: Sie sind unternehmensspezifisch und sollten auf jeden Fall an die Kultur und
Business-Ethik des Unternehmens angepasst sein. Darüber hinaus gibt es aber eine Reihe
von Erfolgsfaktoren, die man unbedingt beachten sollte.
Die Überzeugung aller Beteiligten und Stakeholder vom Wert eines BI-
Kompetenzzentrums ist entscheidend. Hier ist vor allem auch die Rolle des Sponsors
gefragt, damit das BI-Kompetenzzentrum auch nachhaltig gegen Widerstände auf allen
Unternehmensebenen implementiert werden kann. Eine entsprechend deutlich
kommunizierte Position des Vorstands ist erfolgsentscheidend.
Ein BI-Kompetenzzentrum sollte ein Mission-Statement haben, das die Ziele und
Kompetenzen klar definiert. Dazu gehört auch die Einbindung in die Prozesslandkarte
des Unternehmens. So werden mögliche Widerstände und Gerangel um Kompetenzen
rechtzeitig geregelt und vermieden.
Die Einführung eines BI-Kompetenzzentrums sollte nicht in einem Big-Bang erfolgen,
sondern schrittweise. In den ersten Schritten sollten die Aufgabenfelder angegangen
werden, die den höchsten erkennbaren Mehrwert haben und bei denen sich Erfolge
möglichst rasch und zügig einstellen und kommunizieren lassen.
Ein BI-Kompetenzzentrum ist ein Dienstleister. Das Portfolio der Dienstleistungen ist
sauber zu definieren und zu beschreiben, damit allen im Unternehmen klar ist, wie sie
vom BI-Kompetenzzentrum unterstützt werden können, wie sich dadurch ihre eigene
Arbeit und ihr eigener Aufgabenbereich ändert und welche Schnittstellen es gibt.
Ein kontinuierlicher Verbesserungsprozess (der ja zu jeder Governance gehört) muss
etabliert werden. Dazu gehört insbesondere das Messen der Leistung des BI-
Kompetenzzentrums mit Metriken wie durchschnittliche Umsetzungsdauer von
Anforderungen, Anzahl gelöster Fälle, Steigerung des Reifegrades der BI im
Unternehmen etc. und natürlich auch das Einhalten von vereinbarten Service Level
Agreements.
12
Das unterstreichen einige neuere Marktstudien, siehe den Beitrag bei InformationAge http://www.information-
age.com/channels/information-management/features/1687078/its-focus-shifts-to-data-management.thtml
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 46
Das Team im BI-Kompetenzzentrum sollte interdisziplinär sein. Die Kompetenzen
umfassen eben IT, fachspezifisches und unternehmensspezifisches Know How. Nur so
kann eine erfolgreiche Kommunikation des BI-Kompetenzzentrums mit den
Fachabteilungen und der IT gewährleistet werden. Das bedeutet auch, dass eine
gewisse Zahl von altgedienten Experten aus den Fachbereichen in einem BI-
Kompetenzzentrum mit innovativem technologischen und Prozess-Know How integriert
und kombiniert werden muss.
10 © 2012 S.A.R.L. Martin
Managen eines BI-Kompetenzzentrums
Standards
virtuelles CC
zentrales CC
Best Practices
Kultur von “Kompetenz-Zentren”
Du
rch
setz
un
gs
kra
ft
Der Leiter des BI-Kompetenzzentrums
Koordiniert Ressourcen & vermeidet Divergenzen aggregiert & koordiniert Projekte
setzt die Meilensteine
koordiniert das Budget
managt Abhängigkeiten
priorisiert optimiert den Betrieb von BI
managt Performanz & Wert
Konstruiert Metriken Kommuniziert Best Practices Definiert Methodologie und
Standards Optimiert Nutzerkompetenz Wählt die Technologie Garantiert die
Unternehmenssicht Berichtet an den BI-Sponsor
BI-Kompetenzzentrum
Pro
jekt 1
Pro
jekt n
Lenkungsausschuß
Querschnittsaufgaben
Programm
DirektorProjekt-Leiter Methodologist
...Internes Marketing & Kommunikation
Abbildung 10: Ein BI-Kompetenzzentrum kann unterschiedlich organisiert werden und so auch mit unterschiedlicher Durchsetzungskraft und Befugnissen ausgestattet sein. Die Darstellung unten zeigt die Architektur, oben die gelebte Kultur. Man kann mit dem einfachen Sammeln und Vermarkten von Best Practices beginnen, dann in einem Folgeschritt Standards aufstellen und kommunizieren und schließlich entweder virtuell oder zentral die proaktive Nutzung der Standards fördern und den BI-Projekten zentrale Dienste zur Unterstützung anbieten.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 47
4 Performance Management – Methoden und Technologien
Performance Management arbeitet anders als traditionelle Business Intelligence. Da standen
Werkzeuge im Mittelpunkt wie OLAP, Spreadsheets, Berichte, Adhoc-Abfragen, statistische
und Data Mining Werkzeuge. Performance Management kommt mit neuen fachlichen und
technischen Elementen. Ziel ist, dass jeder an Prozessen Beteiligte aus Analytik Nutzen
ziehen kann ohne zum Analytik-Spezialisten zu werden. Das beschränkt sich nicht nur auf
die Mitarbeiter des Unternehmens, sondern umfasst auch die Lieferanten, Partner, Händler,
sogar die Kunden. Analytik muss in diesem Sinne für jedermann konsumierbar sein.
4.1 Die fachlichen Elemente von Performance Management
Metrik und Key Performance-Metrik – Wie wir schon gesehen haben, beschreiben
Metriken, wie die Leistung eines Prozesses zu messen und zu managen ist und / oder wie
ein Prozess zu überwachen und zu steuern ist. Sie werden durch Metrisierung der
Unternehmens- und Prozess-Ziele abgeleitet. Metriken werden wie Sensoren entlang der
Prozessstrecke eingesetzt, um ein proaktives Erkennen von Problemen (also beispielsweise
das absehbare Nichterreichen des geplanten Endergebnisses) zu ermöglichen, so dass man
rechtzeitig gegensteuern kann. (vgl. das Beispiel: Überwachen und Steuern eines
Vertriebsprozesses auf S.34)
Eine Metrik besteht aus Kennzahlen und ihren Skalen, um das Auskommen der Kennzahl zu
interpretieren, zu bewerten und Entscheidungen zu treffen. Bei der Modellierung eines
Prozesses sollen ja auch gleichzeitig die Metriken modelliert werden. Dabei wird auch die
Skala festgelegt. In der Regel wird eine Skala aus der Planung abgeleitet, weil dort die
Prozessziele festgelegt werden. Eine Skala könnte aber auch durch ein Service Level
Agreement vorgegeben oder durch Management-Politiken bestimmt sein.
Eine Key Performance-Metrik (KPM) ist eine zusammengesetzte, aggregierte Metrik.
Liefertreue ist beispielsweise eine Key Performance-Metrik, die sich aus einer Metrik wie
Lieferzeit aggregiert über alle Kunden und über einen vordefinierten Zeitraum
zusammensetzen könnte. Einem Mitarbeiter werden typischerweise im Rahmen seiner
Rollen und Verantwortlichkeiten viele Metriken zugeordnet sein, aber nur wenige KPM. In der
Regel werden die KPM mit den persönlichen Zielen der Mitarbeiter verbunden und können
so auch einen gehaltsrelevanten Einfluss haben.
Die Interpretation des Auskommens einer Metrik und das Treffen der richtigen
Entscheidungen zum Einleiten von Maßnahmen werden von den Ressourcen vorgenommen,
die im Sinne der Informationsprofile der BI-Governance verantwortlich sind. Das können also
Menschen oder Systeme sein. Im Beispiel der Liefertreue als KPM ist ein
Entscheidungsträger, also ein Mensch verantwortlich. Bei einem solchen menschlichen
Eingreifen werden die Skalen üblicherweise visualisiert durch Verkehrsampeln, Tachometer
oder andere geeignete Symbole. Grüne, gelbe oder rote Anzeigen beschleunigen das
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 48
Erkennen von Abweichungen und Ausnahmen und erleichtern so die Interpretation des
Auskommens der KPM oder Metriken. Gut bewährt hat sich auch eine zusätzliche Anzeige
des Trends einer Metrik. So kann eine rot anzeigende Ampel dann einen grünen Trend
haben, wenn der aktuelle Wert der Metrik zwar immer noch rot ist, aber doch eine
Verbesserung gegenüber dem letzten Status zeigt. Im Web-Shop-Beispiel (Steuern des
Produktkatalogs per Produktverfügbarkeit; S.36) wird die Interpretation automatisch durch
eine Entscheidungsmaschine, also ein System vorgenommen – eine Visualisierung ist hier
nicht unbedingt notwendig.
11
Abbildung 11: Beispiel einer Strategy Map eines Balanced Scorecard-Modells realisiert mit Actuate/Performancesoft. In der hier gezeigten Strategy Map werden die Eingangs- und Prozess-Metriken in einer Ursache-Wirkungsbeziehung zu ihren entsprechenden Ausgangsmetriken dargestellt. Diese visuelle Darstellung der Strategie erlaubt der Organisation ihre Effektivität zu bewerten, in dem man die KPMs jedes Unternehmensziels verfolgt.
Business Scorecard – Die Business Scorecard hatten wir bereits in Kap. 3.2 als
Visualisierung eines Informationsprofils kennengelernt. Sie ist eine konsistente, umfassende
Gruppe von Metriken gemäß einer Managementpolitik, um die Performanz (Leistung) einer
Gruppe von Prozessen, einer Sparte oder des gesamten Unternehmens zu überwachen und
zu steuern. Konsistenz bedeutet insbesondere, dass Metriken sich nicht widersprechen und
so Konflikte zwischen Rollen und kollaborativen Teams schaffen, die in unterschiedlichen
Kontexten arbeiten. Der Begriff wurde ursprünglich für strategisches Performance
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 49
Management entwickelt, er lässt sich aber problemlos auf die anderen zeitlichen Ebenen
übertragen. Bekannte Modelle von Scorecards sind die schon genannte Balanced Scorecard
von Kaplan und Norton (www.bscol.com), das Scorecard-Modell von Baldridge
(www.quality.nist.gov) und das Six Sigma Modell (www.isixsigma.com). In der Praxis zeigt
sich aber, dass die wenigsten Unternehmen eines dieser Modelle eins-zu-eins umsetzen,
sondern meist basierend auf solchen Modellen ein unternehmensspezifisches Scorecard-
Modell entwickeln und nutzen. Neu im Vergleich zu traditionellen Business Scorecards ist
jetzt die Verbindung der Scorecard-Metriken mit den Geschäftsprozessen im Rahmen der BI-
Governance (vgl. Kap. 3.2).
Strategy Maps – Strategy Maps (Abb. 11) zeigen, wie eine Strategie ausgewogen aufgebaut
wird und wie der unternehmerische Erfolg über Ursache-Wirkungsketten entsteht. Die
vorhandenen Kennzahlensysteme der traditionellen BI waren bisher zu stark auf die Daten
der Finanzbuchhaltung abgestimmt und beachteten zu wenig die Investitionen in Mitarbeiter,
Informatik, Kundenbeziehungen bzw. Netzwerke mit Lieferanten und Partnern. Das auf den
klassischen Kennzahlen aufbauende Planungs- und Reportingsystem wie die Bilanz-G+V
und Cash Flow Planung stellte daher keine Basis für die Messung und Steuerung dieser
Werte dar. Ohne ein wirkliches Performance Management können diese Werte nicht sinnvoll
geplant und gesteuert werden. Dies führt zu einem radikalen Umdenken und zum Steuern
über Ursache-Wirkungsketten. Die innerhalb der Strategy Map formulierte
Unternehmensstrategie legt die Ziele für die Wertschöpfungsprozesse fest. Die Business
Scorecard übersetzt diese in konkrete Vorgaben und Messgrößen. Daraus ergeben sich
bestimmte strategische Initiativen oder Aktionsprogramme. Diese wiederum sind
entscheidend für das Erreichen der Vorgaben. Natürlich dürfen Strategy Maps und Business
Scorecards nicht statisch sein. Ändern sich die Rahmenbedingungen, sind auch die
Prioritäten der Unternehmensstrategie anzupassen.
Geschäftsregeln – Geschäftsregeln repräsentieren die prozessübergreifende
Entscheidungslogik im Sinne des Fachwissens und der Managementpolitiken (vgl. Definition
eines Geschäftsprozesses auf S. 32). Die Modellierung der Regeln geschieht entweder per
Top-down-Ansatz à la Expertensystem oder prädiktive Modelle werden per Bottom-up-
Ansatz generiert (beispielsweise ein Kunden-Verhaltensmodell, das in einer Data Mining
basierten Kunden-Verhaltensmodellierung erstellt wird). Eine Modellierung der Regeln, die
den Top-down- mit dem Bottom-up-Ansatz kombiniert, ist hier state-of-the-art.
Geschäftsregeln müssen zentral und von den Geschäftsprozessen unabhängig in einem
Regel-Repository verwaltet werden, da eine Regel in mehreren Prozessen genutzt werden
kann und ein Prozess natürlich mehrere Regel nutzen wird. Baut man Geschäftsregeln fest
in Prozesse ein, so landet man in kurzer Zeit in einem Wartungs- und Pflegechaos, da dann
die Konsistenz der Regeln gefährdet ist. Außerdem behindert man so eine
Wiederverwendbarkeit von Regeln.
Ereignis/Alarm – Ereignis-Orientierung ermöglicht Alarm-Services. Ein Ereignis ist
gekennzeichnet durch das Eintreffen von prozess-externer Information, die einen
Ausnahmezustand kennzeichnet.
Beispiel: Im Marketing-Prozess „Kampagnenmanagement“ stellt eine Kampagne
eines Mitbewerbers, die in unsere Kampagne eingreift, ein Ereignis dar, das es zu
erkennen gilt und dessen Wirkung man gegensteuern sollte. Ein solches Ereignis
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 50
wirkt operativ. Es gibt aber auch strategische Ereignisse wie der Eintritt eines neuen
Mitbewerbers in den Markt. Hier sind unter Umständen alle Vertriebs- und
Marketingprozesse auf den Prüfstand zu stellen und gegebenenfalls neu zu
modellieren. Jetzt kommt es auf die Geschwindigkeit an, mit der die neuen Prozesse
implementiert werden können, sonst verliert man leicht Marktanteile. Das ist einer der
Gründe, warum man von der Applikationsorientierung zu SOA-basierten
Geschäftsprozessen geht.
Tritt ein Ereignis ein, so muss in einem ersten Schritt das Ereignis erkannt und identifiziert
werden. In einem zweiten Schritt sollte ein Alarm ausgelöst werden. Das bedeutet eine
automatische Versendung einer Nachricht an die Verantwortlichen, die die Aufgabe der
Prozesssteuerung haben. Das kann entweder ein Mensch oder auch eine Maschine
(System) sein. Hier helfen die schon genannten BAM-Werkzeuge. Bei operativen
Ereignissen wird hier das Modell der Echtzeit wichtig: Die gesamte Information, die
notwendig ist, um ein Ereignis zu verarbeiten, sollte im Augenblick des Eintreffens des
Ereignisses zur Verfügung stehen, um auf Basis dieses Wissens die richtige Entscheidung
zu treffen. Echtzeit ist hier wieder als Synchronisierung der Informationsbereitstellung mit der
Geschwindigkeit des Prozesses zu verstehen. Wenn der Abstand zwischen Ereignis und
Reaktion auf das Ereignis immer kleiner wird, wird man zur Automation der Reaktion
gezwungen sein. Solche „Reaktionsautomaten“ sind beispielsweise die
Vorschlagsmaschinen auf manchen Webseiten. Stand der heutigen Technologie sind
Regelmaschinen oder Regel-Services zur Automatisierung von Entscheidungen (Mehr dazu
finden Sie in Kap. 4.3 und 7.1).
Informationszugriff (BI-Widgets). BI-Widgets erleichtern den Zugriff auf Information und
analytische Inhalte, indem sie fristgerechte, personalisierte und intelligente Informationen für
jedermann liefern. Über eine einfache Drag-and-Drop-Oberfläche der Software können
Endanwender direkt vom eigenen Desktop oder mobilen Gerät aus problemlos auf wichtige
BI-Inhalte zugreifen, sie organisieren und anpassen. Das ermöglicht einen vereinfachten
Zugang zur Analytik, erhöht die Produktivität für Endanwender und verringert die Kosten im
IT-Betrieb durch diese Art der Selbstbedienung.
Informationsverteilung (Broadcasting): Darunter versteht man Services, die
personalisierte Botschaften per SMS, E-Mail, Fax, Twitter, Pager, Mobil-Services oder auf
sonstigem Weg auch an Millionen von Empfängern senden. Als Technologie haben hier RSS
(„real simple syndication“) Feeds im Zuge der Ausbreitung von Web 2.0-Konzepten eine
führende Rolle eingenommen. Durch Ausnahmesituationen und sich wiederholende
Ablaufpläne als Auslöser können Ereignisse automatisch erstellt und an Prozesse und
Menschen im Unternehmen oder an externe Gruppen übermittelt werden. Der Inhalt kann
individuell auf den Empfänger zugeschnitten werden, womit eine Informationsüberfrachtung
vermieden wird und die Sicherheitsanforderungen erfüllt werden.
4.2 Von Business Intelligence zu Performance Management und Analytik
Im Zuge der Prozess-Orientierung der Unternehmen findet die Evolution von BI zu
Performance Management und Analytik statt. Die fachlichen Elemente hierzu erfordern
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 51
zusätzliche BI-Werkzeuge und Services, eine neue Architektur für den Einsatz von BI-
Werkzeugen und Services in Performance Management und Analytik (Abb. 12) sowie ein
neues Denken. Wir machen bei den BI-Werkzeugen und ihrer Nutzung den nächsten Schritt,
von Business Intelligence zu Performance Management und Analytik. Die substanziellen
Unterschiede zu BI sind:
© 2012 S.A.R.L. Martin12
Metrisierte Ziele
Prozesse & Metriken
PM und Analytik- Referenzarchitektur
Anreichern durch
Analytik
Geschäftsstrategie
interaktive
Analytik
Pe
rfo
rma
nce
Ma
nag
em
en
t
Datenintegrationsplattform
analytische Prozesse
Kollaboration
adaptiv dynamisch
analytische
Services Bu
sin
es
s-V
oka
bu
lar
(Me
ta D
ate
n)
Abbildung 12: Referenzarchitektur für Performance Management und Analytik. Sie ermöglicht ein Vergleichen der Produktangebote der verschiedenen Anbieter. Herzstück ist die Kopplung der Modellierung von Prozessen, Metriken und Governance sowie die Top-down-Metrik-Implementierung mittels analytischer Services und Bottom-up mittels interaktiver Analyse („Data Discovery“). Die Basis für Performance Management ist eine Datenintegrationsplattform, die parallelen und simultanen Zugriff auf externe und interne operative und dispositive Daten per Services im Rahmen einer SOA erlaubt. So wird das traditionelle Data Warehouse zu einer Komponente der Datenintegrationsplattform. Der „single point of truth“ befindet sich heute im Business-Vokabular, nicht mehr im Data Warehouse (vgl. Kap. 6).
Performance Management und Analytik sind jetzt Prozess-getrieben, nicht mehr
Daten-getrieben. Analytik verbindet die Unternehmensstrategie mit Prozessen und mit
Menschen gemäß ihrer Rolle in kollaborativen Teams: Nutzen und Wert von Information
werden so für alle Mitarbeiter, ja sogar für Kunden, Partner und Lieferanten im
Wertschöpfungsnetz eines Unternehmens erzielbar. Analytik zielt jetzt voll auf die
Fachbereiche und deutlich weniger auf die IT.
Analytik ist prädiktiv. Analytik ist vorwärts schauend. Es gilt Probleme zu identifizieren und
zu lösen, bevor sie auftreten. Damit ist Analytik eine Voraussetzung für Risiko-Management.
Es geht um Antworten auf unvorhergesehene Ereignisse, um neue Einsichten und über das
Risiko-Management hinaus auch um das Aufspüren neuer Gelegenheiten.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 52
Eingebettete Analytik – von Strategie zum Operativen. Eine SOA macht es möglich: Die
Anreicherung operativer Prozesse durch eingebettete Analytik ermöglicht ein
Synchronisieren von Informationsbereitstellung mit der Geschwindigkeit der Prozesse, so
dass Entscheidungen und Maßnahmen rechtzeitig getroffen werden können. Mittels
eingebetteter Analytik werden Prozesse intelligent und ereignis-orientiert.
Performance Management und Analytik brauchen ein Information Management.
Traditionelle Business Intelligence forderte ein Data Warehouse als die einzige Quelle von
zuverlässiger, qualitativ hoch stehender Information. Damit konnte Business Intelligence
nicht im operativen Umfeld eingesetzt werden und operierte nur im isolierten Raum
taktischer und strategischer Analysen. Die potenzielle Wertschöpfung durch
Echtzeitanalysen wurde außen vorgelassen. Analytik in einer SOA hat parallelen Zugriff auf
operative und dispositive Daten und Information. Dazu braucht man Informations-Services
(Abb. 13), die von einer Datenintegrationsplattform (man sagt auch: Enterprise Service Data
Bus) bereitgestellt werden. Per Mashing-up werden simultan Daten aus dem Data
Warehouse und operativen Systemen als Informations-Services zusammengesetzt und
bereitgestellt. In einer SOA wird das Data Warehouse jetzt zu einem Lieferanten von
Backend-Services (vgl. Abb. 4) und liefert insbesondere historische Daten. Mehr zum Thema
Information Management finden Sie in Kap. 6.
Interaktive Analytik – analytische Prozesse und Kollaboration. Interaktive Analytik (auch
“Datenexploration” oder „Data Discovery“ genannt) ist ein ad hoc, dynamischer, einfach zu
handhabender, analytischer, kollaborativer Prozess mit dem Ziel, neue Analytik wie Profile,
prädiktive Modelle, Scores, Segmentierungen etc. zu entwickeln zum besseren Verstehen
von Märkten, Kunden, Risiken etc. In diesem Sinne ist interaktive Analytik eine Bottom-up-
Entwicklungsumgebung für Metriken und prädiktive Modelle. Mehr zu interaktiver Analytik
finden Sie im Kapitel 5.2 zu Data Discovery. ein typisches Beispiel für interaktive Analyse ist
die Ableitung von prädiktiven Modellen, die man per Data Mining, Text Mining, Textanalyse
oder traditionellen statistischen Verfahren aus den Daten heraus findet und dann mittels
einer Regelmaschine zur Steuerung operativer Prozesse nutzt.
Beispiel: Betrachten wir den Prozess der Kreditvergabe. Die Standardregeln, um
eine Kundensituation auf Kreditwürdigkeit zu prüfen, lassen sich relativ leicht durch
einen Finanzberater aufstellen. Mit Hilfe von Data Mining könnte man nun zusätzlich
eine Segmentierung des Kundenbestandes ermitteln, die das Risiko des Kunden
modelliert, den Kredit nicht zurückzahlen zu können. Eine Kombination von
Expertenregeln und der generierten Segmentierung kann dann das Regelwerk zur
Kreditvergabe im Workflow eines automatisierten Kreditvergabeprozesses darstellen,
der dem Kunden in Selbstbedienung erlaubt, seinen eigenen Kreditantrag zu
bearbeiten.
Weitere typische Beispiele findet man im Cross-/Up-Selling und in der
Kundenbestandssicherung. Wichtig ist, dass besondere analytische Kenntnisse oder
Kenntnisse von analytischen Werkzeugen zur Anwendung der prädiktiven Modelle nicht
notwendig sind. Hier gilt: Analytik wird so einsetzbar nicht nur für Tausende, sondern im
Endeffekt für Millionen und mehr Informationskonsumenten.
Analytik macht so den Schritt zu intelligenten Prozessen: Operative Prozesse werden mittels
eingebetteter Analytik mit Intelligenz angereichert und auch kurzfristig überwacht und
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 53
gesteuert. Die Einbettung geschieht per Service-Orientierung. Aus BI-Werkzeugen werden
analytische Services. Diese analytischen Services werden genutzt, um die Komponenten
von Performance Management im Rahmen einer SOA zu implementieren (vgl. Abb. 13).
4.3 Performance Management und Analytik in einer SOA
© 2012 S.A.R.L. Martin13
Service-Modelle einer SOA
Data Integration
Plattform
Analytische
Services
Kollaborative
Services
Operative
Services
Informations-
Services
Drittanbieter-
Services (SaaS)
Zugriffs-
Services
Applikations-
Services
En
twic
klu
ng
s-
Serv
ices
IT M
an
ag
em
en
t-
Serv
ices
Infrastruktur-Services
Enterprise Service & Service Data Bus
Geschäftsprozess
Rule-
Services
Operationale
Daten
Data
Warehouse
Externe
DatenUnstrukturierte
DatenBig Data
Portal
Repository
Mobile, Apps
Abbildung 13: Geschäftsprozesse orchestrieren und choreographieren Services gemäß dem SOA-Modell. Die grundlegende Idee der Service-Orientierung ist die Trennung von Prozess-Logik und Geschäfts- und Entscheidungslogik. Es gibt fünf Service-Modelle von fachlichen Services: Informations- und Daten-Services, analytische Services, Rule-Services, operative Services und kollaborative Services: Die fachlichen Services setzen sich aus technischen Services zusammen, die von Drittanbietern (beispielsweise aus der „Wolke“ als SaaS – Software as a Service), aus den existierenden Applikationen und unterschiedlichen Datenquellen stammen können. Darüber hinaus braucht man Entwicklungs-Services, um neue Services zu bauen, und IT-Management-Services, um Administration, Ausführung und Sicherheit von Services zu managen. Der Enterprise Service Bus genauso wie der Enterprise Service Data Bus kann als intelligente Middleware zur Service- und Daten-Brokerage verstanden werden. Hierzu gehört auch ein Repository zur Service-Registrierung und zur Publikation aller verwendeten Services in Service-Katalogen. Die Benutzer-Schnittstelle zu Prozessen oder Services ist entweder eine traditionelle Portal-Lösung, die heute Social Media-Funktionalität umfassen sollte, oder eine Schnittstellen zu mobilen Geräten, die in der Regel über Apps realisiert wird.
Wir haben bereits das Konzept einer SOA kennengelernt. Abteilungs- und Unternehmens-
übergreifende Prozesse werden SOA-basiert als Composite Applications (oder: Business
Mash-ups) – siehe dazu Nußdorfer und Martin (2007) oder Martin (2008) – implementiert,
die die fachliche Logik komponieren und orchestrieren (vgl. Abb. 4). Diese fachliche Logik
wird bereitgestellt als Services aus den existierenden Applikationen oder aus neuen
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 54
Services, die entwickelt oder eingekauft werden müssen, um heute bestehenden Lücken in
der Service-Landschaft zu schließen.
Prinzipiell gibt es fünf Service-Modelle für Geschäftslogik (Abb. 13):
Operative Services. Sie stellen transaktional-orientierte Geschäftslogik zur Verfügung,
beispielsweise Anlegen neuer Kunden, neuer Produkte oder neuer Kundenauftrag.
Kollaborative Services. Dies sind Services, die menschliche Interaktionen und Mensch
zu Mensch Kommunikation unterstützen, beispielsweise Aufsetzen eines Meetings,
Suchfunktionen und Kommunikationsdienste wie eingebettete E-Mail, Chats, SMS,
Stimme etc. Web 2.0-Werkzeuge lassen sich ebenfalls so nutzen, da die in der Regel
auch service-orientiert sind.
Rule-Services. Mittels Regeln beschreibt man Entscheidungslogik. Ein Prozess nutzt
typischerweise mehrere Regeln, während eine Regel in verschiedenen Prozessen
genutzt werden kann. Daher muss man Prozesslogik und Entscheidungslogik strikt
voneinander trennen und fasst in einer SOA Regeln als Services auf, die von der
Prozessmaschine orchestriert werden. So erhält man Rule-Services als eine Kategorie
von Services. Ein Rule-Service kann auch als Kapselung komplexer Regeln verstanden
werden. Mit anderen Worten, ein Rule-Service kann einen anderen Rule-Service als
Untermodell aufrufen.
Analytische Services. Diese Services stellen analytische Geschäftslogik zur Verfügung,
beispielsweise einen Schwellenwert für Produktverfügbarkeit, ein prädiktives Modell für
Kundenverhalten oder Kundenrisiko, einen Forecasting-Service für die
Vertriebssteuerung etc.
Informations- und Daten-Services. Solche Services liefern zusammengesetzte
Information, die kombiniert werden kann aus strukturierten und unstrukturierten,
operativen und analytischen, internen und externen Datenquellen wie beispielsweise
Kundenadresse, Kundenwert, Liefertreue etc. Informations- und Daten-Services
umfassen auch Meta- und Stammdaten-Services.
In diesem White Paper beschränken wir uns auf die Diskussion von analytischen Services
(Kap. 5.1) und Informations- und Daten-Services (Kap. 6). Vorher machen wir aber noch eine
Bemerkung zu den Rule-Services. Mit Hilfe der so implementierten Entscheidungslogik
lassen sich menschliche Entscheidungen automatisieren: Die Regelmaschine wird als
Entscheidungsmaschine eingesetzt. Entscheidungsmaschinen sollten eine
Planungskomponente enthalten, die eine gezielte Verfolgung von Ereignissen durch ein
Aufsetzen von Nachfassaktionen erlaubt. Hier können ebenfalls regelbasiert die Maßnahmen
definiert werden, die als Folge eines Ereignisses zu treffen sind, z. B. ein Anruf eines
Kundenberaters aus dem Call Center drei Tage nach dem Besuch einer Webseite mit einer
positiven Response des Kunden. Entscheidungsmaschinen erlauben so beispielsweise
intelligente Interaktionen mit Kunden, wobei Entscheidungsmaschinen in Echtzeit eine
Reaktion auf ein durch den Kunden provoziertes Ereignis ermöglichen. Das findet besonders
im Cross- / Up-Selling im Call Center und auf Webseiten Anwendung.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 55
4.4 Renaissance von „BI“ im Enterprise 2.0
Der Begriff Enterprise 2.0 wurde im Jahre 2006 von Andrew McAfee geprägt13. McAfee hat
auch eine kurze und griffige Definition geliefert:
Definition Andrew McAfee: Enterprise 2.0 bezeichnet die Nutzung von Social-Media-
Konzepten mittels Social-Software-Plattformen in einem Unternehmen oder zwischen
Unternehmen und seinen Kunden und Partnern.
Bei Enterprise 2.0 geht es um das Nutzen und Nutzenkonzepte von Social Media-
Technologie im Unternehmen, nicht um Social Media-Technologien an sich. Enterprise 2.0
erfordert also zum Teil erhebliche Änderungen in der Unternehmenskultur, insbesondere in
der Kommunikationskultur, denn die Nutzung von Social-Software-Plattformen bedeutet,
dass sie gemeinschaftlich bearbeitet, gepflegt und genutzt werden und zwar als Ergänzung
zu den existierenden organisatorischen und technischen Strukturen.
Bevor wir das diskutieren, sollte man sich nochmal vor Augen führen, wie Social Media
entstanden sind und sich entwickelt haben. Es begann mit dem Begriff Web 2.0.
Web 2.0-Konzepte. Web 2.0 entstand als soziale Initiative zur Nutzung des WWW: Jeder
macht mit, ist gleichzeitig Konsument und Produzent. Doch die Web 2.0-Konzepte gehen
über die Kommunikation von Mensch zu Mensch im Sinne von Twitter oder Facebook weit
hinaus. Schauen wir mal auf Web 2.0 mit anderen Augen.
Der Begriff Web 2.0 geht zurück auf Tim O’Reilly, der den Begriff mit anderen erfunden hat.
Gehen wir von seinem fundamentalen Artikel „What is Web 2.0“14 von 2005 aus und denken
weiter. Da kommen wir zu folgenden Thesen, die Enterprise 2.0 mit Business Intelligence
zusammenbringen:
Von Applikationen zu Services. Das heißt weg von monolithischen Applikationen, hin
zu einer Service-Orientierung. Die Web 2.0-Idee ist, Services für Mash-ups jedem
Konsumenten im Web verfügbar zu machen. Per Mash-ups wird der BI-Anwender und
Informationskonsument zum Informationsproduzent und so gezielt und kontrolliert in das
Managen des Lebenszyklus von analytischen Prozessen und Services eingebunden. Im
BI-Umfeld gibt es heute dazu die sogenannten CPM-Toolkits (vgl. Kap. 9.2).
Beispiel: Eine Datenanalyse bringt vielleicht als Ergebnis ein bestimmtes
interessantes Datenmuster, aber eine Visualisierung der Daten zum besseren
Verstehen und Interpretieren der Daten erfordert eine Anwendungsprogrammierung
durch die IT. Das aber ist entweder gar nicht möglich, weil dazu in der IT die
Ressourcen fehlen, oder es ist zu teuer, dauert zu lange oder vermutlich sogar
beides. Aber, wenn man per Mashing-up als Informationskonsument selber die Daten
in ein Kartierungssystem bringen kann, dann ist eine Visualisierung schnell, einfach
und kostengünstig machbar. Das treibt dann die Analyse weiter.
13
Siehe „Enterprise 2.0 – The Dawn of Emergent Collaboration” http://adamkcarson.files.wordpress.com/2006/12/enterprise_20_-_the_dawn_of_emergent_collaboration_by_andrew_mcafee.pdf
14 Siehe http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html?page=1
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 56
Volle Flexibilität heißt also das Prinzip. Das ist ja auch der Sinn und Zweck einer SOA,
wie wir in Kapitel 2.5 gesehen haben. Das Web 2.0-Konzept ist also auch ein SOA
Konzept: kollaborative Services werden mit analytischen Services verknüpfbar.
Architektur zur Kollaboration. Auch dieses Web 2.0-Konzept überträgt sich voll auf
eine SOA. Das Basiskonzept einer SOA, das per Servicelevel-Agreement (SLA)
kontrollierte Bereitstellen und Konsumieren von Services, ist ein Kollaborationsmodell par
excellence.
Nutzung kollektiver Intelligenz. Hier geht es im Original bei Tim O’Reilly erst einmal um
den Open Source Gedanken. Aber wenn man etwas weiter denkt und das Web 2.0-
Konzept „Jeder macht mit“ auf die Zusammenarbeit IT und Business anwendet, dann
werden Anwender zu Entwicklern. Ist das vorstellbar? Ja, das ist heute schon in
ausgewählten Bereichen machbar. Business Intelligence hat hier eine gewisse
Vorreiterrolle. Bereits in den 80/90iger Jahren sollten die Anwender ihre Reports und
Analysen selber machen. Das war damals nicht unbedingt von Erfolg gekrönt, aber heute
greift hier das Web 2.0-Konzept des „Vertrauens in Anwender als Mitentwickler“. Hier
kann man auch wieder an die Prinzipien der Mash-ups denken, aber es geht auch um
das Arbeiten in Teams, denn BI dient zwar dem Treffen besserer Entscheidungen, aber
Entscheidungen werden meistens in Teams getroffen, man spricht ja auch von einem
„board room style of decision making“. Hier entsteht die Chance zu einer völlig neuen
Kollaboration zwischen IT und Business – allerdings stecken wir hier noch in den ersten
Anfängen, aber die eingeschlagene Richtung stimmt.
Simple Schnittstellen und Modelle. Light Weight Programming sagt hier Tim O’Reilly.
Ein solches „Keep it simple“ ist ein gutes Prinzip, wenn es um Design und
Implementierung von Services in einer SOA geht. Simple Schnittstellen, sogar
standardisiert, das sind beispielsweise Web Services, ein heute weitgehend praktizierter
Weg bei SOA-Implementierungen. Das macht im BI das Einbetten von Analytik in
Geschäftsprozesse und damit das Anreichern von Prozessen durch Intelligence
einfacher denn je.
Medienübergreifende Software. Das passt auf eine SOA. Hier kommt alles zusammen.
Jetzt wachsen per SOA die bisher so unterschiedlichen IT-Disziplinen wie Business
Intelligence, Geschäftsprozess-Management, Document Management, Office etc.
zusammen. Das ist gegenüber traditioneller BI ein entscheidendes Element, denn BI
sollte nicht nur strukturierte Information auswerten, sondern besonders in der
Kombination mit unstrukturierter Information können sich völlig neue Einsichten ergeben.
Im Kapitel 5.5 zu Textanalytik kommen wir darauf zurück.
Der Long Tail-Effekt. Auch das Web 2.0-Konzept des Erreichens des "Long Tail" mittels
Communities ist ein Prinzip, das sich in einer SOA wiederfindet, wenn man das Konzept
von „Software as a Service“ (SaaS) mit einer SOA verbindet. Dann kann man den Long
Tail Effekt als die Business Opportunity sehen, solche Services in einem
Geschäftsmodell erfolgreich zu nutzen, denn im WWW lassen sie sich besser finden.
Genutzt wird das heute beispielsweise von Google und eBay. Aber bis das Einzug in die
Unternehmens-IT findet, muss noch einiges in Sachen Sicherheit und Zuverlässigkeit
getan werden.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 57
Die Web 2.0-Konzepte ermöglichen so eine neue Form der Kollaboration und der
Kommunikation. Sie stellen in der Tat weitreichende kollaborative Services in einer SOA zur
Verfügung (vgl. Abb. 13).
Enterprise 2.0 und Business Intelligence. In Kapitel 2.5 (vgl. Abb. 3) hatten wir bereits
ausgeführt: In einem Unternehmen brauchen wir Industrialisierung, Agilität und Compliance.
Wir hatten auch schon auf die gegensätzlichen Stoßrichtungen von Industrialisierung und
Agilität hingewiesen. Industrialisierung meint Automatisierung und Standardisierung,
während Agilität insbesondere auch für Kreativität und Innovation steht. Die Konzepte einer
Serviceorientierung im Sinne eines Kollaborationsmodells bringen diese beiden Gegensätze
zusammen. Das hatten wir bereits technisch diskutiert. Mit dem Nutzen von Web 2.0-
Konzepten als kollaborative Services kommt nun auch eine soziale, menschliche
Komponente dazu.
Beispiel: Einführung einer Online-Zeitung als web-basiertes, intelligentes Reporting.
(Quelle GmbH, Sieger BI Award 2008 der CeBIT 2008) Die Jury begründete ihre
Entscheidung mit dem innovativen Vorgehen bei der Realisierung und den neuartigen
Ansätzen des Wissensaustausches, wie sie aus dem Web 2.0 bekannt sind. Quelle
hat mit der Integration von Bildern, Textelementen und klassischen Kennzahlen eine
anwenderfreundliche und innovative Lösung geschaffen. Die Nutzung eines Wikis zur
Definition von Kennzahlen und Wissenssammlung zur richtigen Interpretation von
Berichten und Analysen sorgt für hohe Anwenderakzeptanz. Die Lösung von Quelle
liefert nicht nur reine Zahlen, sondern macht Inhalte und Nutzen des Berichtswesens
für jeden Anwender transparent. (aus: is report,
http://www.isreport.de/index.php?id=779 )
Das zeigt uns die Richtung, in der wir uns mit BI im Enterprise 2.0 bewegen müssen, um als
Marktsieger zu bestehen. Wir hatten ja bereits in Kapitel 2.1 die BI-Mängelliste diskutiert.
Diese alten, bekannten Probleme lassen sich in einem Enterprise 2.0 anders angehen und
entsprechend der Enterprise 2.0-Prinzipien lösen:
Alles hängt von den Mitarbeitern ab. Das Mitmachen der Mitarbeiter muss gefördert
werden. Eine Moderation der Kommunikation ist sehr hilfreich wie die Praxis bei der
Quelle GmbH gezeigt hat.
Mit konkreten Anreizen können Mitarbeiter dazu motiviert werden, sich aktiv am Aufbau
und der Belebung der Anwendungen zu beteiligen. Das kann unter anderem durch
Prämien für intensive Mitarbeit oder durch die Bewertung von Inhalten durch die Nutzer
geschehen.
Um die anfängliche Hemmschwelle bei den Nutzern aufzuweichen, können ganze
Anwendungen in die Enterprise 2.0-Umgebung verlagert werden. Damit kommt die
„kritische Masse“ von Information und Teilnehmern, die für einen Erfolg nötig sind,
zustande. Quelle GmbH hat das mit dem Reporting per Online-Zeitung erreicht.
Starke Motivation für ein aktives Engagement ist vielfach die persönliche Reputation des
Mitarbeiters. Anonyme Beiträge sollten nicht zugelassen werden.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 58
Das Management muss seinen Mitarbeitern Vertrauen entgegen bringen. Die Kontrolle
der Gemeinschaft ist nicht zu unterschätzen. Das ist ein ganz wesentliches Web 2.0-
Konzept. Mut zur Offenheit muss sein!
Eine einfache, schnell verständliche und leicht lernbare Oberfläche ermöglicht es
Mitarbeitern mit unterschiedlichem Wissensstand, sofort und ohne Umwege, am System
teilzunehmen. Quelle GmbH hat das mit einer intuitiven Visualisierung geschafft.
Fazit: Unternehmen sollten die Einbeziehung von Social Media-Konzepten in Betracht
ziehen und auch eine Roadmap entwickeln, wie man ein Enterprise 2.0 bauen kann. Denn
Enterprise 2.0 bietet die Chance Industrialisierung mit Innovation und Kreativität zu vereinen.
Es bietet die Chance durch das Konzept des „Jeder macht mit“ Wissenspotentiale im
Unternehmen zu erschließen, die sich sonst nicht so einfach aktivieren lassen. Insbesondere
kann eine Enterprise 2.0-Initiative eine Renaissance von BI bewirken, da sich so BI mit
Wissensmanagement verbinden lässt und man dadurch die Benutzerakzeptanz deutlich
steigern kann.
4.5 Planung im New Normal
Neben dem Überwachen und Steuern von Prozessen gehört ja auch das Planen zum
Performance Management. Heute im New Normal ist Planen schwieriger und komplexer
denn je, denn im New Normal gibt es vorhersagbare langfristige Trends nicht mehr. Auch
wenn heute die Konjunktur brummt, kann es schon morgen wieder zu Ende sein. Mit
anderen Worten: Wie soll man und wie kann man in einer solchen Welt überhaupt planen?
Die traditionelle Jahresplanung versagt im New Normal zum Teil vollständig, denn wer weiß
schon wie Markt und Kunden in einem Jahr aussehen werden. Mit alten
Planungsgewohnheiten und Methoden kommt man heute nicht mehr weiter. Denn die im
New Normal geforderte Agilität der Unternehmen bedeutet nicht nur die rasche Umsetzung
von neuen Kundenanforderungen, die schnelle Reaktion auf Marktänderungen und die
rasche Änderung von Prozessen bei Strategieänderungen, sondern setzt auch eine agile
Planung voraus.
Agile Planung bedeutet ein Umdenken in der Planung. Früher war Planung in den meisten
Unternehmen eine reine Finanzplanung plus einer meist von der Finanzplanung isolierten
strategischen Planung. Bei gut aufgestellten Unternehmen gab es eine Verbindung,
manchmal sogar eine Integration von strategischer und Finanzplanung. Außen vor blieb in
der Regel die operative Planung. Agile Planung bedeutet nun einen integrierten,
durchgängigen Planungsprozess. Strategische, operative und Finanzplanung bedingen ja
einander, daher muss hier die alte Lücke in den voneinander isolierten Planungen von
Ressourcen, Programmen, Produkten, Prozessen, Services etc. geschlossen werden.
Agile Planung meint aber noch mehr. Die Planungszeiten müssen verkürzt werden.
Rollierend oder treiber-basiert zu denken ist jetzt absolut zwingend. Rollierende, treiber-
basierte oder Gegenstrom-Planung sind zwar überhaupt nicht neu, aber jetzt im New Normal
setzen sich bei mehr und mehr Unternehmen solche Planungsmethoden durch. Dazu
kommen zeitnahe Forecast-Szenarien. Man stellt nicht mehr nur einen Plan auf, sondern
entwickelt gleich mehrere Szenarien unter verschiedenen Annahmen, um der Volatilität zu
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 59
begegnen. Denn aufgrund der Volatilität im New Normal kann es gewaltige Sprünge in der
Planung geben, können sich Planungsziele grundsätzlich ändern. Das Problem ist die
ausreichende Reaktionsgeschwindigkeit. Weiter denkende Planer setzen hier
Simulationsverfahren und Modellrechnungen ein, um die verschiedenen Szenarien auch
bewerten zu können und um zu Entscheidungshilfen zu kommen. So schafft man sich einen
Planungshorizont, der gleichsam ein Fahren des Unternehmens auf Sicht erlaubt und so das
schnelle Reagieren ermöglicht.
Agile Planung bedeutet auch eine viel stärkere Interaktion und Kommunikation zwischen
allen an der Planung Beteiligten. Der Mensch muss nach vorne gestellt werden: Es geht um
das Einbinden aller. Hier finden bereits Ideen aus den Social Media an vielen Stellen
Eingang. Wikis als Wissensbasis und als Hilfsfunktion sind heute fast schon die Regel. Hier
ist die Zielsetzung eine gemeinsame Sprache zwischen den Controllern und den anderen
Fachbereichen zu schaffen. Es gilt in diesem Zusammenhang auch die Lücke zwischen
Controlling und Buchhaltung und Finanzen zu schließen, denn auch die Finanzplanung
selbst muss agil werden: Finanzierungsspitzen müssen im Zuge eines Risiko-Managements
identifiziert und vermieden werden.
Planung im New Normal
strategisch
(langfristig)
Finanzplanung
(mittelfristig)
Monate, bis zu einem Jahr
operativ
(kurzfristig)
Prozessgeschwindigkeit
strategische
Planung
Budgetierung
operatives
Tagesgeschäft
14
„agile Planung“ Portfolio-
Management
© 2012 S.A.R.L. Martin
Abbildung 14: Unter den heutigen Marktbedingungen des New Normal sind alternative Planungsmethoden (Jahresplanung greift nicht mehr!) und kollaborative Planungswerkzeuge im „Social-Media-Stil“ ein Muss. Weiterhin ist eine integrierte Planung notwendig, die die Planungslücke zwischen strategischer und Finanzplanung einerseits und operativer Planung andererseits schließt. Mit Hilfe von Portfoliomanagement schafft man den integrierten Planungskreis: Planung wird agil.
Dokumentierungs- und Kommentierungsmöglichkeiten zu Berichten sind Pflicht in einer
agilen Planung und von allen Beteiligten ganz besonders gefordert. Jeder soll gleichsam
„gezwungen“ werden, sich mit den Zahlen zu beschäftigen und Abweichungsanalysen zu
kommentieren. Ganz wichtig ist es auch, Autonomie für die an den Planungsprozessen
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 60
Beteiligten zu schaffen, in dem Basisfunktionen an die Nutzer ausgelagert werden. Jeder will
selbstständig arbeiten können, seine Graphiken selber produzieren und Daten verdichten
können. Das aber nicht in einer isolierten Spreadsheet-Umgebung, sondern in
Zusammenarbeit und Interaktion mit allen Beteiligten. Hinzu kommt auch mehr und mehr die
Forderung nach Mash-ups.
Agile Planung bedeutet also neue Planungsmethoden und Social-Media-Stil Kommunikation
und Kollaboration in der Planung, plus die Integration von strategischer Planung,
Finanzplanung und operativer Planung. Die Lücke insbesondere zwischen strategischer und
Finanzplanung einerseits und operativer Planung andererseits gilt es zu schließen. Dazu
müssen die traditionellen isolierten Planungssilos aufgelöst und in eine integrierte
Planungsplattform übergeführt werden. Hier werden dann die Methoden und Werkzeuge von
strategischer Planung und Finanzplanung mit denen operativer Planung zusammengeführt.
Portfolio Management nimmt hier eine zentrale Rolle ein. Es ist ein guter Ansatz, um durch
Abgleichen der Strategie gegen die knappen Ressourcen – Menschen und Geld – das
Business zu optimieren. Dazu wird die strategische Planung und Finanzplanung verbunden
mit Investment Analyse, Kapazitätsplanung, Nachfrage-, Programm-, Ressourcen- und
Change-Management. Durch ein solches Planungsinstrumentarium schafft man eine
integrierte Planung: Die operative Planung der Prozesse folgt somit direkt aus der
strategischen und Finanzplanung. So schließt sich der Planungskreis entsprechend dem
Steuerungskreis von Prozessen in einem „echten“ Performance Management. (Abb. 14)
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 61
5 Analytik – Basis für Performance Management
Analytik lässt sich in drei aufeinander aufbauenden Klassen von Werkzeugen und Methoden
einteilen:
Basis-Analytik. Hier geht es um die einfache Feststellung: Was ist passiert? Das
entspricht im Wesentlichen dem, was man in der traditionellen BI gemacht hat: Reporting
(Batch-Berichte aus der Konserve, interaktive Reports mit drill-down und drill-up, vgl.
Abb. 15), Dashboards, Alarmfunktionen und Empfehlungen.
Abbildung 15: Basis-Analytik: Das am weitesten verbreitete traditionelle BI-Werkzeug ist Excel. Setzt man Excel aber zur individuellen Datenhaltung ein, dann besteht die Gefahr, in einer inkonsistenten BI-Landschaft zu enden. Aber wenn man Excel als reines Front-end nutzt, dann kann es auch service-orientiert eingesetzt werden. Zudem besticht es durch große Benutzerfreundlichkeit sowie durch eine Vielzahl von Add-in-Angeboten, die die Funktionalität teilweise sehr gekonnt erweitern. Hier als Beispiel das Excel-Add-in OneBoard von pmOne. Es macht mit wenigen Mausklicks aus einer Datentabelle (oben) eine aussagekräftige Business-Grafik mit mehreren Datenarten (Ist-, Plan- und Forecast-Daten) und einem Abweichungsbaum, der einfach und verständlich die relative Plan-Ist-Abweichung darstellt. Das Notationskonzept orientiert sich an den SUCCESS-Regeln
15 von Dr.
Hichert.
15
Mehr zu den Success-Regeln von Dr. Hichert finden Sie auf http://www.hichert.com/de/success/
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 62
Standard-Analytik: Jetzt will man wissen: Warum ist es passiert? Auch hier dominieren
immer noch die Werkzeuge der traditionellen BI wie interaktive analytische Dashboards
mit drill-down und drill-up, OLAP, analytische Workflows zwecks Automation, anpassbare
Daten-Mash-Ups und BI-Widgets.
fortgeschrittene Analytik (advanced analytics): Hier geht es um Vorhersagen, was
geschehen wird und um das Aufspüren neuer Gelegenheiten. Hier werden jetzt Data und
Text Mining, Textanalytik, Location Intelligence, analytische Modelle und
statistische/prädiktive analytische Funktionen sowie Visualisierung eingesetzt.
5.1 Analytische Services
In einer SOA als Infrastruktur für Geschäftsprozess-Management wird eingebettete Analytik
mittels analytischer Services implementiert. Analytische Services sind gekapselte,
komponenten-basierte Module zur Publikation von analytischer Geschäftslogik, die per
(Web-) Services kommunizieren (Abb. 13). Dazu gehören analytische Inhalte wie
beispielsweise anpass- und erweiterbare Templates für alle Arten von Metriken in einer
Business Scorecard und analytische Werkzeuge. Wie bei den anderen Modellen von
Services gehören dazu auch Entwicklungs-Services zum Managen des Lebenszyklus der
Services – Implementieren, Anpassen und Pflegen. So erweitert Analytik die traditionelle auf
das Data Warehouse fixierte BI, indem BI per Metriken und prädiktiver Modelle in den
Kontext von Strategie, Zielen, Prozessen, Menschen und Governance gestellt wird und per
Services implementiert wird.
Reporting- und Analyse-Services – In einer SOA wird die Funktionalität der Basis- und
Standard-Analytik mittels Komponenten implementiert, die analytische Services bereitstellen,
die in jeden Geschäftsprozess zwecks Anreicherung eingebettet werden können. In einer
SOA können analytische Services Informations- und Datenservices zur Datenversorgung
nutzen, so dass zusammengesetzte Daten aus operativen und dispositiven Systemen
verfügbar werden. Analytik kann jetzt in Echtzeit eingesetzt werden, wann immer es
geschäftsrelevant ist. Zudem können durch Mashing-up zusammengesetzte Reporting- und
Analyse-Services flexibel komponiert werden.
Planung und Simulation – Die Planung ist ein typischer abteilungsübergreifender Prozess,
der am besten als SOA-basierter Prozess implementiert wird. Die Planungsfunktionalität wird
somit über Planungs- und Simulationsservices implementiert, die volle Flexibilität und
Anpassungsfähigkeit an sich ändernde Geschäftsszenarien bieten. Der Vorteil einer
Implementierung der Planung im Rahmen einer SOA liegt auf der Hand: Der
Planungsprozess kann aus allen möglichen analytischen oder sonstigen Services
zusammengesetzt werden. Hierbei werden Redundanzen in der analytischen Funktionalität
vermieden, die durch Planungsanwendungen in einer herkömmlichen Data-Warehouse-
/Business-Intelligence-Architektur typischerweise entstehen. So fördert man eine rigorose
und revisionssichere Planung durch einen kontrollierten SOA-basierten Prozess statt
Planungsprozesse von Hand und auf der Basis von Tabellenkalkulationen durchzuführen.
(Abb. 16) Eine SOA-basierte Planung ist insofern auch die beste technologische
Voraussetzung für eine Planung im New Normal (vgl. Kap. 4.5).
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 63
15
Abbildung 16: Planung und Simulation mit Cubeware Cockpit V6pro: Die Lösung bildet unterschiedlichste Planstände ab und unterstützt verschiedene Planungsfunktionalitäten wie Top-down, Bottom-up, Gegenstromverfahren und Simulation. Die Plandaten werden dezentral erfasst, zentral und strukturiert abgelegt und können periodisiert, zusammen mit Ist-Daten sowie in Form von Soll-Ist-Analysen, Zeitreihenanalysen, Forecasting-Analysen oder »Was-wäre-Wenn«-Szenarien ausgewertet werden.
Dashboard-Services – Eine Instrumententafel („Dashboard“) (Abb. 17) visualisiert große
Mengen von Information aus unterschiedlichen Datenquellen in verdichteter Form. Der Grad
der Verdichtung und die Visualisierungsform sind ziel- und adressatenabhängig. Sie wird zur
Implementierung einer Business Scorecard eingesetzt und entsprechend in ein Portal als
Portlet eingebettet (vgl. Kap. 3.2). Das Informationsprofil der Business Scorecard beschreibt
die Personalisierung von Dashboards, damit jeder Verantwortliche genau die richtige
Information gemäß dem Prozessträgermodell bekommt. Zu einem Dashboard sollte auch
eine Benachrichtigungsfunktion gehören, so dass in bestimmten Situationen (Eskalation,
Ereignis / Alarm) auf wichtige Information automatisiert hingewiesen wird. Das führt zu einer
„aktiven“ Instrumententafel: nur solche Fälle, die Entscheidungen und menschliches
Eingreifen verlangen, werden angezeigt und den Entscheidungsträgern durch message-
basierte publish-and-subscribe Kommunikationsmethoden (beispielsweise RSS feeds)
mitgeteilt. So kann ein „Management by Exception“ aufgebaut werden.
Eine flexible Weiterentwicklung der Berichtsmöglichkeiten von Instrumententafeln sind die
sogenannten „Briefing Books“. Ein Briefing Book besteht aus Kapiteln, die alle analytischen
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 64
Services entsprechend dem Profil des Informationskonsumenten den Kapiteln zuordnen und
so strukturieren. Es bietet daher eine komplette strukturierte Umgebung, die die gesamte
Information zum Überwachen und Steuern gemäß dem Governance-Modell in intuitiver Form
interaktiv und visuell bereitstellt (Abb. 18).
Abbildung 17: Beispiel für ein Dashboard realisiert mit Cubeware Cockpit V6pro: Das Dashboard liefert einen schnellen Überblick über die Hauptkennzahlen des Unternehmens und wie sich verschiedene strategische Bereiche aktuell entwickeln. Hier kommen verschiedenste Layout-Komponenten zum Einsatz. Ihre Platzierung geschieht per „Drag & Drop“ an der Oberfläche. Jede Dashboard-Komponente basiert auf DataViews unterschiedlicher Würfel. Ein Drill-Through und Adhoc-Abfragen nach weiteren Details zu den vom Dashboard angezeigte Information ist jederzeit machbar. Die Erstellung und Anpassung von Dashboards ist hoch ergonomisch und kann fast ausschließlich vom Nutzer selbstständig vorgenommen werden.
Information Management – Während traditionelle BI-Werkzeuge auf einer Data
Warehouse-Architektur aufsetzten, ist wie bereits gesagt eine Datenintegrationsplattform die
Basis für Performance Management und Analytik. Eine Datenintegrationsplattform verbindet
auf der technischen Ebene Performance Management und Analytik mittels eines Enterprise
Service Data Bus mit operativen Datenbanken auch in Echtzeit und dem Data Warehouse,
das jetzt nur noch Backend-Dienste für analytische Services zur Verfügung stellt (vgl. Abb. 4
und 13). Datenintegration stellt Informations-Services zur Verfügung, um Daten, aber auch
Meta- und Stammdaten zu analysieren, Datenmodelle abzuleiten, Daten und Metadaten
aufzubereiten und zu profilieren, sowie ETL- (extraction, transformation, load) Dienste. Mehr
zu Information Management und Echtzeit-Konzepten finden Sie im Kapitel 6 und 7.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 65
Abbildung 18: Beispiel für ein Briefing Book realisiert mit Actuate. Eine intuitive Nutzung wird durch die Nachbildung eines Buches unterstützt. Links sieht man die definierten Kapitel, die sich über Reiter aufschlagen lassen. Jedes Kapitel hat hier noch Unterkapitel, dargestellt durch die Reiter rechts oben. Dazu kommt noch eine Blätterfunktion zum Umschlagen der Seiten.
5.2 Data Discovery
Interaktive Analytik – Eine Anreicherung von Prozessen durch eingebettete Analytik wird in
der Regel durch interaktive Analytik (Datenexploration) ermöglicht. Metriken werden nicht nur
Top-down aus Strategie, Zielen und Prozessen abgeleitet, sondern können auch aus Daten
Bottom-up abgeleitet und entwickelt werden. Dazu dient die interaktive Analytik. Hier wurden
bisher zumeist traditionelle BI-Werkzeuge eingesetzt (Adhoc-Abfragewerkzeuge, OLAP,
statistische Werkzeuge, Data und Text Mining, Textanalytik. etc.), die jetzt aber auf der
Datenintegrationsplattform arbeiten. Weite Verbreitung hat vor allem die interaktive Analyse
per OLAP gefunden.
Definition: OLAP (online analytical processing) ist eine Methode innerhalb der Analytik,
die schnelle und interaktive Zugriffe auf relevante Information ermöglicht. Es bietet
insbesondere komplexe Analysefunktionen, die sich durch Multidimensionalität auszeichnen.
Das bedeutet die Anordnung der verschiedenen Metriken (Kennzahlen) entlang
unterschiedlicher Dimensionen, beispielsweise Umsatz in Bezug auf Kunde, Produkt,
Region, Berichtsperiode etc.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 66
Zu weiteren Details zu OLAP verweisen wir auf Nigel Pendse’s Webseite „What is OLAP“16.
Data und Text Mining sowie Textanalytik behandeln wir in den Kapiteln 5.4,
beziehungsweise 5.5.
Die traditionellen BI-Werkzeuge zur interaktiven Analytik haben allerdings nicht die
Akzeptanz gefunden, die man erwartet hatte. Ihr Einsatz erforderte Experten, die mit den
Werkzeugen erst nach entsprechendem Training umgehen konnten. Denn diese
traditionellen BI-Werkzeuge hatten in der Regel die in der BI-Mängelliste (vgl. Kap. 2.1)
aufgeführten Fehler. Konsequenterweise wurden sie meist nicht genutzt. Als Ersatzwerkzeug
– man brauchte ja eine gewisse Analytik – diente dann das Spreadsheet. Wenn
Spreadsheets mit individueller Datenhaltung im Unternehmen eingesetzt wurden, dann verlor
sich schnell die Datenkonsistenz, Datenchaos stellte sich ein, und die Daten-Grundlage für
Compliance war nicht mehr gegeben. (Abb. 19)
Traditionelle BI: Analytik-Mängel
Analytische
Applikationen
“Advanced
Analytics”
Portalindividuell, aber
inflexibel & IT-
gesteuert
mächtig,
aber zu
komplex
fehlender
Fokus auf
das Team
Das Risiko
in der Lücke
STraditionelle BI
war bei weitem
nicht immer
erfolgreich.
die
Realität
© 2012 S.A.R.L. Martin19
Abbildung 19: Analytik mittels traditioneller BI-Werkzeuge fand nicht die erwartete Akzeptanz in den Unternehmen. Traditionellen Portalen fehlte der Fokus auf Team-Arbeit und Team-Entscheidungen. Traditionelle analytische Applikationen waren IT-Applikationen, mit denen die Fachabteilungen keine Agilität erreichten und in der Abhängigkeit von der IT blieben. Die fortgeschrittene mathematische und statistische Analytik war dem normalen BI-Nutzer voll verschlossen weil zu komplex. Als Ersatz etablierte sich das Spreadsheet. Eine Nutzung von Spreadsheets mit Datenhaltung im Unternehmen stellt aber ein großes Risiko dar, da jetzt Datenkonsistenz nicht mehr garantiert werden kann.
Mit dem Aufkommen von neuen analytischen Werkzeugen, die insbesondere
Visualisierungstechniken einsetzen, ändert sich diese Situation grundlegend. Man spricht
jetzt von interaktiver visueller Analytik oder Data Discovery.
16
siehe http://www.bi-verdict.com/fileadmin/FreeAnalyses/fasmi.htm
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 67
Unter Data Discovery versteht man eine neue Generation von Business Intelligence(BI)-
Werkzeugen, die sich durch außerordentliche Benutzerfreundlichkeit und Flexibilität
auszeichnen. Dazu kommt die Verwendung von In Memory-Technologien, die intern zur
Speicherung und Verarbeitung genutzt werden. Der große Vorteil der In Memory-
Technologie ist die Performance: Daher sind Data Discovery-Werkzeuge insbesondere zur
Big Data-Analytik geeignet.
Data Discovery-Werkzeuge setzen auf Visualisierung, interaktive, intuitive Analyse,
Kollaboration und Autonomie der Endanwender. Interaktive Visualisierung unterstützt mittels
Intuition das menschliche Auge und macht es zum Detektor von Strukturen. So werden die
Stärken des menschlichen Auges kombiniert mit
Visualisierungs-Services, die unterschiedliche Aspekte von Daten und Information gleichzeitig darstellen,
Drill-down per Mausklick und dynamischen Adhoc-Abfragen,
statistischen Methoden und Techniken,
konfigurierbarem und dynamischem Zugriff auf alle relevanten Datenquellen („Mashing-up“).
Interaktive Visualisierung besticht im wahrsten Sinne des Wortes durch Interaktivität und
Visualisierung. Die Anwender von Data Discovery-Werkzeugen können auf zentrale Daten
via Client-Server, Web-Browser oder über Apps mittels mobiler Geräte wie Tablets zugreifen,
die ja zur Visualisierung konzipiert wurden. Im mobilen Internet kann man für jede konkrete
Aufgabenstellung eine eigene App erstellen, die dann ganz gezielt auf einen
Geschäftsprozess zugeschnitten ist und direkt zu entsprechenden Arbeitsschritten führt. Mit
Visualisierungswerkzeugen auf Tablet-Rechnern ist der Durchbruch geschafft: Analytische
Werkzeuge werden jetzt nicht nur akzeptiert, sondern schaffen sogar Begeisterung bei den
Nutzern.
Die Gestaltung der Anwendung erfolgt hauptsächlich an der Benutzeroberfläche und kann
auch durch die Nutzer selbst vorgenommen werden. Hier hat sich auch der Begriff
„Selbstbedienungs(self-service)-BI“ gebildet. Die Nutzer dieser Werkzeuge erhalten eine
hohe Autonomie, und die Rolle der IT entwickelt sich in Richtung eines Service-Anbieters,
der die Plattform für Selbstbedienungs-BI bereitstellt, betreibt und auch die notwendige
Beratung zur Nutzung leistet.
Weiterhin ist im Data Discovery eine deutlich bessere Teamunterstützung als mit den
traditionellen BI-Werkzeugen möglich. So können die Anwendungen via Web, E-Mail oder
Social Media-Werkzeugen mit Geschäftspartnern ausgetauscht sowie in Office- oder andere
Anwendungen eingebunden werden. Diese kollaborativen Aspekte gehen noch weiter: Es
können Bemerkungen zu den Daten an Sichten gekoppelt und mit anderen Anwender geteilt
werden. (Abb. 20) Wir hatten diese Entwicklung bereits im Rahmen der BI-
Kompetenzzentren (Kap. 3.4) aufgezeigt.
Echtzeit-Analytik – Interaktive Analytik ist typischerweise ein von Menschen getriebener
Prozess. Wenn die zu analysierenden Datenvolumen groß sind, beispielsweise bei Analysen
im Big Data, dann ist nicht der Mensch der Engpass in einem solchen Prozess, sondern es
waren wieder die traditionellen BI-Werkzeuge, die nicht die ausreichende Performance und
Skalierbarkeit hatten. Hier hat man beim Data Discovery mit Echtzeit-Analytik Abhilfe
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 68
geschaffen. Dabei ist der Begriff Echtzeit-Analytik im Data Discovery leider unglücklich
gewählt, denn man meint nicht „Analyse in Echtzeit“, sondern eine Analyse, die auch bei
Großen und sehr großen Datenmengen in Interaktionsgeschwindigkeit Ergebnisse liefert. Es
geht also um das Beschleunigen von analytischen Aufgaben. Dabei gibt es prinzipiell drei
Möglichkeiten, Analytik zu beschleunigen, wobei diese auf unterschiedliche Weise
miteinander kombiniert werden können.
Interaktive Analytik: Data Discovery
Analytische
Services
Statistik, Mining,
künstliche Intelligenz
Search &
Kollaborationflexibel &
Nutzer-gesteuert,
“mash ups”
interaktiv,
intuitiv,
visuell
Entscheidungen
im Team
S
Data
Discoverybesser, eleganter,
benutzergetriebenEnterprise 2.0
Mobil
social
media-Stil,
intuitiv
© 2012 S.A.R.L. Martin20
Abbildung 20: Interaktive Analytik heute erlaubt aufgrund der Kombination von social media Kollaborationswerkzeugen und Visualisierungstechniken sowie einer service-orientierten Architektur als Infrastruktur ein Data Discovery, das im Sinne von „self-service BI“ durch die Fachabteilungen weitgehend selbstständig und durch ein BI-Kompetenzzentrum unterstützt betrieben werden kann. Hinzu kommen die allgegenwärtige Nutzung von Information im mobilen Internet und der Einsatz von visuell-konzipierten Tablett-Rechnern. So wird das „daten-getriebene“ Unternehmen Realität.
Spezielle Datenbanktechnologien: Man setzt spezielle Datenbanktechnologie wie
Komprimierung, Indexierung, Vektor-Verarbeitung, speicherbasiertes Caching usw. ein,
um die Performance von Adhoc-Abfragen und anderen Business Intelligence-
Komponenten bzw. -Werkzeugen drastisch zu verbessern. So werden die Data
Discovery-Prozesse durch schnellere Antwortzeiten (von Stunden auf Minuten und
Sekunden) deutlich beschleunigt.
„In-Memory“-Verarbeitung: Man nutzt „In-Memory“-Verarbeitung. Hierbei wird die
gesamte zu analysierende Datenmenge im Speicher verarbeitet. Dadurch kann eine
bessere Leistung erzielt werden als dies mit Datenbanktechnologien möglich ist, bei
denen Daten noch immer physikalisch gespeichert werden. Hier wird auch besonders der
64 bit Adressraum genutzt.
Spezielle Algorithmen: Man nutzt zum Lesen und Verarbeiten von Daten spezielle
Algorithmen, die die Beschränkungen von herkömmlichen SQL- und OLAP-Technologien
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 69
überwinden. Ein Beispiel dazu ist das von Google vorgeschlagene MapReduce-
Verfahren zur verteilten Verarbeitung als Programmierung-Umgebung und -Modell, das
Bestandteil von Hadoop ist. Viele Anbieter kombinieren diese Ansätze mit den oben
genannten speziellen Datenbank-Technologien.
Mehr hierzu finden Sie in Kap. 7 und entsprechende Anbieter werden in den Kapiteln 9.3 bis
9.5 aufgelistet.
5.3 Web-Analyse
Web-Analyse meint die Anwendung von Performance Management und Analytik auf das
Nutzen von und Verhalten auf Webseiten durch die Besucher („Internauten“). Hier geht es
um Fragen wie:
„Wie viele Besucher habe ich in welchem Zeitraum“,
„Welche Bereiche werden wie oft aufgesucht und in welcher Reihenfolge“,
„Woher kommen und wohin gehen die Besucher“ etc.
Das Ziel ist klar: Die Webseite soll optimiert werden, und es soll sichergestellt werden, dass
die Ziele der Webseite wie Steigerung der Besuche und der Verweildauer, Steigerung von
Downloads, Newsletter-Abonnements und Bestellungen gemessen werden und Maßnahmen
rechtzeitig eingeleitet werden können, um solche Zielerreichungen auch sicher zu stellen
ganz im Sinne von Performance Management. Insofern ist Web-Analyse ein wichtiges
Instrument zur Investitionssicherung. Die Kontrolle des Besucherverhaltens kann in
Verbindung mit der Weiterentwicklung der eigenen Strategie im Internet den Webauftritt und
dessen Effizienz zielgerichtet deutlich verbessern. Daher findet man in der Literatur auch den
synonymen Begriff „Web-Controlling“.
Bei der Web-Analyse wird zwischen zwei Verfahren unterschieden: Das Management der
Performance der Homepage zur kontinuierlichen Messung und Überwachung der Effektivität
einer Homepage und verschiedene Analysemethoden zur Identifikation von möglichen
Schwächen auf der Seite, um Gegenmaßnahmen im Sinne einer Optimierung der
Homepage einleiten zu können. Web-Analyse gliedert sich also wieder in ein Performance
Management und die Analytik.
Beim Performance Management geht es jetzt wieder um die Definition der richtigen Metriken,
die dann in Berichten oder Scorecards dargestellt werden. Typisch sind hier Verlauf des
Umsatzes über das Jahr, die Anzahl der Besucher der Homepage, die Anzahl der Besucher,
die etwas in den Warenkorb legen, die Anzahl der Besucher, die den Kaufprozess
abschließen, der durchschnittliche Warenkorbwert, die Kosten pro Kampagne, die
Wirksamkeit einzelner Werbemittel wie Banner oder Newsletter etc.
Bei der Analytik setzt man verschiedene Szenarien ein. Pfad-Analysen dienen dem
Entdecken von besonders beliebten und unbeliebten Abschnitten auf einer Homepage.
Segmentierungen unterstützen das Identifizieren und Klassifizieren von Besuchergruppen
(beispielsweise Besucher von Suchmaschine X im Vergleich zu Besuchern von
Suchmaschine Y). Konversionspfade helfen bei der Messung und Optimierung von
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 70
definierten, wichtigen Seitenabfolgen in der Homepage. Start- oder Landing Pages werden
durch Testen von Änderungen und ihren Auswirkungen auf das Click- und
Konversionsverhalten iterativ optimiert. Ähnlich geht man bei der Suchmaschinen-
Optimierung vor: Ein höheres Ranking der eigenen Homepage bei den gängigen
Suchmaschinen sollte sich in einer Steigerung der Anzahl der Besucher messen lassen.
Typischerweise werden für Web-Analyse entweder die Logdateien der Webserver
ausgewertet oder bestimmte Tags in der Homepage zur Datengewinnung genutzt. Neben
diesen beiden Verfahren existieren noch weitere wie die Web-Server Plug-Ins oder Netzwerk
Sniffer. Um einen einzelnen Seitenaufruf einer Sitzung und eine Sitzung einem eventuell
wiederkehrenden Besucher zuordnen zu können, werden in der Regel Cookies eingesetzt,
die aber von vielen Besuchern sehr kritisch gesehen werden. Hier bewegt man sich auf
einem sehr schmalen Grat zwischen der Anonymität und dem Schutz der Persönlichkeit der
Besucher und dem Interesse des Homepage-Betreibers, seine Kunden im Sinne von
Kundenorientierung zu kennen und das Wissen über seine Kunden in seinem Sinne
einzusetzen. Heute ist in der Rechtsprechung noch offen, ob IP-Adressen als
personenbezogene Daten angesehen werden. Daher sollte bei allen Fragen der Web-
Analyse der Datenschutzbeauftragte immer gehört werden.
Eine Auswahl der gängigen Web-Analyse-Werkzeuge befindet sich im Kapitel 9.4.
Fazit: Eine Web-Analyse ist im Endeffekt ein wichtiges Element von Kundenorientierung. Es
ermöglicht Kundenwünsche besser zu verstehen, das Marketing zu optimieren, die Umsätze
zu steigern und Betrugsfälle (Klickbetrug, Affiliate Hopping) zu vermeiden. Aber Achtung:
Die Nutzung dieser Daten unterliegt den Datenschutzbestimmungen, wobei heute offen ist,
inwieweit die Daten auch als personenbezogene Daten zu verstehen sind. Eine Klärung ist
aber hier bald zu erwarten.
5.4 Trends im Data Mining
Definition: Data Mining ist definiert als ein Prozess zur Identifizierung und/oder Extraktion
vorher unbekannter, nicht-trivialer, unerwarteter und wichtiger Information aus großen bis
sehr großen Mengen von (strukturierten) Daten.
Data Mining wird als die eigentlich wirklich “intelligente” Methode und Technologie der
Analytik angesehen. Es ist ein “Bottom-up”-Ansatz zum Entdecken von Mustern, Strukturen
und Zusammenhängen, um Hypothesen zu bilden. Data Mining hat seit Mitte der 90er Jahre
einen festen Platz unter den Instrumenten der Kundenansprache gefunden. Data Mining
spielt aber nicht nur im CRM eine Rolle, sondern hat heute einen festen Platz in vielen
Bereichen eines Unternehmens wie in Produktions-Überwachung und Steuerung, Risiko-
Management, Missbrauchsentdeckung, Geldwäsche etc. Eine Vorläufer-Funktion hatten
statistische Werkzeuge, die aber auch heute immer noch Anwendung finden und den Einsatz
von Data Mining in der Regel vorbereiten oder ergänzen. Data Mining auf unstrukturierten
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 71
Daten wird als Text Mining bezeichnet. Die folgenden Ausführungen zum Data Mining
übertragen sich entsprechend auf Text Mining.
© 2012 S.A.R.L. Martin21
VSAM
SAP
DB2
Dynamische
Data Marts
operative Systeme
Datenexploration
DW
ModellbildungOracle
Menschen
und/oder Prozesse
Modellnutzung
PMML
Web Services
Der Data Mining-Prozess
Date
nin
teg
rati
on
Echtzeit
Modell-
Management
Demo- und sozio-
graphische Daten
Web-Daten
Social Media
Mikrogeographische
Daten
Abbildung 21: Am Data Mining-Prozess lassen sich gut die heutigen Herausforderungen an Data und Text Mining ablesen. Links: Die Datenbereitstellung sollte per Datenintegrationsplattform erfolgen. Das (sehr) große Datenvolumen erfordert eine hohe Performanz und Skalierbarkeit der Algorithmen sowie die Handhabung von bis zu tausenden von Variablen. Rechts: Modellbildung und Modellnutzung wurden ursprünglich getrennt, wachsen aber jetzt unter Echtzeitanforderungen zusammen und werden zum Closed-loop, der durch Performance Management gesteuert werden sollte. Die Modellnutzung erfolgt in der Regel durch Einbettung in operative SOA-basierte Prozesse. Modelle arbeiten zudem wirkungsvoller, wenn sie auf die Problemstellung granular eingestellt werden können. Das erfordert die Erstellung von bis zu hunderten von Modellen in wenigen Tagen. Die Menge an Modellen macht ein Modell-Management wichtiger denn je.
Zum Data Mining gehört eine Methodologie, die den iterativen, von der Fachabteilung
getriebenen Data Mining-Prozess beschreibt plus der Werkzeuge, die den Prozess
unterstützen. (Abb. 21)
Die erste Phase des Data Mining-Prozesses ist die Datenbereitstellung. Ohne Daten kein
Data Mining, das klingt trivial, aber: 60 bis 80 % aller Aufwendungen im Data Mining stecken
in der Verfügbarkeit, Erreichbarkeit und der Qualität der Daten fürs Data Mining (siehe dazu
auch Kap. 6). Die Automatisierung der Datenbereitstellung ist immer noch eine der großen
Herausforderungen im Data Mining. Das liegt zum Teil auch an der Explosion der
Datenvolumen. Beispielsweise hatte 2007 Yahoo! im Durchschnitt 425 Millionen Besucher im
Monat, die pro Tag 10 TB Daten produzierten. Das sind natürlich nicht alles strukturierte
Daten, aber ein Mining sollte sich nicht auf die Exploration strukturierter Daten beschränken.
Wesentliche Information lässt sich per Text Mining und Textanalytik (vgl. Kap. 5.5) aus
unstrukturierten Daten gewinnen, aus Textdokumenten oder aus den Nutzungsdaten von
Kunden im Web oder in sozialen Netzen (Web 2.0). Im Supply Chain-Bereich explodieren die
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 72
Datenvolumen besonders aufgrund von RFID-Technologien zur Verfolgung und
Registrierung.
Die Anforderungen an Data Mining-Algorithmen sind also hohe Performanz, da sehr große
Datenmengen zu bewältigen sind, und Verarbeiten von auch Tausenden und mehr Variablen
aufgrund der Datenvielfalt.
Die zweite Phase beschreibt die Auswahl der Methoden, Techniken und Werkzeuge. Data
Mining kennt verschiedene Methoden zur Lösung betriebswirtschaftlicher Aufgaben:
Klassifikation: Mit dieser Methode versucht man ein neues Objekt in vorgegebene
Klassen einzuordnen. Einem Datensatz wird also als neues Attribut die
Klassenzugehörigkeit zugeordnet. Typische Beispiele sind die Klassifizierung von
Kreditanträgen in Risikoklassen oder die Zuordnung von Kunden in Kundensegmente.
Schätzung: Klassifikation behandelt diskretes Auskommen, im Prinzip ein „ja“ oder
„nein“. Schätzung behandelt dagegen kontinuierliches Auskommen. Die Aufgabe ist, auf
Basis von Eingangsparametern eine Ausgangsgröße schätzen. Typisches Beispiel ist ein
Scoring mit dem die Wahrscheinlichkeit ausgedrückt wird, dass ein Kunde auf ein
Angebot mit Kauf reagieren wird oder ein Abonnement kündigen wird.
Vorhersage: Hier werden Modelle abgeleitet, die die Datenstrukturen sequentiell
beschreiben, um zeitliche Vorhersagen zu machen. Beispiel hierzu sind
Zeitreihenmodelle im Finanzwesen wie Vorhersage von Börsenkursen etc. Hier geht es
auch um das Aufdecken zeitlicher Abfolgen als Grundmuster im Kaufverhalten.
Typisches Beispiel aus dem Handelsbereich ist das Aufdecken von Folgekäufen.
Assoziationsanalyse: Mit dieser Methode werden Beziehungen zwischen
unterschiedlichen Elementen einer Kategorie ermittelt. Typisches Beispiel sind
Warenkorbanalysen im Handelsbereich, wobei statistische Zusammenhänge zwischen
Produkten aufgedeckt werden. Das erlaubt beispielsweise die Identifizierung von Ko-
Produkten für Cross-Selling-Ansätze.
Clustering/Mustererkennung: Diese Methode dient der Zusammenfassung von
Objekten zu disjunkten Klassen auf Basis von Ähnlichkeitsmassen. Beispiel hierzu ist die
Ableitung eines Tarif/Preissystems durch Analyse des kundenspezifischen
Verkehrsverhaltens im Telefon-Netz oder durch Analyse des Schadensverhaltens in der
Kraftfahrzeugversicherung.
Beschreibende Modelle: Hier sollen Zusammenhänge zwischen den Variablen
aufgedeckt und beschrieben werden. Das ermöglicht auch, Erklärungen für bestimmte
Verhaltensweisen zu finden.
Klassifikation, Schätzung und Vorhersage gehören zum zielgerichteten Data Mining. Die
Aufgabe ist, ein Modell zu bilden, das aus den Eingangsvariablen Ausgangsvariablen
bestimmt. Assoziationsanalyse, Clustering und beschreibende Modelle dagegen gehören
zum nicht zielgerichteten Data Mining. Hier gibt es um die Ableitung von Beziehungen
zwischen den Variablen.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 73
Abbildung 22. Moderne Werkzeuge für Datenanalysen und Data Mining wie hier die Auto-Cluster-Funktion des SPSS PASW Modeler 13 erlauben es, datenbasierte Entscheidungsmodelle mit unterschiedlichen statistischen Verfahren zu berechnen und deren prognostische Fähigkeiten miteinander zu vergleichen. Hat man sich für ein geeignetes Modell oder Modellensemble entschieden, wenden diese Werkzeuge die Regeln automatisch an.
Data Mining-Werkzeuge unterstützen diese Methoden durch verschiedene Techniken. Das
sind zum einen mathematisch-statistische Verfahren, wie General Linear Analysis,
Diskriminanz-Analyse, Regressionsanalyse, Korrelationsanalyse etc., und zum anderen
Verfahren, die aus der informationstheoretischen Kybernetik stammen wie neuronale Netze,
Entscheidungsbäume, Induktionsregeln, Self-Organizing Maps (SOM), Support-Vektor-
Verfahren, Fuzzy-Logik und wissensbasierende Systeme. Wichtig sind
Visualisierungsverfahren zur Unterstützung, denn bei aller Mathematik, Statistik und
Informationstheorie ist das menschliche Auge ein gleichwertiger Detektor, wenn man
Strukturen adäquat darstellen kann.
Die Frage ist nun, mit welcher Data Mining-Technik man welche Methode unterstützt. Hier
gibt es aber keine Eins-zu-eins-Zuordnung. Natürlich gibt es gewisse auf Erfahrung
beruhende Regeln, die hilfreich sind, die richtige Data Mining-Technik als Lösungsmethode
zu wählen, aber diese Regeln sind als heuristisch zu verstehen. Zur Problemlösung zieht
man in der Regel verschiedene Techniken heran, um die Ergebnisse mittels Assessment
miteinander vergleichen zu können (Abb. 22).
Die dritte Phase beschreibt die Entwicklung des Data Mining-Modells und die Interpretation
der Ergebnisse. Trotz deutlicher Fortschritte bei den Data Mining Werkzeugen bleibt hier
eine Beratung und ein Einsatz von Spezialisten vielfach erforderlich. Insofern ist diese Phase
iterativ: Der Data Mining-Experte leitet das Modell ab und verfeinert es in enger
Rückkopplung mit dem das Projekt führenden Fachbereich. Die Verantwortung des
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 74
Fachbereiches ist die Interpretation der Ergebnisse und das Prüfen auf fachrelevante
Verwendbarkeit und Einsetzbarkeit. Die Data Mining-Vorgehensweise sollte als
Methodologie dokumentiert sein, visuell unterstützt sein (Abb. 23) und der resultierende
Data Mining-Prozess sollte am besten ein SOA-basierter Prozess sein.
Abbildung 23: Modellierung von Data Mining-Prozessen, hier als Beispiel die Visualisierung des Teilprozesses „create data mart“ bei Viscovery.
Bisher dauerte die Modellbildung mehrere Tage bis zu Wochen. Dadurch war man in der
Anzahl der einsetzbaren Modelle beschränkt. Konsequenterweise wurden dann
Aufgabenstellungen zu Gruppen zusammengefasst und alle Gruppenelemente mit einem
Data Mining-Modell bearbeitet. Besser ist es natürlich, wenn man Modelle schneller
erzeugen kann, so dass jedes Modell feiner gemacht werden kann.
Beispiel: Ein Clustering-Modell für eine Kundensegmentierung erstellt für ganz
Deutschland ist zwar gut, wenn wir aber ein Modell pro Bundesland oder pro
Regierungsbezirk erstellen können, dann haben wir in der Regel ein feineres Modell,
da es die regionalen Unterschiede in der Demographie besser herausarbeitet und so
nachweislich bessere Ergebnisse liefert. Das bedeutet jetzt, dass wir in der Lage sein
müssen, eine große Zahl von Modellen in der gleichen Zeit zu erstellen. Wenn wir
jetzt noch die zeitliche Dimension des Modells betrachten, vergrößert sich die Anzahl
der zu entwickelten Modelle nochmals. Modelle ändern sich nämlich in der Regel
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 75
über die Zeit. Ein Modell zu Ostern kann ganz anders aussehen als eins zu
Weihnachten oder in der Ferienzeit oder wenn ein Mitbewerber eine Kampagne fährt.
Die Anforderung ist also, in einem vorgegeben Zeitfenster (1 bis 2 Tage) viele
(hunderte und mehr) Modelle zu erstellen.
Die große Zahl von Modellen gilt es jetzt zu managen. Ein Data Mining-Modell-Management
war zwar schon immer erforderlich, aber bei den großen Zahlen von Modellen, die heute
zum Einsatz kommen, ist das Modell-Management wichtiger denn je.
Die vierte Phase beschreibt den Einsatz des prädiktiven Modells in einem operativen
Prozess. Bisher waren der Data Mining-Modellierungsprozess und der Einsatz des
abgeleiteten prädiktiven Modells strikt voneinander getrennt. Die Einbettung des prädiktiven
Modells geschieht heutzutage per (Web) Service in den entsprechenden SOA-basierten
Prozess. Wenn die Modellierung aber immer noch off-line erfolgt, haben wir mitunter ein
Problem: Man weiß nicht, ob nach einiger Zeit das im operativen Prozess eingesetzte
prädiktive Modell noch gültig ist, wie wir im Beispiel oben schon beschrieben haben. Es
genügt also nicht, die prädiktiven Modelle einmal oder regelmäßig abzuleiten, sondern man
muss auch sicherstellen, dass das prädiktive Modell selbst dynamisch den Kontext des
Prozesses abbildet: Es muss à jour sein.
Dazu setzt man ein Modellmanagement ein, das den Prozess der Modellbildung mit dem
operativen Prozess, der das Modell nutzt, per Closed-loop zusammenschließt. Hier sind
robuste oder adaptive Algorithmen hilfreich.
Robuste Algorithmen sind in der Lage, die Präzision der Prädiktion bei jeder Interaktion
zu messen. So kann man entdecken, wenn eine Modelländerung oder Anpassung
notwendig wird. Damit kann man einen (semi-)automatisierten Prozess aufbauen, der
das Re-Modellieren des prädiktiven Modells automatisch triggert, also beispielsweise
eine Benachrichtigung an den Data Mining-Spezialisten sendet.
Adaptive prädiktive Modelle sind selbst lernend und liefern im Kontext des
Prozessdatenmodells immer aktuelle Prognosen. Mit diesen automatisierten und
dynamischen Data Mining-Lösungen lassen sich Prognosen über beliebige Aspekte von
Kunden erstellen, zum Beispiel über die Churn-Gefahr, den Kundenwert oder auch die
Umsatzerwartung. Solche Lösungen sind auch zur dynamischen Cross- und Up-Selling-
Prognose in Prozessen mit sehr kurzen Reaktionszeiten einsetzbar, wie etwa im
Telefonmarketing oder auch im E-Commerce. Positive Erfahrungen mit dynamischem
Data Mining hat bereits der Versandhändler Quelle GmbH zur Optimierung seiner
Telephonmarketing-Aktionen gemacht.
Schließlich muss der Data Mining-Prozess wie jeder andere Prozess auch ein Performanz-
Management haben. Es gilt also im Prozess die Messstellen zu definieren, die Metriken zu
entwickeln und den Data Mining-Prozess genau wie jeden anderen Prozess per Closed-loop-
Ansatz zu überwachen und zu steuern.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 76
Zum Schluss noch ein wichtiger Leitsatz, der für alle Data Mining-Aufgaben gilt: Die
Präzision der Ergebnisse als auch die mathematische Eleganz bestimmter Data Mining
Techniken sollten weniger wichtig bewertet werden, als die Geschwindigkeit, mit der
Ergebnisse erzielt werden können.
5.5 Textanalytik
Textanalytik ist eine neue Klasse von Analytik17, die linguistische Verfahren mit
Suchmaschinen, Text Mining, Data Mining und Algorithmen des maschinellen Lernens
verbindet. Treiber für Textanalytik sind insbesondere das Big Data und die sozialen Medien.
Die Nutzer von Facebook, Xing, LinkedIn oder anderen Netzgemeinschaften („Social
Web“) zählen nach Hunderten von Millionen. Ihre Anzahl wächst beständig. Dazu
kommen die vielen, meist spezialisierten Blogs und Foren. Nicht zu vergessen sind
Plattformen wie Twitter, die ein Miniblogging erlauben. Das unterstreicht die
Attraktivität des Web 2.0, des Mitmach-Webs, bei dem jeder Surfer mitmachen und
seine Meinungen, Stimmungen und Vorlieben mitteilen kann. Der Marktforscher, der
Produktmanager und jeder im Marketing sieht aber noch etwas ganz Anderes: die
neue Dimension an Daten über aktuelle und zukünftige Kunden, über Potenziale,
Stimmungen, und Trends im Markt.
Denn jeder Internaut kann jetzt in den Social Media auch seine persönlichen Daten
mit allen anderen teilen. Das Teilen und Teilhaben lassen ist in den Social Media der
große Renner. Mitunter meint man, man hat es in den Netzgemeinschaften mit
„digitalen Exhibitionisten“ zu tun: So freizügig werden persönliche und ganz
persönliche Daten eingestellt. Das ergibt für die Marketer in den Unternehmen einen
wahren Schatz an Information, den es nur noch zu heben gilt.
Vor einigen Jahren haben schon Unternehmen aus der Telekommunikation begonnen,
Web-Daten systematisch auszuwerten. Inzwischen sind nicht nur Banken und
Versicherungen hinzugekommen, sondern auch Händler und Konsumgüterhersteller machen
das – aber niemand spricht gerne darüber. Man will seinen Kunden nicht gerne sagen, dass
man inzwischen eine nahezu gläserne Transparenz geschaffen hat. Der Nutzen dieser
Transparenz durch Web-Daten liegt auf der Hand: Ein Hersteller von Konsumgütern will
beispielsweise wissen, wie Konsumenten sein Angebot und/oder das Angebot seiner
Mitbewerber in den einschlägigen Blogs diskutieren. Oder eine Hotelkette interessiert sich für
das elektronische Feedback ihrer Gäste und/oder für die Bewertungen der Mitbewerber.
Alles wird möglich, wenn all diese Daten zugreifbar und auswertbar werden. (Abb. 24)
Als erstes braucht man dazu einen „Staubsauger“, der die relevanten Daten aus dem Web
im wahrsten Sinne des Wortes absaugt. Das leisten heute die semantischen Web-Crawler.
Diese Technologie zur Webextraktion erlaubt, alle öffentlichen Daten im Web zu lesen und
zu extrahieren, auch wenn es keine publizierten Schnittstellen geben sollte. Wir beschreiben
diese Technologien in Kap. 6.4.
17
Quelle und weitere Infos : http://www.intelligententerprise.com/blog/archives/2007/02/defining_text_a.html
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 77
24 © 2012 S.A.R.L. Martin
Textanalytik und Prozesse
kollaborativer Geschäftsprozess
Composite/Mashed Application
Text-
Analytik
Textanalytik-
Modelle
Dynamischer Datenzugriff
Regel-Maschine
Datenintegration
(Web) Services
Externe/Web-
DatenOperative
Daten
Data
WarehouseFiles, XML,
SpreadsheetsEvents &
Services
Abbildung 24: Der Textanalytik-Prozess zur Modellbildung beginnt mit der Datenbereitstellung, die über dynamische, service-orientierte Datenzugriffe auf alle verfügbaren Datenquellen per Datenintegrationsplattform erfolgen sollte. Das (sehr) große Datenvolumen („Big Data“) erfordert eine hohe Performanz und Skalierbarkeit der Algorithmen sowie die Handhabung von bis zu tausenden von Variablen. Die Modellnutzung erfolgt idealerweise durch die Einbettung des abgeleiteten Textanalytik-Modells mittels einer Regelmaschine in die relevanten Geschäftsprozesse. Das ist dann besonders schnell und flexibel möglich, wenn eine service-orientierte Architektur vorliegt (mittels Rule-Services, siehe Kap. 4.3). So erhalten wir durch Textanalytik angereicherte intelligente Prozesse. Beispielsweise kann jetzt ein Kunde einem sozialen Profil zugeordnet werden und so ein sehr gezielte Kaufempfehlung ausgesprochen werden.
Jetzt kommt es auf die Analyse an. Die klassischen Verfahren aus Statistik und Data Mining
greifen hier aber zu kurz, da Web-Daten in der Regel unstrukturiert, bestenfalls semi-
strukturiert sind. Die neuen Anforderungen, Web-Daten zu analysieren, hat eine neue Klasse
analytischer Werkzeuge und Verfahren in den Fokus des Managements gebracht: die
Textanalytik („text analytics“). Die Anforderungen der Social Media-Daten an die Analyse-
Werkzeuge sind hoch. In den sozialen Medien findet man viel Zynismus, Sarkasmus und
Polemik. Dazu kommt noch eine semantische Armut in den 140-Zeichen Tweets.
Da gut 80% aller Daten im Unternehmen nicht in Datenbanken gespeichert sind, sondern in
Form von E-Mail und Dokumenten in unstrukturierter Form vorliegen, eignet sich Textanalytik
nicht nur zur Analyse von Web-Daten, sondern auch von Unternehmensdaten. Man findet ja
meistens in den E-Mails und in den entsprechenden Dokumenten den Kontext, der zur
richtigen Interpretation von strukturierter Information führt. Insofern leistet die traditionelle
Business Intelligence mit OLAP, Statistik und Data Mining das Erkennen des „was“ im
Unternehmen, während aus den Text-Daten das „wie“ gefolgert werden kann.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 78
Textanalytik ist eine Erweiterung von Analytik, insbesondere von Data Mining und Text
Mining und bringt Analytik ins Content Management und ins World Wide Web.
Textanalytik meint sowohl die Technologie als auch den Prozess zur Wissensentdeckung in
unstrukturierten Daten. Ziel von Textanalytik ist es in einem ersten Schritt, Entitäten
(beispielsweise Namen, Daten, Orte, Bedingungen) und ihre Attribute sowie die
Beziehungen, Konzepte und Stimmungen zwischen Entitäten trennscharf zu identifizieren. In
einem zweiten Schritt lassen sich auf diesen Strukturen Klassifikationen aufbauen und
visualisieren. Ein Beispiel hierzu ist die Identifikation von Meinungsmachern in sozialen
Netzen.
Beispiel: Nehmen wir eine fiktive Telefongesellschaft. Nehmen wir an, dass einer
seiner Mitbewerber einen aggressiven Familienplan anbietet. Der Kundenservice
bekommt auf einmal Nachfragen zu diesem Mitbewerbsangebot. Wie bekommt man
das als das Marketingteam mit? Schnell ist der Kundenservice überfordert. Bis zu
10% aller Anfragen drehen sich um dieses Mitbewerbsprodukt. Berge von Notizen
türmen sich im Kundenservice, vielleicht sogar weltweit. Wenn jetzt die
Telefongesellschaft eine Technologie hätte, um Notizen im Kundenservice
regelmäßig auf auffällige neue Muster zu untersuchen, dann wäre dieser Angriff eines
Mitbewerbers schnell entdeckt und Marketing könnte rechtzeitig reagieren. Mehr
noch, man könnte nicht nur interne Daten so kontinuierlich analysieren, sondern auch
externe wie beispielsweise in sozialen Netzen, wo über neue innovative Technologien
und Produkte gerne diskutiert wird.
Das Beispiel zeigt ein weiteres Einsatzgebiet von Textanalytik: Stimmungsanalysen.
Automatische Stimmungsanalyse („Sentiment Analysis, Opinion Mining“) aus Web Blogs,
Diskussionsforen und Produktbewertungen setzen bereits führende europäische
Marktforschungsunternehmen ein. Ziel ist es, im Rahmen der Online-Marktforschung
automatisch Stimmungsbilder über Produkte und/oder Unternehmen ihrer Kunden zu
erstellen wie beispielsweise zur Analyse von Meinungen zu bestimmten Hotelketten oder
Hotels, zu Consumer-Produkten wie Waschmitteln oder über technische Produkte wie
Mobiltelefone. Der jeweilige Hersteller bekommt dabei nicht nur Stimmungsbilder zu seinen
Produkten, sondern auch den Vergleich zu anderen Produkten von Wettbewerbern und die
Kennzahlen zum Controlling der Effektivität und Effizienz von Marketing-Maßnahmen sowie
Empfehlungen für bestimmte Marketingmaßnahmen. Gerade die Möglichkeiten von multi-
lingualen Analysen erlauben heute auch globale Analysen, wie beispielsweise eine Marke in
verschiedenen Ländern wahrgenommen wird.
Automatische Stimmungsbeobachtung spielt auch in der Pharmaindustrie eine Rolle, unter
anderem zur Stimmungsanalyse zu neuen Medikamenten, auch zur
Wettbewerbsbeobachtung und zum Monitoring des Ansehens eines Pharma-Unternehmens
selbst. Im Finanzbereich wird automatische Stimmungsanalyse eingesetzt, um in Texten
ausgedrückte Stimmungen/Meinungen zu bestimmten Wertpapieren/Aktien automatisiert zu
erkennen. Gute/schlechte Meinungen entsprechen dann beispielsweise Kaufs- bzw.
Verkaufsempfehlungen. Stimmungsanalysen werden auch schon in der Politik angewendet,
beispielsweise 2008 im Präsidentschaftswahlkampf in den USA.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 79
Textanalytik ist auch erfolgreich, wenn es um das Identifizieren und Abgrenzen von
kritischen Kunden, die sehr hilfreich beim Beseitigen von Produktschwachstellen sein
können, von notorischen Nörglern und Besserwissern geht.
Beispiel: BMW arbeitet aktiv mit Blogs. Man hat die Erfahrung gemacht, dass
Kunden in den Blogs zum Teil so positive Meldungen verbreiten, wie man sie als
BMW selbst nie in Werbesprüchen verwenden sollte. (Achtung: Das Gegenbeispiel ist
Sony, die versuchten, Blogs zu manipulieren. Als das bekannt wurde, war der
Schaden groß.) Für die Käufer der M-Modelle hat man die BMW M Power World
geschaffen, ein soziales Netz, bei dem es rund um das sportliche Fahren geht. Hier
werden die Kunden auch eingeladen, sich mit BMW Entwicklern und Designer
auszutauschen. Der Kunde wird zum Produktentwickler – Web 2.0 pur!
BMW hat so eine Web 2.0-Vorwärts-Strategie: Die Möglichkeiten des Web 2.0 sind Teil der
CRM-Strategie. Die Alternative ist eine passive Strategie des Beobachtens ausgewählter
Blogs und Foren per Textanalytik, um kritische Situationen und Stimmungsänderungen
möglichst rechtzeitig mitzubekommen. Das funktioniert zwar, aber die Maßnahmen, die man
im Falle des Falles ergreifen kann, sind beschränkt. Blogeinträge lassen sich nicht löschen,
denn sollte man es wirklich schaffen, einen Blogeintrag per Gerichtsbeschluss zu löschen,
dann taucht der garantiert nicht nur an einer anderen Stelle wieder auf. Das Prinzip „semper
aliquid haeret“ ist in Social Media unerbittlich.
Textanalytik wie jede Analytik sollte stets mit einem Performance Management verbunden
sein ganz im Sinne des bekannten Leitsatzes: Man kann nur managen, was man auch
messen kann. Benötigt werden unter anderem Metriken zur Berechnung der Relevanz von
Quellen und der Vernetzung von Quellen, Scorecards zum Visualisieren und Verdichten der
Monitoring-Ergebnisse und schließlich auch ein Reporting, insbesondere ein Ausnahme-
Reporting, um automatisch Auffälligkeiten in den Social Media wie ein Anstieg von Tags, von
Autoren, von Threads etc. anzuzeigen. Anbieter zu Textanalytik finden Sie im Kapitel 9.4.
Auch wenn Textanalytik-Lösungen dem Namen nach als Komplettlösungen daherkommen,
heißt das nicht, dass diese „Produkte“ out of the box einsatzbereit sind. Textanalytik stellt im
Moment ein arbeitsintensives und sehr lohnendes Feld für Berater dar. Eine individuelle
Beratung ist notwendig, bis einerseits die Unternehmen entsprechende Kenntnisse
aufgebaut haben, und andererseits die Hersteller ihre Tools soweit standardisiert und
parametrisiert haben, dass die Anwender damit aus vordefinierten Bausteinen bestimmte
Klassen von Lösungen erstellen können. Zudem stellt sich auch in der Textanalytik ein
ähnliches Problem wie in Data Mining: Die Interpretation der Ergebnisse erfordert ein tiefes
Fachwissen. Denn mittels mathematischer Verfahren gefundene Strukturen und
Beziehungen sind zwar faktisch richtig, aber solche Fakten müssen nicht unbedingt etwas
mit der realen Welt zu tun haben. Das gilt ganz besonders für gefundene Fakten auf Basis
von Web-Daten, denn Bewertungen können aus Freundschaft erfolgt sein, Meinungen in
Blogs können manipuliert und Profile in sozialen Netzen auch frei erfunden sein. Daher ist es
ganz wichtig, die durch Textanalytik gefundenen Fakten als Hypothesen auf Plausibilität zu
testen. Das ist heute noch in den meisten Fällen dem Menschen/Berater vorbehalten.
Beratung ist aber auch deshalb notwendig, weil wir uns mit Textanalytik in Neuland begeben.
Es fehlen Best Practices für die Prozesse und die Governance. Wie werden beispielsweise
die Web-Daten in die bestehenden Daten integriert? Wie gelangen die relevanten
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 80
Ergebnisse von Textanalytik an die richtigen Personen im Unternehmen? Und Kern-Fragen,
wie man auf bestimmte gefundene Muster und Strukturen reagieren soll, lassen sich heute in
manchen Fällen noch gar nicht beantworten. Hier müssen wir erst noch eine ganze Menge
lernen.
5.6 Location Intelligence – Die Bedeutung des „Wo“
Unter Location Intelligence versteht man die geographische Dimension von Business
Intelligence. Location Intelligence nutzt geographische Daten, die beschreiben „Wo“ sich ein
Kunde, ein Lieferant, ein Partner, ein Unternehmen oder ein Produkt befindet oder eine
Dienstleistung vollbracht wird. Sie beschreibt die Fähigkeiten, komplexe Phänomene zu
verstehen und zu organisieren mittels geographischer Beziehungen, die sich in nahezu jeder
Information befindet wie in Adressen und Routen. 80% der Information im Unternehmen
haben ex- oder implizit etwas mit Ortsangaben, dem „Wo“ zu tun.18 Durch die Kombination
geographischer und raumbezogener Daten mit anderen Business-Daten lassen sich
zusätzliche Einsichten gewinnen, so dass bessere Entscheidungen getroffen und
Geschäftsprozesse optimiert werden können.
Die Vorläufer zu Location Intelligence sind geographische Informationssysteme (GIS). Ein
GIS war in der Regel eine generische, abteilungsbezogene Nischenapplikation, die von
wenigen Experten verstanden und genutzt wurde. Location Intelligence bezieht sich auf das
gesamte Unternehmen und ist prozess- und marktbezogen. Sie adressiert prinzipiell jeden
Mitarbeiter im Unternehmen.
Location Intelligence kombiniert Technologie, Daten und Services mit Fachwissen, um
Organisationen in die Lage zu versetzen, ihre Geschäftsdaten auch räumlich geographisch
zu messen, zu vergleichen, zu visualisieren und zu analysieren.
Mit Location Intelligence verfolgt man das gleiche Ziel wie mit Business Intelligence: Aus
Daten soll Information, aus Information Wissen und aus Wissen sollen Entscheidungen und
Aktionen zur Steuerung des Unternehmens gewonnen werden (Abb. 25). Als Konsequenz
folgt, dass Location Intelligence sowohl bei rein analytischen, dispositiven Fragestellungen
eingesetzt werden kann als auch operativ, sogar in Echtzeit in Geschäftsprozesse
eingebettet werden kann. Daher wird heute Location Intelligence genau wie Analytik per
Services angeboten, um IT-mäßig diese beiden Aufgabenbereiche dispositiv und operativ
gleichermaßen abdecken zu können.
Beispiele für dispositive Location Intelligence sind Netzwerk-Planung und -Design in
Branchen wie Versorgung (Wasser und Elektrizität), Telekommunikation und IT,
Stadt- und Standortplanung und -Analyse (Öffentliche Verwaltung,
Gesundheitswesen, Banken, Handel und Touristik), Risiko-Management
18
Siehe
http://www.intelligententerprise.com/print_article.jhtml;jsessionid=SFANAIHXNPWYMQSNDLOSKH0CJUNN2JVN
?articleID=181503114
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 81
(Versicherungen) und Markt- und Kundenanalysen (alle Branchen im B2C). Beispiele
für operative Location Intelligence findet man vor allem im
Kundenbeziehungsmanagement (Neukundengewinnung, Cross-/Up-Selling und
Kundenbindung) und in vielen Branchen wie Versicherung (Schadensmanagement,
Risiko-Management) und Transport (Pannen- und Rettungsdienste sowie Tracking
und (Echtzeit-)Routen-Management).
Abbildung 25: Daten-Analyse im Positionskontext von Landkarten mit Cubeware Cockpit V6pro: Besonders gut einsetzen lässt sich diese im Vertrieb, um beispielsweise Umsatzvergleiche, Varianten und Zeitreihenanalysen, zeitliche Betrachtung von Betreuungs- und Versandstrukturen sowie Abweichungsanalysen geografisch und gebietsbezogen durchzuführen. Im Screenshot zu sehen ist eine ABC-Analyse interaktiv über die Postleitzonen einer Deutschlandkarte visualisiert. Durch die Karte wird ersichtlich, dass die sich nicht so gut entwickelnden Regionen (Kategorie C der ABC-Analyse) geographisch zusammenhängen.
Wie die Beispiele zeigen, hat operative Location Intelligence vor allem auch ein hohes
Potential bei mobilen Diensten, denn hier kommt es ja ganz besonders auf das „Wo“ an.
Die Datenquellen für Location Intelligence sind vielfältig. Es beginnt bei den eigenen
Kundendaten und geht weiter zu externen Datenquellen wie kunden-demographischen
Daten, Luft- und Satellitenbildern und geographischen Daten. Das unterstreicht die
Bedeutung von Service-Orientierung für Location Intelligence. Das Mashing-up von
Information aus unterschiedlichen Quellen und die Kombination mit anderen Business-Daten
bringen den Mehrwert. Das funktioniert umso besser, wenn die geographische Information
als Web Services oder andere standardisierte Services angeboten werden. Das ist heute in
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 82
der Regel der Fall: Das Nutzen von Location Intelligence als neue Dimension zu Business
Intelligence wird so einfacher und schneller. Der besondere Nutzen, der durch Location
Intelligence erreicht werden kann, wird deutlich, wenn man kundenzentrischen Daten eine
räumliche Koordinate zuordnet, und damit in die Lage versetzt wird, den Kundenstamm
räumlich darzustellen. Allein hierin liegt bereits ein enormes Wertsteigerungspotential.
© 2012 S.A.R.L. Martin26
Location Intelligence Services
Predict
Abbildung 26: Location Intelligence besteht aus geographischen Informations-Services, die unterschiedliche Sichten auf die „reale Welt“ geben wie beispielsweise Straßen-, Parzellen-, Nutzungs- und Höhen-Information, die dann mit Kundeninformation kombiniert werden können. Location Intelligence-Prozesse beschreiben das Mashing-up der geographischen Informations-Services in den Phasen Lokalisieren, Visualisieren, Analysieren, Planen und Vorhersagen.
Die Werkzeuge von Location Intelligence sind die Verortung von Daten (Geocodierung),
beschreibende Kartographie, Visualisierung und die analytische Kartographie bis hin zu
Vorhersagemodellen (prädiktiv). (Abb. 26) Entscheidend ist hier die Interaktivität und
Intuitivität. Wenn man von einer Karte spricht, denkt man immer noch an ein statisches
Dokument. Das ist nicht vergleichbar mit interaktiven Kartierungen von heutigen Location
Intelligence-Werkzeugen. Die Interaktivität macht auch hier das menschliche Auge zum
Detektor von bisher unbekannten Mustern, Trends und Strukturen, die sich durch die
Kombination von räumlichen und Business-Daten ergeben. Insofern bieten die Location
Intelligence-Werkzeuge auch ein mächtiges Komplement zu Data Mining und statistischen
Auswerteverfahren. Auf das „Wo“ kommt es eben bei Business Intelligence ganz besonders
an, im Dispositiven und im Operativen: Location matters!
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 83
5.7 Social Business Intelligence
Social Business Intelligence (Social BI) meint eine Erweiterung von Performance
Management und Analytik um Social Media-Funktionalität und Kollaboration, um
Wissensmanagement, um neue Technologien (Web- und Cloud-Integrationswerkzeuge,
analytische Datenbanken, Textanalytik) und um neue Anwendungsfelder (Social Media
Performance Management, Social Media Analytik). Schauen wir uns das jetzt genauer an
und fragen uns schließlich, wozu man das braucht und was der Nutzen ist.
Social Media-Funktionalität und Kollaboration. Social BI bringt eine kollaborative
Umgebung in BI und ersetzt, bzw. ergänzt das traditionelle BI-Portal. Facebook und andere
Social Media-Angebote haben hier Standards gesetzt: Es haben sich neue, intuitive
Benutzeroberflächen herausgebildet, die inzwischen jeder ohne jeglichen Schulungsaufwand
versteht und nutzen kann. Dazu kommt die neue Art der Kommunikation im Netzwerk. In den
Netzwerken läuft Kommunikation entlang der Netzwerkstrukturen. Es ist eine „viele zu viele“
Kommunikation, eben à la Facebook und Twitter. Das wird jetzt konsequent beim Nutzen
von BI-Werkzeugen umgesetzt. So lassen sich Berichte und Kennzahlen zum ersten Male
auch Autoren zuordnen. Sie lassen sich annotieren und diskutieren, ja auch Fragen zu den
Zahlen können gestellt werden. So kommt Wissen aus den Köpfen der Mitarbeiter in die BI-
Ergebnisse und schafft eine um ein Vielfaches höhere Transparenz. Die Zahlen stehen nicht
mehr isoliert in Tabellen oder Graphiken. Sie sind um semantische Aspekte erweitert. Damit
sind sie besser zu verstehen und umzusetzen, da die Interpretation in der Gruppe unter der
aktiven Mitwirkung aller Beteiligten geschieht („wisdom of the crowd“).
Social Media kommen auch mit einem völlig neuen Ansatz zum „Suchen und Finden“, denn
ein altes BI-Problem war das Auffinden von nützlicher Information. Welchen Report brauche
ich oder hatte jemand schon eine ähnliche Fragestellung? Zwar lassen sich solche Fragen
theoretisch über eine rigorose BI-Governance regeln, aber dann finden die Ergebnisse in der
Praxis oft keine Akzeptanz. In den Social Media gibt es hier Alternativansätze, die dem
„wisdom of the crowd“-Prinzip folgen. Es werden Reports und Kennzahlen von den
Abonnenten bewertet. So kommt man zu Top-Listen. (Abb. 27) Es werden die Abonnements
(wenn notwendig anonymisiert) ähnlicher Jobprofile angezeigt, beispielsweise könnte einem
Controller im Amazon-Stil vorgeschlagen werden, dass der Controller im Lande X auch noch
den Bericht Y intensiv nutzt. Daher sollte man überlegen, ob man den nicht auch abonnieren
wolle. Auf diese Weise wird über die Social Media-Werkzeuge und Konzepte eine BI-
Governance Bottom-up geschaffen. Die hat dann per se Akzeptanz, und so schafft man auch
nachgewiesener Maßen Motivation. Zu den Social Media-Verfahren zum Finden der richtigen
Information kommen dann noch state-of-the-art Suchverfahren dazu, mit denen man sowohl
Inhalte wie auch die entsprechenden Metadaten zum Finden nutzen kann.
Ein weiterer Aspekt ist hier auch „Mobile BI“. Eine korrekte, gerätekonforme Anzeige von BI-
Ergebnissen auf mobilen Geräten ist an sich schon nützlich, aber mobile BI meint mehr.
Gerade die Social Media sind auf das mobile Internet ausgerichtet. Das überträgt sich direkt
auf Mobile BI. Alle kollaborative Funktionalität ist also auch in der Regel über Apps mobil
verfügbar. So kann sich jeder, wo immer er sich auch befindet, an der Diskussion und
Interpretation der Zahlen beteiligen. Das gibt auch Anstöße zu neuen Analysen. Die
Kreativität aller Beteiligten wird gefördert und auch gefordert. Das Ergebnis ist ein „CDM“
(common decision making), also echte Teamarbeit.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 84
Abbildung 27. arcplan Engage als Beispiel zu Social-Media-Stil Report-Suche und Bewertung, oben: Ergebnis einer Suche, unten: Auswahl des 2. der oben angezeigten Reports „Bullet Graphs“.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 85
Wissensmanagement. Wissensmanagement hat zwei Aufgaben, den Wissenstransfer von
Person zu Person und die Dokumentation von Wissen. Es geht nicht nur darum Wissen in
die Köpfe der Mitarbeiter im Unternehmen zu bringen und dort zu halten, sondern vielmehr
auch darum, dieses Wissen zu extrahieren und für andere nutzbar zu machen. In der
Vergangenheit ist Wissensmanagement im Unternehmen in der Regel daran gescheitert,
dass die Werkzeuge dazu nicht die notwendige Akzeptanz fanden und Wissensmanagement
als eine lästige Pflicht empfunden wurde. Initiativen zum Wissensmanagement verliefen so
meistens im Sande. Mit dem Aufkommen der ersten Web 2.0-Werkzeuge hat sich das
geändert und Wissensmanagement kann heute die Akzeptanz finden, die man zur
Durchsetzung braucht. Am besten funktioniert es, wenn die Mitarbeiter gar nicht merken,
dass sie Wissensmanagement machen. Mit Wikis fing es an. Es sind gute Instrumente, wenn
es um gelebtes Wissensmanagement geht, so die Erfahrung inzwischen in vielen
Unternehmen, die in Richtung Enterprise 2.0 gegangen sind. Die Idee ist: jeder macht mit,
jeder trägt bei, das Unternehmen wird zur Community. Die Mitarbeiter treten in einen echten
Dialog ganz wie bei Facebook und anderen Social Media. Die heutigen Social Media-
Werkzeuge sind in diesem Sinne bestens geeignet für ein Wissensmanagement, das so ein
fester Bestandteil von BI-Prozessen wird: Unternehmenssteuerung wird so auf die Fakten
der Analytik und auf das Community-Wissen der Mitarbeiter gestellt. Man erreicht, was man
mit BI immer wollte, aber bisher nicht geschafft hat.
Neue Technologien. Eine BI-Architektur besteht aus drei Schichten (Abb. 28). Die oberste
Schicht war bisher die BI-Portal-Schicht, die jetzt als Social Media-Plattform neu definiert
wird. Darunter befinden sich die BI-Plattform mit den BI-Werkzeugen und darunter eine
Information Management-Schicht inklusive Extraktionswerkzeugen und Datenbanken. An
den beiden unteren Schichten ändert sich im Social BI nichts Grundlegendes, außer dass es
auf diesen beiden Schichten entscheidende Innovationen und Fortschritt gibt. Beginnen wir
unsere Diskussion mit der Information Management-Schicht.
Hier treibt uns das Thema Datenflut schon seit längerem. „Big Data“ haben wir ja schon
kennengelernt. Das bedeutet nicht nur ein riesiges Datenvolumen, sondern auch einen Mix
aus strukturierten und unstrukturierten Daten mit komplexen Beziehungen untereinander. Ein
Unternehmen verfügt bereits über große Mengen strukturierter (in der Regel rund 20% aller
Unternehmensdaten) und unstrukturierter Daten (die machen rund 80% aller
Unternehmensdaten aus). Eine wahre Flut von Daten wartet im Web auf uns. Die Quellen im
Web sind vielfältig: Portale, Web-Applikationen, Social Media, Videos, Photos und mehr,
eben Web-Content aller Art. Neben der schieren Datenflut ist die Unterschiedlichkeit und
Vielzahl der Quellen das zweite große Problem: Der Zugriff auf eine Quelle im Big Data ist
jedes Mal neu zu definieren: Die Konsequenz ist ein Zeit- und Ressourcenproblem.
Im Big Data steckt großes Potential in den Datenquellen. Aber aus den Daten Wissen zu
erzeugen ist nicht so einfach, denn ein solcher verwobener Mix aus riesigen,
unüberschaubaren und fragmentierten Daten macht es schwierig, die Daten zu identifizieren,
zu extrahieren, zu speichern, zu verwalten und zu analysieren. Hier braucht man neue
Ansätze und Technologien. Traditionelle IT-Werkzeuge zur Datenextraktion und Integration
helfen hier nicht wirklich weiter, wir brauchen Innovation in der Information Management-
Infrastruktur. Das bedeutet neue Werkzeuge, die uns eine agile Integration der
Unternehmens-, Web- und Cloud-Daten erlauben. Es geht um das schnelle und flexible
Erschließen und Nutzen aller relevanten Quellen im Big Data. Das bedeutet auch ein
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 86
Extrahieren von Daten aus dem Big Data ohne APIs, denn nicht alle relevanten Quellen sind
ausreichend mit APIs ausgestattet. Wer als erster Wissen aus dem Big Data ziehen und
umsetzen kann, hat einen deutlichen Wettbewerbsvorsprung: Wissen ist Macht und Time-to-
Market ist entscheidend. Das meint auch die Gartner Group, die Organisationen mit einer
Information Management Infrastruktur für Big Data als zukünftige Markt-Outperformer sieht.19
Solche agilen Integrationswerkzeuge beschreiben wir in Kap. 6.4.
Traditionelle & agile
Web/Cloud/Enterprise-Extraktionswerkzeuge
Operative
DatenData
WarehouseFiles, XML,
Spreadsheets
Social Business Intelligence
28
Datenintegrations-Plattform
Social-Media-Arbeits-Stil
Präsentationsschicht
Traditionell
Info
rma
tio
n
Ma
na
ge
me
nt
Pe
rfo
rma
nce
Ma
nag
em
en
t
Go
ve
rna
nce
An
aly
tik
(Te
xta
na
lyti
k,
Da
ta D
isc
ov
ery
)
Pla
nu
ng
,
Bu
dg
eti
eru
ng
,
Ko
nso
lid
ieru
ng
Ko
lla
bo
rati
on
& S
uc
hen
Tra
dio
ne
lle
Bu
sin
es
s
Inte
llig
en
ce
Big Data Ereignisse
Services
Cloud Mobile
Wis
se
ns
-
Ma
nag
em
en
tanalytische Datenbanken
© 2012 S.A.R.L. Martin
Abbildung 28. Social Business Intelligence (Social BI) ist die konsequente Fortsetzung und Erweiterung von Analytik und Performance Management getrieben durch Big Data, mobiles Internet und Innovation in Analytik und Information Management. Neu ist auch Cloud Computing als IT-Bereitstellungsmodel für Social BI als PaaS oder SaaS (Platform oder Software as a Service).
Big Data treibt nicht nur die neue agile Web- und Cloud-Integration, sondern auch den
Einsatz innovativer Datenbank-Technologien, um die PetaBytes von Daten zu Analysen
auswerten zu können. Solche „Analytischen Datenbanken“ beschreiben wir in Kapitel 7.2.
Bei den BI-Werkzeugen gibt es im Social BI insbesondere in der Analytik neue Methoden
und Verfahren. Hier hat sich eine Evolution von Data Mining über Text Mining zu
Textanalytik vollzogen (vgl. Kap. 5.5) Treiber für Textanalytik ist insbesondere das Big Data.
Mit Textanalytik lassen sich Daten aus dem Big Data systematisch auszuwerten. So
bekommt man eine nahezu gläserne Transparenz. In der Verbindung mit den
Unternehmenskundendaten erhält man so nicht nur eine 360°-Sicht auf den Kunden, wie
19 Gartner Präsentation “The Grand Challenges of Information: Innovating to Make Your Infrastructure and Users
Smarter,” Bill Hostmann und Mark Beyer, Oktober 2010.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 87
immer im CRM gefordert, sondern sogar eine 360°-Sicht auf den gesamten Markt. Denn im
Big Data spiegelt sich ja der Markt mit allen Marktteilnehmern wieder.
Neue Anwendungsfelder. Analog den unterschiedlichen Aufgaben von Performance
Management und Analytik in der traditionellen BI gibt es nun im Social BI ein Social Media
Performance Management und eine Social Media Analytik.
Social Media Performance Management greift auf den Closed-loop-Ansatz von
Performance Management zurück, dem Monitoring und der Steuerung von Prozessen.
Insofern gibt es ein Social Media Monitoring, das sich inzwischen bereits in führenden
B2C-Unternehmen etabliert hat. Hier geht es um das Aufspüren, wo, wann und wie über ein
Unternehmen, eine Persönlichkeit, ein Produkt oder eine Marke geredet und diskutiert wird.
Auf Basis des Social Media Monitoring kann im nächsten Schritt ganz im Sinne des Closed-
loop eine Social Media Analysis und folgerichtig eine Social Media Interaktion aufgebaut
werden. Das Unternehmen kann jetzt auf relevante Beiträge sofort reagieren und
intervenieren. Das bringt Vorteile vor allem im Kundenservice oder bei der Einführung neuer
Produkte im Markt, da sich sofort eine Kommunikation mit Communities im Web aufbauen
und unterhalten lässt. Das hatten wir bereits in einem der Beispiele in Kap. 2.4 zum Nutzen
von Big Data diskutiert.
Fazit. Analytik und Performance Management hat sich mit den Social Media als Treiber sehr
stark weiterentwickelt. Die Benutzerschnittstelle wird jetzt Social Media konform, und damit
wird Analytik und Performance Management für jeden verständlich und nutzbar. Sie
unterstützt weiterhin sehr viel besser die kollaborativen Aspekte. Dadurch wird Analytik und
Performance Management gleichzeitig durch ein implizites Wissensmanagement ergänzt.
Neue analytische Methoden und Werkzeuge wie Textanalytik, agile Web- und Cloud-
Integration und analytische Datenbanken erweitern das Portfolio von analytischen Lösungen
insbesondere um Social Media Analytik und Social Media Performance Management. So
erreichen Unternehmen eine neue, bisher nicht machbare 360°-Sicht auf den gesamten
Markt, da die Daten im Big Data jetzt nutzbar, auswertbarbar und umsetzbar im Sinne der
Positionierung von Unternehmen, Persönlichkeiten, Marken und Produkten werden. So
lassen sich neue, bisher nicht erreichbare Umsatzpotenziale identifizieren und erschließen.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 88
6 Information Management
In der traditionellen BI wurde Information Management zum Thema, als es um das Füllen
und Auffrischen eines Data Warehouse ging. Die Lösung waren und sind Extraktions-,
Transformations- und Lade- (ETL) Prozesse. Die Zielsetzung war es, vertrauenswürdige
Daten zu schaffen. Das Data Warehouse wurde zum Ort dieser vertrauenswürdigen Daten
und stellte den „single point of truth“ dar.
In der Prozess-Orientierung und im Performance Management steigt die Bedeutung von
Information Management. Information Management ist jetzt die Grundlage, um Prozesse mit
Daten zu versorgen und um die Daten für Performance Management und Analytik – auch in
Echtzeit – zu liefern. Das ändert die Bedeutung eines Data Warehouse. Die
vertrauenswürdigen Daten entstehen jetzt im Information Management. Der „single point of
truth“ liegt jetzt in den Meta- und Stammdaten, wie wir jetzt zeigen werden.
6.1 Die Aufgaben von Information Management
Wie wir schon in Kapitel 3.1 gesehen haben, ist Information Management die Grundlage und
Voraussetzung für Prozess-Orientierung im Unternehmen und in Unternehmensnetzwerken,
in denen Lieferanten, Partner und Kunden mit dem Unternehmen zusammenarbeiten und
gemeinsame Prozesse betreiben. Schauen wir uns die Aufgabenbereiche von Information
Management im Einzelnen an:
Daten-Definition per Business-Vokabular. Das Business-Vokabular (auch „Business-
Glossar“ genannt) spielt die zentrale Rolle in einem prozess-orientierten Unternehmen,
denn Prozesse brauchen eine einheitliche gemeinsame Terminologie zur Modellierung
und Kommunikation mit allen an den Prozessen Beteiligten, den Mitarbeitern in den
Fachabteilungen und in der IT, aber auch den Lieferanten, Partnern und sogar den
Kunden. Das Business-Vokabular stellt so die Terminologie der gesamten Fachlichkeit in
einem Unternehmen und seinem Unternehmensnetzwerk dar. Daher kann man das
Erstellen eines Business-Vokabulars auch nicht in die IT delegieren. Wenn es fehlt, dann
herrscht Babylon. Ein bekannter Effekt ist auch auf der Vorstandsebene bekannt: Begriffe
wie Umsatz, Deckungsbeitrag oder Storno bedeuten in verschiedenen Fachabteilungen
etwas Verschiedenes und passen dann in der Top-Sicht nicht zusammen. Oder –
anderes Beispiel – die Frage „Wer ist unser Kunde?“ kann nicht zweifelsfrei beantwortet
werden. Hier helfen auch vorbelegte Business-Vokabulare, die Quasi-Standard-
Terminologien in verschiedenen Branchen als Start zum Aufbau des
unternehmenseigenen Business-Vokabulars anbieten.
Datenmodellierung. Die Beziehungen zwischen den fachlichen Begriffen eines
Unternehmens, die im Business-Vokabular definiert sind, werden per Datenmodellierung
in einem Datenmodell erfasst. So erhält man die Semantik eines Unternehmens. Daher
ist auch Datenmodellierung eine gemeinsame Aufgabe von Fachabteilungen und der IT.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 89
Meta- und Stammdaten-Management. Weil früher jede Applikation ihre eigenen Meta-
und Stammdaten hatte, sind wir in ein Fragmentierungsproblem gelaufen. Daher nutzt
man heute im Information Management Meta- und Stammdaten-Services, um die
isolierten Applikations-Stammdaten auf einheitliche, zentrale Stammdaten abzubilden,
die in einem Repository verwaltet werden. Das ist entscheidend, wenn es um die
Definition neuer Produkte, das Gewinnen neuer Kunden und/oder das Hinzufügen neuer
Lieferanten zum Geschäftsnetzwerk geht. Ein einfaches Update per Meta- oder
Stammdaten-Service synchronisiert sicher und zuverlässig alle betroffenen
Applikationen. Darauf gehen wir genauer im Kapitel 6.5 ein.
Datenqualitäts-Management. Datenqualität ist eine weitere Voraussetzung, um mit
Information Management erfolgreich zu sein. Datenqualität bezeichnet die
Bedeutsamkeit, Relevanz und Korrektheit von Daten und von Information. Eine Best-
Practice für Datenqualitäts-Management ist ein „Total Quality Management (TQM)“-
Ansatz: Baue Datenqualität vom Beginn an in die Prozesse ein. Das diskutieren wir in
Kapitel 6.6.
Datenintegration. Prozess-Orientierung erfordert durchgängige Prozesse. Daher
müssen Prozesse applikationsunabhängig sein: Sie verlaufen ja über die
Applikationsinseln und auch über Unternehmensgrenzen hinweg. Folglich müssen die
Schnittstellen mit den Applikationen und die Daten intern und extern integriert und
synchronisiert werden. Weitere Einzelheiten in Zusammenhang mit Performance
Management und Analytik geben wir in Kapitel 6.2
Daten-Klassifikation. Eine Datenklassifikation ist die Unterteilung von Daten in
Kategorien anhand eines Merkmals, so dass Daten innerhalb einer Kategorie die gleiche
Eigenschaft teilen. Daten-Klassifikationen lassen sich Bottom-up mittels Data/Text
Mining-Verfahren finden. Sie können aber auch Top-down aus bestimmten
Unternehmenszielen abgeleitet werden. Das findet besonders bei Storage-Strategien und
im Life Cycle Management Anwendung.
Beispielsweise kann bei einer solchen Top-down-Datenklassifikation eine Kategorie
„Vertraulichkeit“ gebildet werden, die dann aus Klassen wie „streng vertraulich“,
„vertraulich“, „intern“ und „öffentlich“ bestehen könnte. Andere Kategorien in diesem
Beispiel könnten sein Verfügbarkeit, Aufbewahrungsfrist, Revisionssicherheit etc.
Daten-Sicherheit und Schutz. Schließlich gilt es die gesetzlichen Regelungen zu
respektieren und auch technisch umzusetzen, die die vom Unternehmen gespeicherten
Daten vor unberechtigter Nutzung, Missbrauch und Weitergabe schützen. Analog zur
Datenqualität empfiehlt sich auch hier der TQM-Ansatz: Datenschutz und Sicherheit
sollte von vorneherein in alle Prozesse mit eingebaut sein.
Content Management (Web, Rich Media). Der weitaus größere Teil der
Unternehmensdaten ist unstrukturiert (Dokumente, Verträge, Briefe, Memos, E-Mail,
Bilder, Grafiken, Zeichnungen, Videos, Audios etc.). All diese Typen von Information sind
gleichermaßen zu managen. Eine Information Governance muss daher allumfassend
sein.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 90
Fazit: Information Management schafft vertrauenswürdige Daten. Es löst das Problem der
Fragmentierung von Daten und ist so die Voraussetzung für Prozess-Orientierung. Es ist
eine gemeinsame Aufgabe von Business und IT, die – weil kritischer Erfolgsfaktor für
Industrialisierung, Agilität und Compliance – absolute Chefsache ist.
6.2 Datenintegrationsplattform
Definition: Datenintegration ist definiert als das Zusammenführen von Daten aus
verschiedenen Datenquellen mit in der Regel unterschiedlichen Daten-Modellen und
Strukturen in ein gemeinsames einheitliches Datenmodell.
Anfangs war Datenintegration im Kontext der traditionellen BI nichts anderes als die
Datenversorgung eines Data Warehouse über ETL-Prozesse. ETL-Prozesse laufen
entweder über einen Stapelprozess und / oder, wenn die Versorgung zeitkritisch wird, per
Message / Queuing. Das ist und bleibt weiterhin eine Anforderung, aber jetzt brauchen wir
noch mehr. Wir brauchen Informations- und Datenservices (Abb. 13), die simultan Daten aus
dem Data Warehouse und operativen Systemen mittels einer Datenintegrationsplattform per
Mashing-up bereitstellen (Abb. 3). In der Vergangenheit hat man versucht, dieses
zeitkritische Datenzugriffsproblem mit einem ODS (operational data store) zu lösen. Doch
der ODS-Ansatz ist nicht immer ausreichend, weil die Speicherung von Daten im ODS an
sich schon Zeit beansprucht, und mitunter sind Geschäftsregeln, die man zur Berechnung
komplexer Metriken braucht, zum Teil in der Applikationslogik verborgen und auf der
Datenebene nicht verfügbar.
Ein Data Warehouse ebenso wie ein ODS sind Beispiele physischer (oder materialisierter)
Datenintegration. Die Daten werden mittels der ETL-Prozesse in das Zielmodell
transformiert und in eine zentrale Datenbasis kopiert, wo sie dann für rein lesende
Verarbeitungen, beispielsweise Performance Management und Analytik zur Verfügung
stehen. Neben der physischen Datenintegration gibt es auch eine virtuelle
Datenintegration, auch föderiertes Informationssystem genannt, bei der die Integration erst
bei einem Datenzugriff stattfindet. Kern eines föderierten Informationssystems ist ein
kanonisches Schema. Es stellt einerseits die Schnittstelle zu den Quelldaten und deren
Datenmodellen dar und bietet andererseits zugreifenden Services mittels Informations-
Services eine integrierte globale sowohl lesende wie auch schreibende Schnittstelle zu den
föderierten Daten.
Virtuelle Datenintegration ist für Echtzeit-Analytik bestens geeignet und erlaubt eine
Nulllatenz-Datenintegration, i.e. die Analytik arbeitet synchron mit den Transaktionsdaten.
Eine solche Lösung ist wegen der Performanz-Anforderungen an die notwendige Netzwerk-
und Hardware-Infrastruktur aber eine teure Lösung, die man in bestimmten analytischen
Fragestellungen auch gar nicht braucht. Eine preiswertere Lösung ist dann eine Niedrig-
Latenzlösung mittels einer physischen Datenintegration (Abb. 29). Wesentlich ist es also,
herauszufinden, welche Latenz in einem gegebenen Prozess toleriert werden kann, denn die
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 91
Latenz ist ja mit Kosten gekoppelt: je niedriger die tolerierte Latenz, umso höher werden die
Kosten.
© 2012 S.A.R.L. Martin29
Daten-Latenz
OLTP System
OLTP System
OLTP System
OLTP System
OLTP System
OLTP System
OLTP System
Daten-Integrations-Plattform LLDM
Enterprise Information Integration (EII)
Echtzeit-
Analytik
Echtzeit-
Analytik
Echtzeit-
Datenpropagation
Daten oder Ereignisse
„zero-latency“
„low-latency“
Abbildung 29: Echtzeit-Datenintegration kann als Niedrig- oder Nulllatenzlösung aufgesetzt werden. Die Niedriglatenzlösung arbeitet mit einem Low Latency Data Mart (LLDM), der transaktionssynchrone, aber um die Latenzzeit verzögerte Daten für BAM/PPM Lösungen enthält. Die Nulllatenzlösung (EII) besteht aus einem transaktionssynchronen Zugriff auf heterogene und verteilte OLTP-Daten. (OLTP = Online Transaction Processing). Mittels Echtzeit-Daten-Propagation werden operationale Systeme mit prozessübergreifenden Metriken über eine Datenintegrationsplattform getriggert.
Im Niedriglatenz-Modell werden die relevanten Transaktionsdaten und analytischen Daten in
einem so genannten „Low-Latency-Data-Mart“ (LLDM) speichert. Das erfordert eine
Integration der Datenintegrationsplattform mit dem Enterprise Service Bus (ESB), der die
Transaktionen quer über die operativen Applikationen managt. Der LLDM wird entweder
durch Message / Queuing oder durch Stapelläufe aufgefrischt, wobei der Stapellauf in kurzen
Zeitabständen entsprechend der tolerierten Latenz ausgeführt wird (z.B. stündlich). Ein
LLDM bietet sich zur Niedriglatenz-Datenpropagation an. Das ist eine
Rückkopplungsschleife, um Ereignisse in operativen Systemen durch prozessübergreifende
Metriken auszulösen. Diese Kopplung mit operativen Systemen verlangt, dass die
Datenintegrationsplattform wie ein ESB gemanagt werden muss: Die
Datenintegrationsplattform ist ein operatives System.
Dieses Modell unterscheidet sich von einem „Operational Data Store“ (ODS), wo Daten aus
operationalen Datenbanken durch ETL-Prozesse gespeichert werden. Deshalb ist
Transaktionslogik, die nicht in operationalen Datenbanken gespeichert wurde, nicht im ODS
gespeichert. Darüber hinaus ist ein ETL-Prozess nicht mit den Transaktionen synchronisiert,
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 92
i. e. die ODS-Daten sind nicht immer auf dem Stand der Transaktionen. Das unterstreicht die
Forderung nach einem LLDM, vor allem wenn Legacy-Systeme im Einsatz sind.
Das Null-Latenz-Modell wird auch als EII (enterprise information integration) bezeichnet.
EII kann verstanden werden als eine Schicht für logischen Datenbankzugriff, die sich über
alle operationalen Datenbanken und das Data Warehouse erstreckt. Der Zugriff erfolgt
vielfach per XML, und die EII setzt die Datenanforderung in verschiedene SQL-Abfragen für
die entsprechenden Datenbanken um und transformiert die Daten so, dass die angeforderten
Daten als Informations-Services publiziert werden. Natürlich kann ein Informations-Service
als Web Service publiziert werden.
6.3 Informations-Services
Wir haben Informations-Services bereits als ein Service-Modell von SOA-Services
kennengelernt (Abb. 13). Zu bemerken bleibt aber, dass Informations-Services nicht nur in
einer SOA Sinn machen, sondern auch solchen Unternehmen grossen Wert bringen, die
unter dem Problem der Datenfragmentierung leiden. (Daten befinden sich einzementiert in
Datensilos wie in isolierten Applikationen oder isolierten Datamarts.) Beginnen wir mit einer
detaillierteren Definition von Informations-Services.
Definition: Ein Informations-Service ist ein modularer, wiederverwendbarer, wohl-
definierter, fachlich-relevanter Service, der den Zugriff, die Integration und die rechtzeitige
Bereitstellung von strukturierten und unstrukturierten, internen oder externen Daten
unternehmensweit und unternehmensübergreifend ermöglicht. Ein Informations-Service ist
entweder ein Metadaten-, Stammdaten- oder ein Daten-Service.
Nach der Definition eines Informations-Service ist jetzt der nächste Schritt, ausgehend vom
Bedarf der Informationskonsumenten die verschiedenen Kategorien von Informations-
Services und ihre Architektur zu beschreiben. (Abb. 30)
Universelle Datenzugriffs-Services: Datenzugriffs-Services bestehen aus den Basis-
“CRUD” Services (“create, read, update und delete) für alle Backend-Systeme,
strukturiert oder unstrukturiert, intern oder extern. Datenzugriffs-Services ermöglichen
auch einen Null- oder Niedrig-Latenz-Zugriff auf verteilte Daten im Sinne von EII.
Infrastruktur-Services: Infrastruktur-Services umfassen die Basis-Funktionalität für
Authentifizierung, Zugriffskontrolle, Logging, etc.
Daten-Integrations-Services: Integrations-Services transportieren Daten aus
Quelldatenmodellen in Zieldatenmodelle mittels Synchronisierung, Transformation,
Matching, Cleansing, Profiling, Anreicherung, Aufteilung, etc.
Meta- und Stammdaten-Services: Ihr Zweck ist das service-orientierte Managen und
Konsumieren der technischen und fachlichen Meta- und Stammdaten für Revision,
beispielsweise Datenherkunfts- und Impaktanalysen.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 93
Daten-Bereitstellungs-Services: Sie automatisieren und standardisieren die Publikation
von Information an alle Konsumenten gemäss einem Anfrage/Antwort-Modell oder einem
Publiziere/Subskribiere-Modell (Daten-Syndikation). Bereitstellungs-Mechanismen sind
Massendaten- und/oder Einzelsatz-Lieferung im Batch, Echtzeit-Messaging oder per
Delta-Mechanismen basierend auf Datenupdates.
Administrations-Services: Das sind Services für das Lebenszyklus-Management aller
Services, i.e. Entwicklung, Management sowie Überwachung und Steuerung.
© 2012 S.A.R.L. Martin30
Infr
astr
uktu
r-
Serv
ices
Meta
un
d S
tam
m-
Date
n-S
erv
ices
Informations-Services: Architektur
Bereitstellungs-Services
Daten-Integrations-Services
Universelle Datenzugriffs-
ServicesAd
min
istr
ati
on
s-
Serv
ices
Web Services
Analytische Services
Portale
INTERN EXTERNInformations-KONSUMENT
Applikationen Applikationen
Prozesse
Applikationen
Datenbanken
Messages
Flat Files
XML
unstrukturierte Daten
Mainframe
Datenquellen
JMS Web Svc SQL JDBC WebSvc
Social Media
Web/Social Media Cloud
Abbildung 30. Ein Weg heraus aus der Datenfragmentierung ist die Entkoppelung von Applikationen
und Daten per Informations-Services. Information und Daten werden per Services bereitgestellt.
Informations-Services bestehen aus sechs Kategorien. Die Architektur ist in der Abbildung dargestellt.
Universelle Datenzugriffs-Services erlauben den service-orientierten Zugriff auf jede interne oder
externe Datenquelle, strukturiert oder unstrukturiert. Daten-Integration-Services ermöglichen alle Arten
von Mapping, Matching und Transformation. Bereitstellungs-Services publizieren Information an alle
Informationskonsumenten – intern oder extern. Meta- und Stammdaten-Services bilden das
gemeinsame Business-Vokabular. Infrastruktur-Services definieren Authentifizierung und Security.
Administrations-Services liefern Funktionalität für Administratoren, Business-Analysten und Entwickler
zum Managen des Lebenszyklus aller Services.
Das Modell der Service-Orientierung bietet noch einen weiteren Vorteil. Aufgrund des Unter-
Service-Prinzips lassen sich jetzt beliebige zusammengesetzte (“composite”) Informations-
Services per Mashing-up für alle möglichen Verwendungszwecke komponieren und
orchestrieren. Typische Beispiele sind die traditionellen Data Warehouse
Belieferungsprozesse und Datenmigrations- und Konsolidierungsprozesse. Wir werden
weitere Prozesse wie Stammdaten-Management und Datenqualitätsmanagement in den
folgenden Kapiteln kennenlernen.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 94
6.4 Agile Integrations- und Extraktionswerkzeuge im Big Data
Heute im Zeitalter des Big Data sind Unternehmen im zunehmenden Maße daten-getrieben.
Wir brauchen Daten, um Information und schließlich Fakten, Wissen und
Wettbewerbsvorteile zu erzeugen: Time-to-Market ist entscheidend! Zugriff auf und Nutzung
von Daten auch in Echtzeit wird so mehr denn je zum kritischen Erfolgsfaktor im New
Normal. Jetzt haben wir Daten im Überfluss, im Web, in der Cloud und im Unternehmen.
Aber wie bekommt man Daten schnell, flexibel, zuverlässig und auch in Echtzeit aus dem
Web und der Cloud in seine Unternehmens-Infrastruktur, wie in die Cloud oder von einer
Cloud in die Cloud eines anderen Cloud-Anbieters?
Eine Antwort und Lösung bieten agile Integrationswerkzeuge, die Unternehmens-, Web-
und Cloud-Information parallel und gleichzeitig aus dem Big Data extrahieren und integrieren
können. Sie basieren auf einem völlig neuen Konzept für Datenzugriff und Extraktion: Agile
Integrationswerkzeuge arbeiten im Browser-Stil mit der immer gleichen visuellen
Schnittstelle für alle Datenquellen. (Abb. 31)
Big Data als Quelle für Analytik
31 © 2012 S.A.R.L. Martin
Operative
Daten
Data
Warehouse
Files, XML,
Spreadsheets
Ereignisse
Sensoren
Location Intelligence
Textanalytik
Data/Text Mining
Search
Anreicherung
Social
Media
Lokalisie-
rungsdaten
Call Data
Records
RFID
Maschinen-
DatenBig Data-Management Big Data-Analytik
Not only SQL (NoSQL)-Datenhaltungssysteme
Data Discovery
Abbildung 31: Big Data bedeutet nicht nur die Datenflut, sondern auch eine Vielzahl unterschiedlichster Quellen im Internet, die meist nicht über Schnittstellen verfügen oder die Schnittstellen haben, die nicht den vollen Datenzugriff erlauben. Hier helfen die Browser-basierten agilen Web-Integrations- und Extraktionswerkzeuge, die alle in einem Browser sichtbaren Daten abgreifen können. Zusätzlich sind auch semantische Suchmaschinen hilfreich, die Quellenidentifikation entsprechend einer vordefinierten Relevanz erlauben.
Das ist neu und nicht vergleichbar mit traditionellen IT-Werkzeugen: Agile
Integrationswerkzeuge können alle Datenquellen im Web, in der Cloud und im Unternehmen
ohne vordefinierte Schnittstelle und ohne Programmierung visuell erschließen. Das ist ein
weiterer Vorteil, denn Schnittstellen sind fast immer entweder nicht vorhanden und müssen
erst langwierig spezifiziert und programmiert werden, oder sie leisten nicht das, was man
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 95
gerade braucht. Schnittstellen schränken vielfach den Zugriff auf Daten ein. Man bekommt
nicht immer alle Daten. Ein browser-basiertes Integrationswerkzeug dagegen gibt Zugriff auf
alle sichtbaren Daten und zwar sofort und auch in Echtzeit. So kommt man an die
kompletten Daten und das ohne zusätzlichen Aufwand einer Schnittstellenprogrammierung
und Nutzung. Die Schnittstelle wird „on-the-fly“ implizit erzeugt, wenn man visuell im
Browserstil spezifiziert, welche Daten man extrahieren möchte. Nicht nur Daten können so
extrahiert werden, sondern jede Information aus Web-Applikationen. Die agilen
Integrationswerkzeuge können auf jede Schicht von Web-Applikationen zugreifen und
Information extrahieren. Ein weiterer Vorteil dabei: Diese browserbasierte, visuelle
Schnittstelle ist für alle Quellen im Big Data immer die gleiche.
Sie erlauben aufgrund des visuellen Arbeitens eine optimal abgestimmte Zusammenarbeit
der Fachabteilung mit der IT. Ein gemeinsames Team bestehend aus einem IT- und
Fachabteilungs-Mitarbeiter kann so den Extraktions-Job schnell und eben agil durchführen.
Erster Schritt ist die Identifikation der relevanten Quellen für die Datenbeschaffung. Das lässt
sich bereits teilweise automatisieren. Mit Suchbegriffen und auch komplexen semantischen
Suchmustern lassen sich die relevanten Webseiten finden. Nach der Identifikation erfolgt die
visuelle Spezifizierung.
Bei der Extraktion arbeiten die Werkzeuge dann wie Mikro-Workflow-gesteuerte Roboter. In
den Workflows werden Regeln und Schleifen eingesetzt. So kann eine umfangreiche
Workflow-Logik aufgebaut werden, die Extraktionen jeder Komplexitätsstufe ohne
Programmierung ermöglicht. Die Roboter können mittels einer Management-Konsole geplant
und kontrolliert werden. Damit kein Webmaster das Extrahieren bemerkt und womöglich
Gegenmaßnahmen ergreift, können sie auch bewusst langsam arbeiten, um einen
menschlichen Leser vorzutäuschen. All das macht sie zuverlässig und sicher.
Die heutigen agilen Integrations- und Extraktionswerkzeuge besitzen genügend Intelligence,
um auch dynamische Webseiten abzugreifen. Wenn sich die Position von abzugreifenden
Daten auf der Webseite ändert, dann wird das in gewissen Grenzen auch automatisch vom
Roboter erkannt und nachgezogen. Wenn das nicht gelingt, wird das einer Management-
Konsole gemeldet, so dass ein menschlicher Eingriff die Situation schnellstens wieder
bereinigen kann. Anbieter solcher agilen Werkzeuge finden Sie im Kap. 9.5. Der Einsatz
solcher agilen Werkzeuge ist auch im B2B sehr sinnvoll, wenn es beispielsweise um Online-
Preisvergleiche geht, oder man im Rahmen von Unternehmensnetzen Information zwischen
Portalen automatisiert austauschen will. Hier haben beispielsweise Brainware
Speziallösungen für den Zahlungsverkehr entwickelt, Lixto für Lieferantenportale und Kapow
Software hat sechs Lösungsszenarien für den Einsatz agiler Integrations- und
Extraktionswerkzeuge entwickelt20.
So beschafft man sich die notwendigen Web-Daten automatisiert und schnell. Dabei darf
man allerdings gesetzliche Aspekte nicht vergessen. Selbst wenn Daten nicht geschützt und
öffentlich sind, verstößt man unter Umständen bereits gegen die AGBs der Seiten, wenn
man automatisch ausliest. Daten, die auf den Netzgemeinschaften als privat gekennzeichnet
sind, darf man so natürlich unter keinen Umständen nutzen. Bei öffentlichen Daten ist ein
20
siehe Research Note zu Kapow Software auf http://www.wolfgang-martin-team.net/research-notes_dt.php
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 96
opt-in den Kunden mehr als empfehlenswert. Die juristischen Details wollen wir aber hier
nicht weiter vertiefen. Das ist eine Diskussion jenseits dieses White Papers.
6.5 Meta- und Stammdaten-Management
Prozess-Orientierung braucht Metadaten-Management. Die Metadatenschicht erstreckt sich
über alle Schichten der SOA. Metadaten sind der Schlüssel zu einem konsistenten
Datenmodell mit Lebenszyklus-Management für konsequentes Verständnis und
Kommunikation des Datenmodells, für Datenqualität, Zugriffsschutz und
datenschutzrechtliche Aspekte. Metadaten lassen sich in drei Schichten organisieren:
Schicht 1 – Stammdaten: Das sind fachlich orientierte Metadaten, die die Basis für das
Business-Vokabular darstellen. Es sind die Metadaten, die die Business-Strukturen wie
Anlagen, Produkte und Dienstleistungen und die Geschäftsparteien (beispielsweise
Lieferanten, Kunden, Mitarbeiter, Partner etc.) beschreiben. Damit erhält man eine
einheitliche Sicht auf alle Unternehmensstrukturen.
Schicht 2 - Navigations-Metadaten: Das sind ebenfalls fachlich orientierte Metadaten,
die die Informationsflüsse beschreiben. Sie geben Antwort auf Fragen wie: „Wo kommen
die Daten her? Was ist die Aktualität der Daten? Wo werden die Daten noch verwendet?“
Schicht 3 - Administrations-Metadaten: Das sind IT-orientierte Metadaten, die die
Rollen und Verantwortlichkeiten beschreiben. Sie geben Antwort auf Fragen wie: „Wer ist
verantwortlich? Wer soll Zugriff haben? Wer hat wann was getan“
Meta- und Stammdaten ergeben heute den „single point of truth“, den traditionellerweise das
Data Warehouse bereitstellte. Datenintegration hat diese Rolle jetzt geändert. Das
Business-Vokabular spielt die zentrale Rolle. Es kontrolliert sowohl BPM wie Performance
Management: Prozesse und Metriken brauchen eine einheitliche gemeinsame Sprache zur
Modellierung und Kommunikation mit allen an den Prozessen Beteiligten. Stammdaten
beschreiben die Datenobjekte von Prozessen und Regeln: Keine Prozesse, Metriken und
Regeln ohne Daten!
Stammdaten in einer SOA sind ja spezielle Informations-Services. In der Vergangenheit
wurden Stammdaten in einer immer wieder neuen Variante im Rahmen von Applikationen
implementiert.
Beispiel: Wenn Stammdaten redundant gehalten werden und über die Applikationen
verstreut sind, dann entwickelt jede Applikation ihre eigene Terminologie. Die
mangelnde Konsistenz wird zum Alptraum. Produkt- oder Auftragsnummern in einer
Applikation stimmen mit denen in anderen Applikationen nicht überein. Die
Kollaboration mit Lieferanten und Kunden wird zum Kostentreiber: Jedes Mal, wenn
ein neuer Lieferant, ein neuer Kunde, ein neues Produkt dazu kommt, muss eine
neue Übersetzungstabelle erstellt werden und/oder der neue Begriff in allen
Übersetzungstabellen hinzugefügt werden. Das macht Änderungen langsam,
fehleranfällig und teuer.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 97
Das unterstreicht noch mal deutlich ein Problem der Applikations-Orientierung: Applikationen
verhalten sich wie Inseln. Innerhalb einer Applikation verwendete Begriffe und Modelle
enden an den Grenzen der Applikation. Das führt zu Medienbrüchen bei
applikationsüberschreitenden Prozessen und zu Inkonsistenzen und Redundanzen bei
Metriken, Regeln und Business-Vokabular. Im Endeffekt führen die immer komplexeren
Integrations- und Synchronisationsaufwendungen zu nicht mehr erfüllbaren
Wartungsaufgaben. Die IT erstarrt und wird zum Bremser für das Business. Agilität ist in der
traditionellen Welt der Applikationen nicht möglich und nicht machbar.
© 2012 S.A.R.L. Martin32
Meta- und Stammdaten
operative Daten (OLTP)
Metadaten (DNA)
analytische Stammdaten
Bestands/Bewegungsdatenoperative Stammdaten
Kunden Partner Lieferanten Produkte Mitarbeiter Anlagen
Raum Zeit Plan Organisation
Abbildung 32: Ableitung von Stammdaten aus operativen Daten (der OLTP – online transaction processing – Systeme) und Klassifikation in operative und analytische Stammdaten. Stammdaten sind Teil der fachlichen Schicht von Metadaten (D = Definition, N = Navigation, A = Administration).
Stammdaten sind spezielle fachliche Metadaten aus der Schicht 1. Sie beschreiben die
Strukturen eines Unternehmens (Abb. 32). Man unterscheidet operative und analytische
Stammdaten. Die operativen Stammdaten sind Teil der operativen Daten der OLTP (online
transaction processing) Systeme. Man klassifiziert operative Daten in die (operativen)
Stammdaten und die Bestands- und Bewegungsdaten. Die unterschiedlichen Typen von
operativen Stammdaten leiten sich aus der Grundstruktur eines Unternehmens ab. Das sind
alle an den Prozessen beteiligten Objekte und Personen, also die Produkte und die
Geschäftsparteien: Mitarbeiter, Kunden, Händler und Lieferanten. Die analytischen
Stammdaten leiten sich aus dem Performance Management-Modell und
Prozessträgermodell ab, also aus dem Prinzip des Messens und der Verantwortlichkeiten:
Zeit, Raum, Plan und organisatorische Einheiten (wie Kostenstellen, Kostenträger etc.)
Prozess- und Service-Orientierung bietet einen Ausweg aus der traditionellen Applikations-
Orientierung. Agilität wird erreicht, in dem Prozesse, Metriken, Regeln und Stammdaten
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 98
applikationsunabhängig werden, also aus den Applikationen herausgelöst und zentral
verwaltet werden.
Als Behälter für die Metadaten dient ein Repository. Es spielt deshalb auch die Rolle einer
Integrationsdrehscheibe für die Metadaten aller Backend-Systeme im BPM. Wenn in einer
SOA die Services von Backend-Systemen im Rahmen eines Prozesses miteinander
kommunizieren sollen, dann müssen sie die Sprache sprechen, die durch das Business-
Vokabular im Repository festgelegt ist. Eine Punkt-zu-Punkt-Kommunikation führt hier wieder
ins Chaos. Die Lösung ist, das Metadaten-Modell jedes Backend-Systems in das zentrale
Business-Vokabular des Repositories zu transformieren, dann kann über das zentrale
Vokabular jeder mit jedem sprechen und das Anschließen neuer Systeme wird deutlich
einfacher und schneller.
33
Transparenz und Nachvollziehbarkeit
Stammdaten-Management bezeichnet die Menge aller Policies, Services,
Prozesse und Technologien zum Anlegen, Warten und Managen von Daten,
die mit den Geschäfts-Entitäten als Datensatzsystem des Unternehmens
verbunden sind.
Synchronisieren Historisieren
Lieferanten KundenUnternehmen
Repository
Die 3 Säulen von
Meta- und Stamm-
daten-Management
•Datenintegration
•Data Profiling
•Datenqualität
Meta- und Stammdaten-Management ist Kern-Disziplin und
integraler Bestandteil von Information Management.© 2012 S.A.R.L. Martin
Meta- und Stammdaten
Abbildung 33: Meta- und Stammdaten-Management bedeutet Informations-Services für das Synchronisieren und Historisieren von über verschiedene Applikationsinseln verstreute Meta- und Stammdaten einzurichten, um so über ein Repository allen Prozessen ein gemeinsames Business-Vokabular zur Verfügung zu stellen. Die optimale Architektur für ein solches Repository ist eine Hub & Spoke-Architektur analog zur Architektur eines ESBs. Die 3 Säulen von Meta- und Stammdaten-Management werden in Kap. 6.2 (Datenintegration) und Kap. 6.6 (Data Profiling und Datenqualität) diskutiert.
Metadaten und Stammdaten sind nicht statisch. Nicht nur die Akquisition eines
Unternehmens durch ein anderes Unternehmen verändert die Metadaten und die
Stammdaten, in dem neue Strukturen notwendig werden, sondern jede
Organisationsänderung, jede Geschäftsregeländerung, jede Marktänderung erfordert eine
Fortschreibung des Metadaten- und des Stammdatenmodells. Aber jeweils nur den letzten
Zustand des Metadaten- und des Stammdatenmodells in einem Repository, bzw. in einer
Datenbank vorrätig zu haben, ist nicht ausreichend. Man braucht den gesamten
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 99
Lebenszyklus der Meta- und Stammdaten für die Unternehmensplanung und die
typischen analytischen Fragestellungen. Deshalb ist ein Meta- und Stammdaten-
Management im Sinne eines Meta- und Stammdaten-Lebenszyklus-Management
erforderlich. Das Repository muss also auch den Lebenszyklus aller Stamm- und Metadaten
im Sinne einer Historisierung verfügbar haben (Abb. 33). Das ist heute eine Schwachstelle
auf Anbieter- und Nutzerseite, aber ohne Meta- und Stammdatenmanagement geht es nicht:
BPM-, Performance Management- und SOA-Initiativen werden sonst scheitern.
6.6 Datenqualität – Vorsorge tut Not
An welchem Tag im Jahr haben die meisten Menschen Geburtstag gemäß den in allen
Datenbanken der Welt gespeicherten Daten über die Geburtstage? Unsinnige Frage? Ganz
und gar nicht, denn das Ergebnis verblüfft: Es ist der 11.11. Warum der 11.11.? Ganz
einfach, wenn ein neuer Kunde in einer Datenbank erfasst wird, dann gibt es “Muss”-Felder
und “Kann”-Felder. Bei den Muss-Feldern wird die Eingabe vom System geprüft, bei den
Kann-Feldern nicht. Geburtstagsdaten sind häufig in Kann-Feldern gespeichert. Was
passiert: der Mensch ist faul. Die schnellste und einfachste Eingabe ist eben 1,1,1,1,1.....
Für viele Millionen Euro haben Unternehmen SAP und andere Standardsoftware eingeführt.
All die Daten sollten erfasst werden, die man braucht, um im Wettbewerb die Nase vorn zu
haben: CRM per Selbstbedienung, Coupons, Pay-Cards, Klubs und Weblogs ist da ein
durchaus erfolgreicher Ansatz bei der Jagd auf das Budget des Kunden. Kunden-
Orientierung ist die Devise und Marketing, Vertrieb und Kundendienst arbeiten nolens –
volens in kollaborativen Prozessen zusammen. Mit Lauerkampagnen im
Kundenkontaktzentrum und Web-Shop, mit Analytik, besonders mit Data Mining Lösungen
ist die nachfrage- und kundengetriebene Supply Chain teilweise schon Realität.
Voraussetzung dazu ist, dass die Datenqualität stimmt.
Beispiel: In der Bekleidungsbranche ist es längst usus, die Daten jeder
Verkaufstransaktion in einem Data Warehouse zu sammeln. Kundenprofile werden
abgeleitet. Daraus setzen sich Nachfrageprofile pro Boutique zusammen.
Entsprechend diesen Nachfrageprofilen werden die Waren-Kollektionen individuell
pro Boutique zusammengestellt. Ergebnis: Der Kunde findet in seiner Boutique stets
das Produkt, das er will. Er wird zufriedener, er kommt wieder, er wird ein immer
profitablerer Kunde. Und auf der Kostenseite lässt sich nachrechnen: Liegt in den
Boutiquen die richtige Ware vor Ort, dann liegt weniger Ware auf Lager, und das
bedeutet weniger Kosten. Einsparungen von 30% bis 40% Lagerhaltungskosten
werden erzielt.
Datenqualität ist die wesentliche Voraussetzung, um mit Information erfolgreicher zu werden.
Das Prinzip „garbage in – garbage out“ ist gnadenlos. Stellt man erst beim Aufbauen von
Performance Management Lösungen fest, dass die in SAP oder anderen Systemen
gespeicherten Daten nicht den Qualitätsansprüchen von SOA basierenden
Geschäftsprozessen genügen, dann ist es in der Regel zu spät.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 100
Beispiel: Ein großer europäischer Versandhändler hatte ein Problem mit seinen
Geburtstagsdaten. Geburtstagsdaten dienen in einfachster Form der
Altersbestimmung der Kunden. Das Alter ist ein überaus wichtiger Parameter in der
Kundenbeziehung, vor allem im Konsumgüterbereich. Ausgerechnet die
Altersangaben in seiner Datenbank waren unzuverlässig. Eine Lösung konnte
gefunden werden, die Verbesserung brachte: Da Vornamen Modetrends unterliegen,
lässt sich über den Vornamen mit einer gewissen Wahrscheinlichkeit das Alter des
Kunden schätzen. Wie man sich vorstellen kann: Eine teure Lösung, die zudem
niemals ganz sicher und zuverlässig ist. Viel teurer und viel ungenauer, als wenn man
gleich von Anfang an die richtige Datenqualität in seine operativen Prozesse einbaut.
Qualität gleich von Anfang an in die Prozesse einbauen, das klingt nach einer vertrauten,
bekannten Maßnahme. Das war nämlich genau die Idee von TQM (total quality
management) vor gut 20/25 Jahren in der Fertigungsindustrie. TQM für die Informatik ist
nicht erst jetzt das Thema. Mit der Einführung von SAP & Co. hätte man datenqualitäts-
sichernde Maßnahmen schon ergreifen sollen. Aber das Thema Datenqualität ist noch heute
ein Dauerbrenner. Der Data Quality Check 2007 (Lehmann, Martin, Mielke, 2007), eine
Untersuchung des deutschsprachigen Marktes zu Datenqualität und
Datenqualitätsmanagement brachte es an den Tag:
Nur 10% der Unternehmen betreiben ein Datenqualitätsmanagement wie weiter unten
beschrieben, aber so gut wie alle meinen, es sei ein sehr wichtiges Thema.
61% der befragten Unternehmen setzen keine Werkzeuge zum
Datenqualitätsmanagement ein!
Was in den meisten Unternehmen immer noch fehlt, ist ein hinreichend hoch in der
Unternehmenshierarchie angesiedelte(r) Verantwortliche(r) und Sponsor(in) von und für
Datenqualität. Denn Datenqualität ist Chefsache.
Beispiel: Nehmen wir an, Sie wollen eine 360° Grad Sicht auf den Kunden aufbauen,
also den Kunden mit allen möglichen Ausprägungen kennen, damit Sie ihn immer
bestens gemäß seinem Kundenwert bedienen können. Man weiß, dass 60% bis 80%
der Aufwendungen für den Bau solcher integrierten Kundendaten in die Infrastruktur
fließen. Bei dieser Datenintegration gilt es Daten aus unterschiedlichen Quellen
zusammenzuführen in ein einheitliches Kundendatenmodell. Die Daten stammen aus
unterschiedlichen operativen Systemen (Ein großer Mittelständler hat im Median 50
operative Systeme im Einsatz.), aus historischen und möglicherweise archivierten
Datenbeständen und nicht zu vergessen: externe Marktdaten, demographische Daten
und Web-Klickstreamdaten. Weiter in unserem Beispiel. Beim Bauen Ihrer
Kundendatenbank merken Sie auf einmal: System A hat eine Tabelle mit Daten über
den Kunden, die man nur noch mit der Tabelle Z aus SAP verknüpfen müsste, dann
hätte man eine tolle neue Sicht auf den Kunden. Nur leider ist das Verknüpfungsfeld
eins der berühmten Kann-Felder (die immer so viele “Einser” enthalten). Damit
scheitert die schöne Idee, diese Daten für den Fachbereich zusammenzuführen.
Welcher Projektleiter kann schon zum Betreiber des Prozesses mit dem Kann-Feld in
der besagten Tabelle gehen und ihm sagen, er solle ab sofort das Kann-Feld als
Muss-Feld behandeln?
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 101
Datenqualität ist eben Chefsache. In führenden, fortgeschrittenen Unternehmen gibt es
bereits Datenqualitäts-Direktoren, die direkt an den CIO (Chef Information Officer) berichten.
Der CIO trägt die TQM-Initiative in die Geschäftsleitung und macht sie zu einer Change
Culture-Aufgabe. Der Datenqualitäts-Direktor koordiniert die Rollen von “Data Custodians”
und von “Data Stewards”. Data Custodians sitzen an verantwortlicher Stelle in den
Fachabteilungen, sind in der Regel die Prozess-Verantwortlichen. Ihnen wird die
Verantwortung für die Stamm- und Bewegungsdateninhalte und die Metadaten delegiert. Die
Data Stewards werden den Data Custodians zugeordnet und helfen deren organisatorische
Maßnahmen IT-technisch umzusetzen. Sie waren in der Vergangenheit
Datenbankadministratoren oder Datenadministratoren.
Datenqualität sollte bereits in die operativen Prozesse im Rahmen einer TQM-Initiative
eingebaut werden.
Die vier Eckpfeiler von Datenqualität sind21:
Qualität wird als Grad der Übereinstimmung mit Anforderungen definiert.
Das Grundprinzip der Qualitätsplanung ist Vorbeugung.
Null-Fehler-Prinzip muss zum Standard werden.
Qualitätskosten sind die Kosten für Nichterfüllung der Anforderungen.
Und was kann man tun, wenn man mit der Vorsorge erst heute beginnt? Was tun, um
Datenqualität in die existierenden Datenbestände zu bringen. Da gibt es zwei
komplementäre Gruppen von Werkzeugen.
Data-Profiling. Mit Data Profiling wird die Beschaffenheit von Daten analysiert und ein
Datenprofil mit identifizierten Mängeln und Eigenschaften der untersuchten Daten erstellt.
Dazu dienen drei Typen von Analysen:
Feld-Profile. Die Analyse von Inhalt und Struktur einzelner Attribute lässt
Datenqualitätsprobleme im Zusammenhang mit Datentypen, Wertebereichen,
Verteilungen und Varianzen erkennen.
Abhängigkeits-Profile. Im Rahmen einer Abhängigkeitsanalyse werden die Verbindungen
zwischen Attributen einer Relation überprüft. Das ergibt Aufschluss über erwartete,
unerwartete und unscharfe funktionale Abhängigkeiten sowie potenzielle
Schlüsselattribute. Damit erhält man eine gute Unterstützung zur Normalisierung von
Datenquellen.
Redundanz-Profile. Mittels einer Analyse der Überlappungen zwischen Attributen
verschiedener Relationen können Redundanzen und Fremdschlüsselbeziehungen
innerhalb eines Datenbestandes aufgedeckt werden.
Werkzeuge zum Data Profiling (vgl. Abb. 34) setzen Verfahren der deskriptiven Statistik
(Verteilungsanalysen, Ausreißer-Tests etc.) sowie des Data Mining (regelbasierende oder
Cluster-Analysen und Entscheidungsbaumverfahren) ein. Das Data Profiling dient also zur
Ist-Analyse und Aufwandsschätzung für alle weiteren Aktivitäten. Durch den Einsatz von
21
Nach Philip Bernd Crosby
http://de.wikipedia.org/wiki/Qualit%C3%A4t#Die_4_Eckpfeiler_der_Qualit.C3.A4t_nach_Crosby
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 102
Werkzeugen werden Datenqualitätsprobleme wesentlich schneller erkannt als mit einer
manuellen Analyse.
Abbildung 34: Uniserv-Screenshot-Ausschnitt als Beispiel für Data Profiling. Die verschiedenen Fenster geben unterschiedliche Sichten auf den Profiling-Prozess. Unten: Records (Anzeige der aktuell selektierten Datensätze - Filterung, Sortierung), Progress (Fortschrittsanzeige aktuell laufender Lade- oder Metrik-Verarbeitungen). Rechts oben: Value Distribution (Tabellarische und grafische Werteverteilungsansicht auf Feldebene). Main Window: Kumulierte Basisinformationen auf Feldebene.
Data-Cleansing. Datenbereinigung nutzt verschiedene Methoden:
Parsing: Zusammengesetzte Einträge in Datenfeldern werden in deren atomare
Bestandteile zerlegt.
Semantischer Ansatz: Daten werden nach definierten Regeln in Standardwerte und -
formate überführt.
Benchmarking: Vergleich unternehmensinterner Daten mit externen Datenbeständen zur
Verifizierung.
Matching: Identifikation von ähnlichen Inhalten in unterschiedlichen Datenfeldern
(beispielsweise die Zuordnung von Kundeninformation in verschiedenen Applikationen zu
ein und demselben Kunden).
Dubletten werden bereinigt (typisch für CRM: Adressbereinigung).
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 103
Konsolidierung: Zusammenführen von verstreuter Information zu vollständigen
Datensätzen (beispielsweise das Zusammenführen der Kundenadresse).
Householding: Aufdecken von Zusammenhängen in den Daten, beispielsweise das
Identifizieren aller Privatpersonen eines Haushalts.
Datenanreicherung: Mit Hilfe externer Daten kann der Nutzen der bereinigten
unternehmensinternen Daten gesteigert werden.
Grundsätzlich lassen sich hier wahrscheinlichkeitstheoretische, deterministische und
wissensbasierende Verfahren unterscheiden. Die beiden ersten Ansätze nutzen
entsprechende Algorithmen, der wissensbasierende Ansatz nutzt landesspezifische
Wissensdatenbanken zur Adresszusammensetzung, Namen oder Rechtsformen.
Das Managen der Qualitätsstandards ist ja wie schon gesagt ein Prozess. Hierzu werden
Profiling- und Cleansing-Aktivitäten kombiniert, da beide auch Information zum aktuellen
Stand der Qualität liefern. Die periodische Ausführung des Prozesses hilft, die Qualität der
gesamten Datenbasis kontinuierlich zu überwachen und sollte Bestandteil des TQM
Ansatzes für Datenqualität sein. Insofern lässt sich dieser Ansatz auch wieder bestens
mittels SOA implementieren, da ja in diesem Prozess der Einsatz der
Datenqualitätswerkzeuge per Services mit der Logik des TQM-Modells orchestriert wird.
Big Data Quality. Datenqualität spielt auch im Big Data eine wichtige Rolle, vor allem dann,
wenn Unternehmensdaten mit Information aus dem Big Data angereichert werden sollen,
also beispielsweise Kundendaten durch Daten aus den sozialen Medien oder Patientendaten
mit therapeutischen Daten im Gesundheitswesen. Die Grundaufgaben von Data Quality
Management bleiben die gleichen. Es geht wie immer um das Profiling, das Cleansing und
das Anreichern und Abgleichen mit Referenzdaten.
Aber im Big Data gibt es neue Fragen zur Datenqualität:
Das Schaffen des „single point of truth“ ist beim gegebenen Datenvolumen und der
Vielzahl der Quellen nicht nur schwieriger geworden, sondern wird zukünftig u.U. gar
nicht mehr machbar sein. Die Konsequenz wird sein, dass wir den bisher immer
angestrebten deterministischen „single point of truth“ aufgeben werden müssen und ihn
durch einen probabilistischen ersetzen werden. Denn wer kann bei Kundendaten, die
zwar aus dem Unternehmen stammen, aber dann mit Social Media-Daten angereichert
werden, noch wissen und entscheiden, welche Version welchen Attributs die korrekte
„Wahrheit“ darstellt.
Wie soll mit Ausreißern in den Daten umgegangen werden? Bei Unternehmensdaten gilt
die eiserne Regeln: Ausreißer sind zu eliminieren. Macht das in der Big Data-Analytik
Sinn? Steckt im Big Data in Ausreißern nicht auch wichtige Information? Die Big Data-
Analytiker sagen: Kann sein – und deshalb geht man bei Big Data ohne Hypothese –
also ohne Ausreißer-Bereinigung – in die Analysen. Das bricht natürlich die bekannten
Regeln von Datenqualitäts-Management.
Hier betreten wir Neuland und müssen noch viel lernen.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 104
6.7 Information Governance – Schlüssel zu erfolgreichem Information
Management
Kritischer Erfolgsfaktor für Information Management ist schließlich die Governance.
Information Management braucht eine geeignete Organisation mit klaren Rollen und
Verantwortlichkeiten, es braucht die richtigen und rigorosen Prozesse und Policies (die
„Regeln“), und nicht zuletzt braucht es die richtige Technologie und Plattform, auf der die
Information Governance abgebildet werden kann. Die richtige Information Governance dient
dazu, Information Management zu industrialisieren im Sinne von „schlanken“ Prozessen.
Beim Aufbau einer Information Governance sind für die beschriebenen Aspekte von
Information Management jetzt die Prozesse und Policies zu modellieren und zu
implementieren. Dazu kommt auch ein kontinuierlicher Verbesserungsprozess. Wie die
Geschäftsprozesse werden auch die Governance-Prozesse des Information Management
mittels eines Performance Management operativ gesteuert. Auf der strategischen und
taktischen Ebene dienen die gemachten Erfahrungen zu einer stetigen Verbesserung der
Prozesse. Das ist der Schlüssel zu einem industrialisierten Information Management.
Weiterhin ist im Zuge des Aufbaus von Information Management die Organisation im Sinne
von organisatorischer Einheit, Rollen und Verantwortlichkeiten zu bestimmen. Hier hat sich
als Best-Practice ein Kompetenzzentrum für Information Management bewährt. Die
Organisationsstruktur besteht analog dem eines BI-Kompetenzzentrums (vgl. Kap. 3.4) aus
einem Leitungsgremium, dem ein Information Management-Sponsor vorsitzt, dem
eigentlichen Information Management-Kompetenzzentrum und den Data Stewards. Der
Sponsor sollte aus der Geschäftsführung oder dem Vorstand kommen, damit die Information
Management-Strategie und die Policies der Information Governance auch durchgesetzt
werden können. Die Data Stewards sitzen in den Fachbereichen und sind dort über die
Information Governance eingebunden. Das Information Management-Kompetenzzentrum
zentralisiert das Management der Information Management-Strategie und der Information
Management-Methoden, -Standards, -Regeln und -Technologien. Sein Leitsatz ist:
Das Information Management-Kompetenzzentrum plant, leitet und koordiniert Information
Management-Projekte und sorgt für den effizienten Einsatz von Personal und Technologie.
Da Information Management sowohl Grundlage für Performance Management und Analyse
als auch für Prozess-Management ist, empfiehlt es sich sowohl ein BI-Kompetenzzentrum
für die „eigentlichen“ Aufgaben in Performance Management und Analytik zu haben also
auch ein Kompetenzzentrum für Information Management. Hier trifft sich Information
Governance mit BI Governance. Daneben gibt es auch noch den Begriff der Data
Governance. Was ist jetzt was und wie kann man diese Begriffe und Aufgabenbereiche
voneinander trennen? Wo sind mögliche Überschneidungen? Der am weitest gehende
Begriff ist der der Information Governance, deren Domäne das Information Management
ist. Information Management bedeutet das Managen des Lebenszyklus von strukturierter und
unstrukturierter Information. Data Governance ist eine Untermenge von Information
Governance, die sich nur mit der Governance strukturierter Information beschäftigt. BI
Governance ist ebenfalls eine Untermenge von Information Governance. Sie bezieht sich
sowohl auf strukturierte wie auch auf unstrukturierte Information, aber die BI Governance
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 105
beschäftigt sich nicht mehr mit dem gesamten Lebenszyklus-Management, sondern nur noch
mit der Informationsbereitstellung und den dazu notwendigen Werkzeugen. Die Abbildung
35 zeigt die Positionierung der drei Governance-Bereiche im Rahmen von Information
Management.
Information Governance
© 2012 S.A.R.L. Martin35
Information Governance: Lebenszyklus-Management von
strukturierter und unstrukturierter Information.
Data Governance ist Information Governance eingeschränkt
auf strukturierte Information.
BI Governance ist Teil von Information Governance und
beschäftigt sich mit der Informationsbereitstellung.
Information Governance
BI
Governance
Data
Governance
Abbildung 35: Positionierung und Überschneidungen von Information Governance, Data Governance und BI Governance dargestellt als Venn-Diagramm.
In diesem Sinne sollte eine Information Governance die Governance-Prozesse und Policies
der folgenden Aufgaben (vgl. Kap. 6.1) abdecken:
Daten-Definition per Business-Vokabular
Meta- und Stammdaten-Management
Datenmodellierung
Datenqualitäts-Management
Datenintegration
Daten-Klassifikation
Daten-Sicherheit und Schutz
Content Management (Web, Rich Media)
Schließlich ist die Technologie auszuwählen, die die Prozesse entsprechend unterstützt. Hier
ist heute eine service-orientierte Plattform state-of-the-art, da so auch die Information
Management-Prozesse selbst den Zielen Industrialisierung, Agilität und Compliance gerecht
werden. Das Ergebnis sind schlanke Prozesse fürs Information Management.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 106
Die Marktbefragung des Wolfgang Martin Teams (Martin, 2012) zeigt, dass Information
Governance sich bei Unternehmen im deutschsprachigen Markt eine recht hohe Bedeutung
verschafft hat. Als Treiber werden in erster Linie Daten- und Prozessqualität gesehen. Aber
erst knapp die Hälfte der Unternehmen setzen Information Governance ein oder planen den
Einsatz. Dazu kommt, dass 47% der Unternehmen sich in der Planungs- oder Anfangsphase
sehen, erst 21% in der Endphase der Umsetzung. In kleinen Unternehmen (unter 1.000
Mitarbeiter) liegt bei der Sponsorship die Geschäftsführung klar vorne, bei den großen (über
1.000 Mitarbeiter) ist eher die IT (der CIO) in der Verantwortung. Die Zusammenarbeit
zwischen IT und Fachabteilung in Sachen Information Governance ist fast ideal: 80% sehen
sie als gemeinsame IT- und Fachabteilungsaufgabe. Auch der Einsatz von Werkzeugen ist
noch nicht wirklich zufriedenstellend: Nur 60% der Befragten sagen, sie setzen Werkzeuge
zur Information Governance ein.
In der Praxis macht man auch immer wieder die Erfahrung, dass Governance-Organisation
und Prozesse als einschränkendes Regelwerk empfunden werden, die Flexibilität und die
heute immer wieder geforderte Agilität behinderten. Hier haben sich inzwischen kollaborative
Methoden und Werkzeuge bewährt und Abhilfe geschaffen. Diese Ansätze sind aus den
Social Media abgeleitet. Durch den Social Media-Arbeitsstil lassen sich die Mitarbeiter
mitnehmen und selbst für eine BI Governance begeistern, da Social Media den Mitmach-
Effekt fördern und zur Transparenz wesentlich beitragen. So wird aus einem Top-Down
empfundenen, lästigen Regelwerk eine Bottom-Up gelebte Kollaboration, in der jeder mit
jedem auf gleicher Augenhöhe kommunizieren und diskutieren kann. Heutige Information
Management-Plattformen sind zu einem guten Teil bereits mit solchen kollaborativen
Werkzeugen ausgerüstet. Das sollte bei Plattform-Auswahlverfahren unbedingt
berücksichtigt werden und mit einem hohen Gewicht in die Bewertung eingehen. Denn mit
einer funktionierenden Information Governance haben Sie die besten Chancen auf
nachhaltigen Erfolg.
Fazit: Information Management braucht eine Information Governance, um
vertrauenswürdige Daten zu schaffen. Information Governance bringt Menschen, Strategien,
Prozesse und Organisation zusammen. Mit der richtigen Governance lässt sich ein
schlankes Information Management aufbauen: Man erreicht die Industrialisierung des
Information Management, mit anderen Worten: den besten Wirkungsgrad im Sinne des
Kosten- und Ressourceneinsatzes.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 107
7 Auf die Latenz kommt es an
Performance Management und Analytik müssen heute alle Aspekte der Überwachung und
Steuerung nahtlos bedienen – operative, taktische und strategische. Analyse, Überwachung
und Steuerung müssen ja mit der Prozessgeschwindigkeit synchronisiert werden (vgl. Abb. 5
und 6). Wenn die Prozessgeschwindigkeit hoch ist und wenn es auf Sekunden und
Bruchteilen von Sekunden ankommt, wie bei Kundeninteraktionen, Fertigungs- und
Logistikprozessen, dann spielen Echtzeit-Technologien wie Business Activity Monitoring
und Complex Event Processing eine große Rolle. Die Aufgabe ist, aus dem operativen
Verlauf eines Prozesses heraus Probleme und Risiken zu erkennen und basierend auf
dieser Kenntnis heraus Gegenmaßnahmen zur Prozesssteuerung einzuleiten. Das ist das
operative Performance Management von Prozessen wie wir es vom Prinzip her bereits im
Kap. 3.1 kennengelernt haben. Das wird in Kap. 7.1 vertieft.
Wenn es bei der Analyse auf Geschwindigkeit ankommt, spielen neue
Datenbanktechnologien wie analytische und NoSQL-Datenbanken eine immer größere
Rolle. Wenn nämlich das Datenvolumen schneller steigt als die Leistung von traditionellen
relationalen Datenbanken, schafft man es einfach nicht mehr, Daten im Detail zu
analysieren, da es schlichtweg gesagt zu lange dauert. Gartner sagt in seinem Bericht zum
Magic Quadrat for Data Warehouse Database Management Systems 2010: „Gartner-
Klienten stehen bei der Abfrage von Data Warehouses immer häufiger vor erheblichen
Performanceproblemen. Auf Grundlage dieser Informationen dürften rund 70 % aller Data
Warehouses mit derartigen Problemen zu kämpfen haben."
Daher haben sich neue Methoden und Technologien der Datenhaltung entwickelt, um Big
Data in den Griff zu bekommen. Neben den traditionellen relationalen Datenbanken gibt es
heute die analytischen Datenbanken, NoSQL-Datenhaltungssysteme und -Datenbanken. Sie
sind darauf ausgelegt, riesige Datenbestände bei gleichzeitig hoher Anzahl von Abfragen
durch viele bis sehr viele Nutzer in Sekundenschnelle zu analysieren: Analytik und die
analytischen Prozesse werden beschleunigt. Hierzu gibt es schon Ansätze seit rund 20
Jahren, aber erst seit 2010 nimmt der Einsatz solcher analytischen Datenbanken zu. Nach
dem in 2011 eingesetzten Boom ist ein weiterer Anstieg der Nachfrage nach diesen
Alternativen zu relationalen Datenbanken in 2012/15 zu erwarten, nicht nur ganz allgemein in
Analytik, sondern auch ganz besonders im analytischen CRM, wenn es um den Kunden und
das Kundenwissen geht. Analytische und NoSQL-Datenbanken diskutieren wir in Kap. 7.2
und 7.3, die Marktentwicklung in Kap. 9.6.
Es sollte noch betont werden, dass all diese Datenhaltungssysteme auch „as a Service“ als
Cloud Computing angeboten werden können. Das gilt für alle Formen des Cloud
Computings: private, öffentliche oder hybride Wolke.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 108
7.1 Business Activity Monitoring und Complex Event Processing
Das Konzept der Prozessorientierung verlangt, dass Prozesse, wenn immer möglich und
sinnvoll, zu automatisieren sind. Da werden Metriken für ein Performance Management
automatisierter Prozesse umso wichtiger, weil in operativ laufenden Prozessen
Abweichungen vom Normalverhalten auch automatisch erkannt werden sollten und, wenn
möglich, auch per „Autopilot“ gesteuert werden sollten. Das bewirken Metriken, die
Regelmaschinen (Entscheidungsmaschinen) treiben: So können Maßnahmen automatisch
ausgelöst werden.
© 2012 S.A.R.L. Martin36
Echtzeit und Aktionszeit
Ereignis
BAM/
CEP/
analytische/
NoSQL-DBMS
Regel-
MaschinenDaten-
LatenzAnalyse-
LatenzEntscheidungs-
Latenz
Wert
Zeit
Echtzeit-
Datenintegration
Aktionszeit
Nach: Richard Hackathorn und Colin White
Maßnahme
implementiert
Implementierungs-
Latenz
agile
Methoden
u.a.
Implementierungs-
zeit
Window of Opportunity
Abbildung 36: Wenn ein Ereignis eintritt, kann Zeit zu einem kritischen Faktor werden. Denn zu einem Ereignis gehört ein „Window of Opportunity“. Das ist die Zeit, die maximal zur Verfügung steht, in der man Maßnahmen treffen und implementieren muss, um vom Ereignis zu profitieren oder einen durch das Ereignis möglichen Schaden zu vermeiden. Das Aktionszeitmodell beschreibt die Phase vom Eintreten eines Ereignisses bis zum Treffen der notwendigen Maßnahme. Es zerlegt Aktionszeit in Daten-Latenz, Analyse-Latenz und Entscheidungs-Latenz, und es zeigt, durch welche Ansätze im Rahmen von Analytik die Aktionszeit minimiert werden kann. An die Aktionszeit schließt sich die Implementierungszeit an, die notwendig ist, um die getroffene Maßnahme auch umzusetzen. Hier ist jetzt ein agiles Business Process Management notwendig, um Prozessänderungen schnell und flexibel durchzuführen oder auch agile Softwareentwicklungsmethoden, um eventuell notwendige neue Business Services zu modellieren und zu implementieren.
Aber nicht jeder Prozess ist voll automatisierbar: In Ausnahmesituationen, beim Eskalations-
Management, bei Genehmigungsverfahren, bei Eingabe von Triggern (im Falle von
Selbstbedienung) und vor allem im Rahmen von kollaborativen Diensten sind menschliche
Interaktionen stets nötig. Ein Prozess besteht daher in der Regel aus einer Kombination von
automatisierten Teilstrecken und manuellen Eingriffen. Wenn jetzt das Entdecken von
Alarmsituationen und das Erkennen von Ausnahmesituationen zeitkritisch werden, werden
menschliche Reaktionen mitunter zu langsam. Jetzt kommt es auf die Latenz an, die
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 109
Aktionszeit wird kritisch (Abb. 36). Das Aktionszeitmodell zeigt drei kritische Phasen: Daten-
Latenz, Analyse-Latenz, Entscheidungs-Latenz.
Datenlatenz bezeichnet die Zeit, die notwendig ist, um die zur Identifikation eines
Ereignisses notwendigen Daten zu erfassen und zur Analyse bereitzustellen. Das wird durch
Echtzeit-Datenintegration (Abb. 29) adressiert. Es gibt zwei Optionen, wie wir gesehen
haben: Niedriglatenz- und Nulllatenz-Datenintegration. Das hatten wir schon in Kapitel 6.1
diskutiert.
Analyselatenz bezeichnet die Zeit, die notwendig ist, um die Daten zu analysieren und
entscheidungsrelevante Information zu liefern. Das wird entweder durch Business Activity
Monitoring(BAM)- und Complex Event Processing (CEP)-Lösungen oder durch den Einsatz
von analytischen oder NoSQL-Datenbanken adressiert: Analytik muss jetzt in Echtzeit
verfügbar sein.
Dabei hängt die Analyselatenz von der Komplexität des Ereignisses ab. Deshalb ist es
vorteilhaft, unterschiedliche Typen von Ereignissen herauszuarbeiten, um die
unterschiedlichen Typen von BAM- und CEP-Lösungen und deren Anforderungen an
Analyselatenz zu verstehen. Wir folgen hier den Ansätzen von Luckham (2002).
Einfache Ereignisse. Das sind Ereignisse, bei denen alle Daten zur Entdeckung des
Ereignisses mit dem Eintreten des Ereignisses vorhanden sind. Beispiele wie
Produktverfügbarkeit oder Produktlieferbarkeit hatten wir schon kennengelernt. Im Prinzip
geht es in diesen Beispielen um das Vergleichen einer Metrik mit einem kritischen
Schwellenwert um Aktionen zum Gegensteuern auszulösen. Die Daten- und Analyse-
Latenz hängt natürlich vom Datenvolumen ab. Spielen sich beispielsweise Ereignisse im
Big Data ab, so werden zur Reduktion der Latenzzeit analytische oder NoSQL-
Datenbanken eingesetzt. Das wird in Kapitel 7.2 und 7.3 diskutiert.
Analyselatenz kann aber auch kritisch werden, wenn man prädiktive Modelle einsetzt. Es
ist in der Regel ausgeschlossen, eine Ableitung des prädiktiven Modells im Augenblick
der vorzunehmenden Analyse durchzuführen: Data Mining Verfahren arbeiten in der
Regel nicht in Echtzeit. Das war der Grund, warum die Ableitung eines prädiktiven
Modells per Data Mining von seiner Nutzung in operativen Prozessen getrennt wurde
(vergl. Kap. 5.4). Ein einmal abgeleitetes Modell wurde offline eingesetzt, und man half
sich hier, indem man das prädiktive Modell regelmäßig (z. B. wöchentlich, monatlich) neu
ableitete. Hier bringen neue Ansätze eine Alternative. Mittels adaptiver Algorithmen
werden prädiktive Modelle selbstlernend und passen sich im operativen Betrieb
dynamisch an den Prozesskontext an. Ein solches prädiktives Modell ist damit „online“
und bildet aufgrund der aktuellen Daten die aktuelle Gegenwart ab. So erreicht man
zumindest eine Niedriglatenzlösung für die Analyselatenz: In Bruchteilen von Sekunden
können solche Modelle adaptiert werden, so dass sich Einsatzmöglichkeiten für
intelligente Kundeninteraktionen beispielsweise im Call Center oder im Web-Shop
ergeben.
Ereignisströme. Das ist eine kontinuierliche, zeitlich geordnete Sequenz von
Ereignissen. Die zeitliche Ordnung ergibt sich beispielsweise aus der Ankunftszeit der
Ereignisse im BAM- oder CEP-Werkzeug oder durch Zeitstempel. Solche Ereignisströme
sind typisch, wenn es um das Überwachen und Steuern komplexer Netzwerke geht.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 110
Solche Fälle gibt es beispielsweise bei der Überwachung von allen Arten von Verkehr in
Telefonnetzen, in Rechnernetzen, im Straßenverkehr, in der Luftfahrt etc. Für BAM- und
CEP-Werkzeuge stellen sich hier im Prinzip drei unterschiedliche komplexe
Aufgabenstellungen:
o Einfache Mustererkennung. BAM-Werkzeuge nutzen hier die Methoden der
Zeitreihenanalyse. Die Aufgabe ist die Vorhersage des Eintreffens eines
Folgeereignisses. Beispiele sind hier das vertriebliche Forecasting, Vorhersage von
Aktienkursen oder Lastspitzen.
o Komplexe Mustererkennung. Ereignisströme können sich untereinander bedingen.
Sie können an unterschiedlichen Orten zu unterschiedlichen Zeiten ablaufen und sich
gegenseitig beeinflussen. Hier werden CEP-Werkzeuge eingesetzt. In diesem
Kontext basieren sie auf der multivariaten Zeitreihenanalyse. Beispiele wären hier
konkurrierende oder kollaborierende Prozesse wie vertriebliche Produkt-Promotionen
mehrerer Wettbewerber im gleichen Markt. Die Aufgabe von CEP-Werkzeugen
könnte hier sein, die Wirksamkeit der eigenen Marketingmaßnahmen zu verfolgen
und den Einfluss der Wettbewerbsaktionen zu messen, um darauf Marketing-Abwehr-
und Angriffsstrategien zu entwickeln.
o Musterabstraktion. Aufeinanderfolgende Ereignisse können auch als detaillierte
Ereignisse eines übergeordneten Ereignisses verstanden werden. CEP-Werkzeuge
haben hier die Aufgabe, aus den einzelnen und vielfach isolierten Ereignisbausteinen
per semantischem Schließens das in der Regel höherwertige Ereignis zu entdecken.
Ein Beispiel ist hier die Analyse von Kaufsignalen eines Kunden. Besonders bei
größeren Investitionen (Autokauf, Hausbau) sendet der Kunde bestimmte Signale.
Die Aufgabe eines CEP-Werkzeuges ist hier das möglichst rasche Schließen auf
Kaufbereitschaft eines Kunden aus wenigen Kaufsignalen, um eben vor einem
Mitbewerber mit dem Kunden in Verkaufsgespräche zu gehen.
BAM- und CEP-Werkzeuge für Ereignisströme basieren hier auf speziellen schnellen
Algorithmen (beispielsweise Matching-Algorithmen und anderen semantischen
Verfahren). Dieser Entwicklungsbereich ist außer dem relativ gut bekannten Gebiet der
Zeitreihenanalyse noch Neuland, viele Lösungen noch in einem experimentellen
Zustand.
Entscheidungslatenz bezeichnet die Zeit, die notwendig ist, um auf Basis
entscheidungsrelevanter Information Maßnahmen zu treffen. Wenn Zeit dabei eine kritische
Rolle spielt, dann können Entscheidungen tatsächlich nicht mehr von Menschen getroffen
werden; das ist dann die Aufgabe von Regelmaschinen (Entscheidungsmaschinen). Solche
Regeln können Bottom-up durch prädiktive Modelle generiert werden. Ein solches
Regelwerk kann beliebig komplex werden. Bei intelligenten Kundeninteraktionen
beispielsweise im eCommerce oder mCommerce berechnet man prädiktive Modelle aus
Echtzeit-Verhaltens-Daten auf der Webseite und historischen Verhaltensdaten wie
Kaufverhalten, Kaufhistorie, Kataloginformation, Vertriebsstrategie und anderen externen
Bedingungen wie Tageszeit, Wochentag und Jahreszeit, um so Empfehlungen mit mehr
Relevanz zu geben. In vielen Fällen wendet man ein Scoring an und reduziert so das
Regelwerk auf einen Parameter. Solche Entscheidungsregeln und Scores werden also
identifiziert aus Daten und entdeckten Datenstrukturen und Mustern.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 111
Regeln können auch festgelegt werden durch einen Top-down-Ansatz von Experten. Das ist
eine Wiedergeburt der alten Experten-Systeme aus den 80er und frühen 90er Jahren. Am
besten können Regelmaschinen durch eine Kombination von prädiktiven Modellen mit
Expertenregeln modelliert werden. Das hatten wir auch schon in Kapitel 4.3 diskutiert. Eine
detaillierte Darstellung zu Entscheidungsmaschinen findet man auch in Martin (2003-B).
Implementierungslatenz bezeichnet die Zeit, die notwendig ist, um auf Basis getroffener
Maßnahmen diese auch zu implementieren. Hier ist jetzt ein agiles Business Process
Management notwendig, um Prozessänderungen schnell und flexibel durchzuführen oder
auch agile Softwareentwicklungsmethoden, um eventuell notwendige neue Business
Services zu modellieren und zu implementieren. Das aber wollen wir aber hier in diesem
Werk nicht weiter verfolgen.
7.2 Analytische Datenbanken
Analytische Datenbanken basieren auf speziellen Datenhaltungs-Methoden und
Technologien, um große bis sehr große Mengen an strukturierten Daten mit höchster
Leistung analysieren zu können. Es gibt sie bereits seit den frühen 90er Jahren, aber ihr
Erfolg im Markt war bisher eher bescheiden. Das ändert sich jetzt im Big Data. Was machen
analytische Datenbanken anders als herkömmliche Datenbanken? Da gibt es verschiedene
Methoden, die sich auch miteinander kombinieren lassen. Beginnen wir mit
spaltenorientierten Datenbanken. Herkömmliche relationale Datenbanken sind
zeilenorientiert. Das schafft bei großen Datenmengen einige Probleme, die wir jetzt zuerst
beleuchten, um danach die Vorteile von spaltenorientierten Datenbanken herauszuarbeiten.
Ein Datensatz, der beispielsweise einen Kunden beschreibt, hat - nehmen wir einmal an -
1.000 Attribute, aber wir haben so viele Sätze, wie wir Kunden haben, also durchaus
Millionen Sätze und vielleicht sogar noch mehr. Wenn wir nun in einer herkömmlichen
Datenbank nach gewissen Kunden mit bestimmten Merkmalen (definiert über die Attribute)
suchen, dann muss man eben alle Datensätze lesen. Beim Lesen stößt man gleich an ein
ganz allgemeines Problem von herkömmlichen Datenbanken. Die sind nämlich gar nicht zum
Lesen vieler Datensätze gebaut, sondern vom Design her eher transaktions-orientiert.
Sprich, eine Datenbank gibt mir über einen Index in Bruchteilen von Sekunden eine
bestimmte Datenmenge zum Ändern, Löschen oder Neuanlegen22.
Will man also Adhoc-Abfragen auf herkömmlichen relationalen Datenbanken durchführen,
dann braucht man Indizes und Aggregate, um schnelle Antworten zu erzielen. Das bedeutet
aber, dass die Abfragen schon vorher bekannt sein müssen und durch
Datenbankspezialisten aus der IT vorbereitet werden müssen (Sie bauen die Indizes und
Aggregate). Mit anderen Worten, das ist teuer, weil gut bezahlte Spezialisten notwendig sind.
Das ist zudem langsam: Denn wenn man mit einer neuen Idee kommt, zu der es noch keine
Indizes und Aggregate gibt, dann müssen die erst gebaut werden. Wenn man eine Abfrage
ohne eine solche Vorbereitung startet, kann der ganze IT-Betrieb empfindlich gestört
22
Das ist das sogenannte CRUD-Prinzip: „create, read, update, delete“.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 112
werden. Indizes und Aggregate haben noch eine weitere unangenehme Eigenschaft: Sie
brauchen Platz und machen die Datenbank um einen meist zweistelligen Faktor grösser als
notwendig. Damit wird sie dann immer langsamer. Das führt dazu, dass irgendwann der
Augenblick kommt, ab dem man gar keine Abfragen an die Datenbank mehr stellt, weil die
Antworten viel zu spät eintreffen. Der Nutzer ist frustriert, das Wissen liegt brach in der
Datenbank. Information wird zu einem reinen Kostenfaktor. Wissen über Kunden, Markt,
Mitbewerber und Risiken lässt sich nicht mehr anwenden. An dieser Stelle stehen heute viele
Unternehmen.
Analytische Datenbanken schaffen hier Abhilfe durch ihre Spaltenorientierung. Bei einer
spaltenorientierten Datenbank kann jede Spalte in einer eigenen Datei liegen, d.h. auf einen
Wert eines Attributs eines Datensatzes folgt in Lese-Reihenfolge nicht das nächste Attribut
des selben Datensatzes, sondern das gleiche Attribut des nächsten Datensatzes: Die Zeilen
und Spalten der Tabelle werden miteinander vertauscht. Intuitiv funktioniert dies, da in der
Analytik meistens wenige Attribute von sehr vielen Datensätzen benötigt werden. Aufgrund
der Spaltenorientierung müssen die restlichen Attribute nicht gelesen werden. Mit anderen
Worten: das Lesen wird drastisch reduziert, weil man durch das Vertauschen von Zeilen und
Spalten nur noch höchstens so viele Datensätze wie Attribute hat. Da die Anzahl der
Attribute in der Regel klein ist gegen die Anzahl der Datensätze, bringt das einen hohen
Performance-Gewinn. Jedoch wird das Schreiben von Datensätzen dadurch jedoch sehr
teuer, was man aber oft durch Differenzdateien zum Teil ausgleichen kann.
Aufgrund dieser Basiseigenschaft von spaltenorientierten Datenbanken erhält man einen
weiteren Vorteil. Man braucht keine Indizes und Aggregate mehr. Das macht die Datenbank
schlanker, was wiederum das Lesen beschleunigt. Zusätzlich lassen sich die Daten dann
komprimieren. Dazu werden einfache Verfahren genutzt, die es erlauben, relationale
Operationen auf den komprimierten Daten auszuführen. So können beispielsweise mehrfach
vorkommende Werte durch Kürzel fixer oder variabler Länge ersetzt werden, die durch ein
Wörterbuch bei Bedarf wieder in die ursprünglichen Werte übersetzt werden können. Folgen
identische Werte direkt aufeinander, können diese Sequenzen lauflängencodiert abgelegt
werden. Sortierte ganzzahlige Daten können durch Differenzbildung zum jeweiligen
Vorgänger oder zu einem lokalen Minimum in wenigen Bits untergebracht werden. Ein
solches Komprimieren bringt also Kostenvorteile, da die Datenbank „klein“ wird (Relativ zu
einer zeilenorientierten Datenbank können die Daten bis zu 80% komprimiert werden.) Man
erhält so weitere Performance-Vorteile.
Eine weitere Beschleunigung lässt sich durch Parallelisieren der Verarbeitung auf Clustern
und durch In-Memory-Verarbeitung erreichen. Das gilt sowohl für zeilen- wie auch spalten-
orientierte Datenbanken. Daten werden dabei automatisch und gleichmäßig über alle Server
eines Clusters verteilt, so dass für Abfragen alle Hardware-Ressourcen optimal ausgenutzt
werden. Die Software ist so konzipiert, dass jeglicher Tuningaufwand entfällt, wie er in
konventionellen Systemen üblich ist. Die Datenbanklösung legt Indizes automatisch an,
analysiert und komprimiert die Daten selbständig und verteilt sie optimal über die Knoten.
Intelligente Algorithmen fangen Server-Ausfälle auf und sorgen dafür, dass das System für
Nutzer innerhalb weniger Sekunden ohne dessen Zutun wieder zur Verfügung steht.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 113
Aber all diese Methoden und Verfahren schaffen an anderer Stelle Probleme: Die
Transaktionsverarbeitung gemäß dem ACID-Prinzip23 ist zum Teil nicht mehr möglich. Daher
sprechen wir in solchen Fällen auch besser von Datenhaltungssystemen als von
Datenbanken, da Datenbanken per Definition Transaktionssicherheit bieten müssen.
Analytische Datenbanken werden in unterschiedlichen Ausprägungsformen angeboten. Es
gibt parallelisierte herkömmliche Datenbanken, die in der Regel als Appliance angeboten
werden, also eine spezielle Hardware und den parallelen Zugriffsmethoden und Algorithmen.
Dabei sind solche Datenbanken dann immer noch zeilenorientiert. Dann gibt es analytische
Datenbanken, die spaltenorientiert sind, aber weitgehend Hardware-unabhängig eingesetzt
werden können. Und schließlich gibt es spaltenorientierte Datenbanken, die als Appliance
teilweise mit spezieller Hardware angeboten werden, aber insbesondere In-Memory
einsetzen. Daneben gibt es auch noch besondere Verfahren wie beispielsweise „Database
Images“, objekt-orientierte Datenbanken oder spezielle Data Appliances, die die
Kommunikation zwischen Server und Speicher optimieren. Die Klassifikation von
Anbieterlösungen finden Sie in Kap. 9.3.
Analytische Datenbanken lösen die Probleme, mit denen die Kunden heute kämpfen:
Performance, Skalierbarkeit und Kosten. Fassen wir nochmal die Vorteile zusammen:
Informationen sind flexibler abrufbar und stehen bis zu 100mal schneller zur Verfügung.
Die Nutzerzufriedenheit erhöht sich signifikant aufgrund des schnelleren und flexibleren
Zugriffs auf Information. Es können jetzt Daten analysiert werden, die vorher ohne
Nutzen, aber mit Kosten gespeichert wurden. Das unterstützt und schafft bessere
Entscheidungen.
Die IT wird entlastet, da die analytischen Datenbanken hoch automatisiert sind und ein
spezielles Wissen über Datenbankdesign und Tuning deutlich weniger gefragt ist.
Zwei Dinge sollten zum Schluss noch klar gesagt werden:
Eine analytische Datenbank macht ein physikalisches Datenbankdesign und Tuning
weitgehend obsolet, aber sie ersetzt keineswegs das logische, fachliche Design der
analytischen Datenbank. In diesem Sinne bleibt weiterhin ein Information Management
unabdinglich, auch wenn analytische Datenbanken eingesetzt werden. Denn ein Stamm-
und Metadaten-Management, ein Datenqualitäts-Management, eine Information
Governance und die anderen Aufgaben im Information Management bleiben auch mit
analytischen Datenbanken kritische Erfolgsfaktoren.
Eine analytische Datenbank ersetzt in der Regel nicht die herkömmlichen Datenbanken
in der Transaktionsverarbeitung. Analytische Datenbanken sind eine neue Generation
von Datenbanken für analytische Aufgaben im Unternehmen. Ein Unternehmen braucht
heute eben zwei unterschiedliche Datenbanktechnologien, eine für die analytischen
Aufgaben, eine für die Transaktionsverarbeitung. Dabei gilt natürlich der bekannte Satz:
Keine Regel ohne Ausnahme: Oracle Exadata, Kognitio WX2 und SAP HANA eignen
sich sowohl für hoch-performante analytische als auch transaktionsorientierte Aufgaben.
23
ACID (atomicity, consistency, isolation, durability) ist eine Menge von Eigenschaften, diegarantieren, dass
Datenbank-Transaktionen zuverlaessig abgewickelt werden.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 114
Insbesondere SAP HANA bietet hier zukünftig ein großes Potenzial. Dabei ist allerdings
der Performance-Gewinn in der Transaktionsverarbeitung deutlich geringer, denn in der
Transaktionsverarbeitung braucht man ein Select auf den Einzelsatz. Der
Einzelsatzzugriff wird durch In-Memory-Verarbeitung aber kaum beschleunigt. Die In-
Memory-Verarbeitung erweist erst beim Select auf Gruppen die bekannten hohen
Performance-Gewinne.
7.3 NoSQL-Datenhaltungs- und -Datenbanksysteme
Big Data-Analytik: Architektur
37 © 2012 S.A.R.L. Martin
strukturierteDaten
EnterpriseData
Warehouse
Multi-strukturierte
Daten
ETL/ELTAnalytische
Applikationen
Daten-
Integration
Analytische
Applikationen
recherchieren/
identifizieren
ge
filterte
Date
n/
an
aly
tisch
e
Erg
eb
nis
se
mo
dell
iert
e D
ate
nBig Data
externe und
Unternehmensdaten
NoSQL oder
analytisches DBMS
Datenanalyse
Datenanalyse
Datenarchivierung,
Filterung,
Transformation
Nach: Colin White
Abbildung 37: In der Big Data-Analytik wird die traditionelle Data Warehouse-Architektur um die Analyse multi-strukturierter Daten ergänzt. Ein analytisches oder NoSQL-Datenhaltungssystem (beispielsweise Hadoop) wird mit den zu einer Problemlösung relevanten Daten aus dem Big Data und aus dem Enterprise Data Warehouse versorgt. Dann kann man dort recherchieren, identifizieren und analysieren. Analytische Ergebnisse und Daten, die für weitere Analysen in Frage kommen, werden gefiltert und ins Enterprise Data Warehouse zurückgeschrieben. So wird auch die traditionelle Datenanalyse durch Big Data Information angereichert. Hinzu kommt nach der Problemlösung die Datenarchivierung mittels Datenintegration inklusive möglicherweise anfallender Datenfilterung und -Transformation.
NoSQL-Datenhaltungssysteme fokussieren auf der Haltung und Verarbeitung multi-
strukturierter Daten und ergänzen so das traditionelle relationale Datenmodell. Das zeigt
genau wie die Nutzung verschiedener analytischer Datenbankenmethoden auch, dass das
relationale Modell keinen Alleinstellungsanspruch als „einziges“ Datenhaltungsmodell mehr
hat. Genauso wie verschiedene Methoden analytischer Datenbanken nicht neu sind, sind
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 115
auch verschiedene NoSQL-Ansätze schon seit zum Teil langer Zeit im Einsatz, gewinnen
aber erst jetzt im Big Data neue Aufmerksamkeit und Anwendung.
Den Begriff multi-strukturierter Daten nutzt man heute vielfach, um den alten Begriff
„unstrukturiert“ zu ersetzen und besser zugänglich zu machen. Mit dem Begriff multi-
strukturierte Daten kann man alle Daten – strukturiert und unstrukturiert – zusammenfassen.
Die Zielsetzung ist, Fakten und Information aus multi-strukturierten Daten zu nutzen, um die
traditionelle Analytik strukturierter Daten anzureichern und zu erweitern. (Abb. 37)
Definition: Multi-strukturierte Daten sind Daten, die unbekannte, unzureichend definierte
oder multiple Schemata haben. Beispiele sind maschinen-generierte Ereignis-Daten, Sensor-
Daten, System-Log-Daten, interner/externer Web Content inklusive Social Media Daten,
Texte und Dokumente, Multi-Media-Daten wie Audio, Video etc.
Objektorientierte Datenbanken. In den 90er Jahren boten sie bereits Alternativen zum
relationalen Modell. Sie hatten einen grundlegenden Ansatz, der in allen heutigen NoSQL-
Datenhaltungssystemen zu finden ist. Sie sind schemafrei und setzen auf alternative
Techniken, um festzulegen, wie Daten gespeichert werden. Dazu kommt der Einsatz anderer
Protokolle als SQL für die Kommunikation zwischen Anwendung und Datenhaltungssysteme.
Ähnlich wie bei den analytischen Datenbanken ist die Architektur vieler NoSQL-Datenbanken
auf Skalierbarkeit ausgelegt: Die Verarbeitung und Verwaltung großer Datenbestände erfolgt
verteilt mittels Cluster aus Standardsystemen.
Dokumentenorientierte Datenbanken speichern "Texte" von beliebiger Länge mit
unstrukturierten Informationen und ermöglichen das Suchen auf Basis von
Dokumentinhalten. Die gespeicherten Dokumente müssen nicht die gleichen Felder
enthalten. XML-Datenbanken sind dokumentorientierte Datenbanken mit semi-strukturierten
Daten.
Graphen-Datenbanken (oder: Entity-Relationship-Datenbanken). Sie basieren auf der
Darstellung von Daten als Knotenpunkte (Entitäten) und Beziehungen (Relationen) zwischen
den Knoten. Statt traditioneller Datensätze erstellt man hier Knoten, die durch die
Beziehungen, die man zwischen ihnen definiert, miteinander verknüpft werden. Dabei wird
Information zu den Knoten und ihren Beziehungen als Eigenschaften (Attribute) gespeichert.
Graphen-Datenbanken haben insbesondere Vorteile, wenn wie bei (sozialen) Netzen die
Beziehungen zueinander im Mittelpunkt stehen, man also Netze abbilden will. Graphen-
Datenbanken gehen auf Entwicklungen im Computer Aided Software Enginering (CASE) der
späten 80er Jahre zurück.
Key-Value-Datenbanken. Hier weist ein Schlüssel auf einen Wert, der in seiner einfachsten
Form eine beliebige Zeichenkette sein kann. Key-Value-Datenbanken sind auch nicht neu.
Sie sind als traditionelle Embedded-Datenbanken wie dbm, gdbm und Berkley DB in der
Unix-Welt bekannt geworden. Key-Value-Datenbanken arbeiten entweder als In-Memory-
System oder als On-Disk-Version. Sie sind besonders zum schnellen Suchen geignet.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 116
Spaltenorientierte Datenbanken. Sie gehören gemäß der hier benutzten Klassifikation in
die Klasse der analytischen Datenbanken, was zeigt, dass analytische und NoSQL-
Datenhaltungssysteme sich nicht disjunkt zueinander verhalten: Es gibt eben analytische
Datenbanksysteme, die immer noch auch dem relationalen Modell basieren, als auch solche,
die spalten-orientiert, also NoSQL sind.
Hadoop ist dabei, einen Standard der Zukunft in Big Data-Datenhaltung und Daten-
Management zu setzen. Es ist ein Apache Software Foundation Open Source-
Entwicklungsprojekt. Es arbeitet wie ein Daten-Betriebssystem und besteht aus drei
Komponenten:
der Speicherschicht HDFS (Hadoop Distributed File System),
der von Google vorgeschlagenen Programmierumgebung MapReduce zur parallelen
Verarbeitung von Abfragen,
einer Funktionsbibliothek.
Zu Hadoop gehört auch die HBase, ein skalierbares Datenhaltungssystem zur Verwaltung
sehr großer Datenmengen innerhalb eines Hadoop-Clusters. Die HBase ist eine Open
Source-Implementierung der Google BigTable.
Die Speicherschicht HDFS speichert in der Standardeinstellung Daten in 64MB Blöcken, was
paralleles Verarbeiten unterstützt und exzellent zum Lesen großer Datenmengen geeignet
ist. Der Nachteil ist, dass eine solche Verarbeitung naturgemäß Batch-orientiert ist und sich
deshalb nicht für Transaktionsverarbeitung oder Echtzeitanalysen eignet. HDFS hat
schließlich eingebaute Redundanz. Es ist designt, um über hunderte oder tausende von
preiswerten Servern zu laufen, von denen man annehmen kann, dass immer wieder einige
ausfallen. Daher wird in der Hadoop-Standardeinstellung jeder Datenblock dreimal
gespeichert. Neue Daten werden zudem immer angehängt, niemals eingefügt („no insert“).
Das erhöht die Geschwindigkeit des Speicherns und Lesens von Daten und erhöht auch die
Zuverlässigkeit der Systeme.
MapReduce (MR) wurde von Google in seiner spalten-orientierten BigTable implementiert,
die auf dem Google File-System basiert. Es ist eine Programmier-Umgebung zur
Parallelisierung von Abfragen, die die Verarbeitung großer Datenmengen deutlich
beschleunigt. MR ist keine Programmier- oder Abfragesprache. Die Programmierung
innerhalb von MR kann in verschiedenen Sprachen wie Java, C++, Perl, Python, Ruby oder
R erfolgen. MR Programm-Bibliotheken können nicht nur HDFS, sondern auch andere Datei-
und Datenbanksysteme unterstützen. In einigen analytischen Datenbank-Systemen werden
MR Programme als in-database analytische Funktionen unterstützt, die in SQL-Befehlen
benutzt werden können. MapReduce ist allerdings nur im Batch einsetzbar, nicht in Echtzeit-
Verarbeitung, also auch nicht interaktiv.
Dazu kommen noch einige Ergänzungen wie die HLQL (high level query languages) Hive,
Pig und JAQL. Hive ist eine Data Warehouse-Umgebung, die auf einer Entwicklung von
Facebook beruht. Zu Hive gehört die HLQL „QL“, die auf SQL beruht. Da es für die Hadoop-
Programmierumgebung MapReduce noch nicht sehr viele Ressourcen gibt, die damit
umgehen können, sind HLQLs wie QL sehr willkommen, da sie den Entwicklern die
Verwendung einer SQL-ähnlichen Syntax erlauben. Eine andere HLQL ist Pig, eine
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 117
prozedurale Sprache. Mit Hilfe von Pig sind parallele Ausführungen komplexer Analysen
einfacher als mit MapReduce nachvollziehbar und durchführbar. Darüber hinaus bietet Pig
auch im Gegensatz zu MapReduce eine automatisierte Optimierung komplexer
Rechenoperationen. Pig ist auch offen und lässt sich durch eigene Funktionalitäten
ergänzen. Zum Managen von Hadoop-Anwendungen dienen Chukwa, das die
Echtzeitüberwachung sehr großer verteilter Systeme ermöglicht, und ZooKeeper, das zur
Konfiguration von verteilten Systemen dient.
Achtung. Obwohl Hadoop auf Technologien und Konzepten beruht, die von Big Data-
Unternehmen wir Facebook und Google stammen, so ist doch heute noch sehr deutlich zu
sagen, dass diese Technologien noch sehr jung und auch unausgereift sind. Daraus folgt,
dass der Einsatz solcher Technologien ausgewiesene und am Markt nur schwer zu findende
Mitarbeiter benötigt. Dazu kommt, dass viel Funktionalität noch in Eigenentwicklung zu
leisten ist.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 118
8 Performance Management und traditionelle BI: fundamentale
Unterschiede
Performance Management hat sich aus den alten Decision Support- und Business
Intelligence-Ansätzen entwickelt, doch inzwischen ist aus Performance Management ein
komplett anderes Modell geworden als das der traditionellen Business Intelligence.
Performance Management ist ein Top-Down-Modell, das bei der Geschäftsstrategie
beginnt. Business Process Management verbindet Prozessanalyse und -design mit
funktions- und abteilungsübergreifenden Prozessabläufen und Corporate
Performance Management. Prozess-Leistungsmetriken werden gleichzeitig mit den
Prozessen erstellt.
o Business Intelligence war Bottom-up und nicht prozessorientiert.
Performance Management basiert auf einem Information Supply Chain Modell, um
die Informationsbereitstellung mit dem Informationsbedarf permanent zu
synchronisieren.
Business Intelligence war ausschließlich ein Informationsbereitstellungsmodell
(Bill Inmons „Informationsfabrik“; Inmon, 1996).
Performance Management ist ein Closed-loop-Modell, um Geschäftsprozesse auf
operativer, taktischer und strategischer Ebene optimal zu steuern und zu
überwachen.
Business Intelligence konnte Entscheidungen zwar unterstützen, es fehlte aber
die Rückkopplungskomponente, das Treffen von Maßnahmen. Operative Aspekte
von Business Intelligence wurden nicht mit einem kohärenten Ansatz abgedeckt.
Performance Management Metriken schauen nach vorne. Mittels prädiktiver Modelle
werden Probleme erkannt, bevor sie auftreten. Zusätzlich bleiben natürlich auch alle
traditionellen retrospektiven Metriken weiterhin nützlich.
o Business Intelligence war retrospektiv. Der Fokus lag auf Analyse und
Diagnose. Die Potentiale prädiktiver Modelle wurden nicht genutzt.
Performance Management ermöglicht Transparenz durch Teilen und Filtern von
Information gemäß dem Prozessträgermodell. Jeder bekommt genau die Information,
die man im Kontext seiner Prozesse braucht.
Business Intelligence Werkzeuge haben den Informationsverbraucher nicht
ausreichend mit Information versorgt. Daher hatte man entweder das Problem,
dass Information nicht zugänglich war (oder gar versteckt und zurückgehalten
wurde), oder man hatte das Problem einer Datenflut („information for the
masses“). Das führte zu einem drastischen Sinken der Akzeptanz.
Performance Management basiert auf analytischen Services, die im Rahmen einer
SOA (service oriented architecture) publiziert, konsumiert und orchestriert werden.
Business Intelligence war ein werkzeugbezogener Ansatz, der auf proprietären
Technologien basierte. Das führte zu isolierten Informationssilos.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 119
9 Der Performance Management/Analytik-Markt und seine Spieler
9.1 Trends in Performance Management und Analytik
Der Markt für Performance Management und Analytik („BI-Markt“) in den letzten Jahren
zeigte ein überdurchschnittliches Wachstum mit im Schnitt zweistelligen Wachstumsraten.
Selbst im heutigen New Normal bleibt das Wachstum zweistellig. Die Begründung dazu
sehen wir in den folgenden vier Thesen, die die weitgehende Umgestaltung des BI-Marktes
und der BI-Rolle, Methoden und Werkzeuge, den Übergang zu Performance Management
und Analytik und die wachsende Durchdringung der Fachbereiche mit Werkzeugen
beschreiben.
These 1: Der Markt für Business Intelligence hat sich zwischenzeitlich aufgelöst und
wieder neu ausgebildet. Die schon seit einiger Zeit zu beobachtende Marktkonsolidierung
hat mit den drei „großen“ Akquisitionen in 2007 (Oracle/Hyperion; SAP/BusinessObjects;
IBM/Cognos) ihren Höhepunkt gefunden und quasi zur Auflösung des Marktes für BI als
eigenständigen Markt geführt. Schon in 2006 haben wir das kommen sehen (Statement: is
report 3/2006). Der BI Markt ist so in den BPM/SOA, bzw. ERP II Markt aufgegangen: Die
großen Vier im BPM/SOA Markt (IBM, Microsoft, Oracle, SAP) sind alle auch Anbieter von
BI. Ähnliches gilt im ERP II Markt wie man am Beispiel von Infor sehen kann. Die kleinen,
unabhängigen Anbieter finden in diesem neuen Markt aber jetzt sehr gut ihre Nischen, denn
die fortschreitende Prozess- und Service-Orientierung sowie der Trend zu BI as a Service im
Rahmen von Cloud Computing unterstützt einen Best-of-Breed-Ansatz in optimaler Weise.
Das heißt also: sehr gute Aussichten für die Kleinen gerade wegen dieser Evolution des
Marktes.
Insbesondere Big Data eröffnet jetzt neue Marktchancen. Mit Data Discovery hat sich ein
neuer Schwerpunkt gebildet und mit MicroStrategy, QlikTech, Tableau Software und
TIBCO/Spotfire wird dieser Markt wieder von mittelgroßen Anbietern getrieben. Dazu
kommen noch die beiden Open Source Schwergewichte Jaspersoft und Pentaho, die
inzwischen in das Data Discovery Segment hineingewachsen sind und Big Data adressieren.
Die bisherigen Großen Vier haben es versäumt, hier rechtzeitig präsent zu sein und laufen
Gefahr, in diesem Marktsegment zu verlieren. Zusätzlich ist auch noch durch die
Akquisitionen von Vertica und Autonomy ein anderer großer Spieler 2011 in den BI-Markt
eingetreten: HP. Man muss also ab 2011 von den Großen Fünf reden.
Daneben haben sich aber auch neue Nischenmärkte eröffnet wie Content Intelligence,
Customer Intelligence, Financial Intelligence, Competitive Intelligence und Social Intelligence
(Textanalytik). Hier sind die Wachstumschancen für neue Anbieter ebenfalls sehr gut. Die
Auflösung des traditionellen Marktes für Business Intelligence bedeutet also nicht sein Ende,
sondern einen Neubeginn mit vielen Chancen für alle Marktteilnehmer. Es haben sich so
neue Teilmärkte ausgebildet: Der Markt für Analytik und Performance Management ist
wieder sehr kompetitiv geworden.
These 2: Analytik und Information sind allgegenwärtig. In den letzten Jahren konnte man
eine Evolution von BI beobachten. BI wurde operational, BI wird endlich in den Kontext von
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 120
Prozessen gestellt und im Sinne eines geschlossenen Kreislaufmodells zur
Prozessüberwachung und Steuerung eingesetzt. Damit verabschiedete sich BI auch vom
alten Paradigma, dass BI nur auf einem Data Warehouse funktioniert. Operative
Datenquellen werden gleichberechtigt zu klassischen Data Warehouse Daten. Daraus folgt
eine neue Herausforderung: Die traditionellen ETL-Prozesse allein tun es nicht mehr. Wir
brauchen einen umfassenderen Ansatz zum Information Management. So schafft man den
Übergang von BI zu Performance Management. Inzwischen geht man noch ein Stück weiter
und sieht die Schlüsselrolle von BI über Performance Management und Analytik hinaus jetzt
auch für Governance, Risiko-Management und Compliance („GRC“). In diesen
Aufgabenstellungen ist BI aus dem Unternehmensalltag nicht mehr wegzudenken.
Heute ist es nicht mehr ausreichend, Analytik nur mit Unternehmensdaten zu betreiben. Im
Big Data stecken enorme Potentiale, die es zu erschließen gilt. Die Social Media liefern
Daten, mit denen Unternehmensdaten – unter Berücksichtigung des gesetzlichen
Datenschutzes – deutlich angereichert werden können, um besseres Marketing und eine
individuelle Kundenkommunikation zu erlauben. Das mobile Internet liefert
Lokalisierungsdaten, so dass wir zum ersten Male Information nicht nur in den Kontext von
Zeit („Echtzeit“) stellen können, sondern auch in den Kontext von Raum. Räumliche und
zeitbezogene Information hat einen wesentlich höheren Wert als die reine Information an
sich. Mit der Konvergenz von Information, Raum und Zeit werden neue innovative Prozesse
möglich, an die man bisher gar nicht denken konnte: raumbezogene Kundenkommunikation,
beispielsweise im mCommerce, operationale Informations-Services zu Fahrplänen,
Verspätungen, Staus, Wetterrisiken etc., mit denen Prozesse innovativ neu gestaltet werden
können oder mobile Services zur Lokalisierung, Registrierung, Authentifizierung oder zum
Bezahlen, um hier nur einige Beispiele zu nennen. Man kann heute mit Fug und Recht
sagen: Information und Analytik sind allgegenwärtig.
These 3: BI ist auf der Vorstandsebene angekommen. Mit der Rolle von BI in
Performance Management und GRC ist BI auf dem C-Level angekommen. Früher wurde BI
der IT im Unternehmen verkauft. Viele BI-Projekte haben darunter gelitten. Die
Wertschöpfung durch BI war schwer oder teils gar nicht nachzuweisen. Riesige Data
Warehouses verursachten Kosten, aber keiner wollte die dort vorhandenen Daten so recht
nutzen. Das ändert sich nun. Die Wertschöpfung von BI im Kontext von Prozessen ist
unbestritten. Im Sinne von GRC wird das Büro des CFO zu einem Leitstand des
Unternehmens. Aus dem CFO wird der Verantwortliche für Performance, Analytik und GRC.
Ein weiterer Treiber ist mit den Smart Phones und Tablets entstanden. Jeder, von der
Vorstandsebene angefangen, will solche Geräte, und BI ist eine der gängigsten
Anwendungen. BI wird auch im Vorstand zu einer Routinetätigkeit und nicht mehr nach unten
delegiert.
These 4: BI findet mehr und mehr Nutzer in den Fachabteilungen. Der Aufbau von BI-
Kompetenzzentren macht es möglich: Insbesondere Analytik kann mehr und mehr von den
Fachabteilungen genutzt werden. Die Ergonomie der Werkzeuge steigt insbesondere durch
Service-Orientierung („Mashing-up“), bessere Visualisierung, höhere Automatisierung und
intuitivere Fähigkeiten. So werden einerseits die Werkzeuge immer besser und besser, aber
andererseits werden die Nutzer in den Fachabteilungen auch immer vertrauter mit digitalen
Werkzeugen. Die „digital natives“, die im privaten Bereich in der Regel über mehr und
bessere Rechnerleistung verfügen als in Unternehmen heutzutage geboten wird, sind in den
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 121
Unternehmen angekommen und stellen „mündige“ Nutzer dar. Wenn dann noch die BI-
Kompetenzzentren Hilfe zur Selbsthilfe leisten, dann kann Analytik von breiten Kreisen der
Nutzer in den Fachabteilungen auch weitgehend autonom genutzt und eingesetzt werden.
Was wir in den 80er Jahren propagiert haben, nämlich Werkzeuge zu bieten, mit denen
Fachabteilungen selbstständig ihre Reports bauen können, wird jetzt so langsam machbar:
Self-Service-BI ist heute Realität geworden. Es kommt dabei auf das Zusammenspiel von
Organisation und Technologie an. Die BI-Governance ist der kritische Erfolgsfaktor.
Die Social-Media-Konzepte und Werkzeuge erlauben darüber hinaus, eine neue
Kollaboration und neue Governance-Ansätze. Hier wird sich in den kommenden Jahren noch
einiges entwickeln. Facebook-artige Lösungen sind gerade dabei, in den Unternehmen Fuß
zu fassen. Aber der Facebook-Ansatz hat hier einen Nachteil, da er ganz auf dem rein auf
den Menschen bezogenen sozialen Ansatz von Marc Zuckerberg beruht. Er ist nicht
ausreichend, um die Steuerung im Unternehmen in allen Belangen zu unterstützen. Hier
scheint der alternative mehr medial ausgerichtete Ansatz von Google+, Jive, Yammer und
anderen geeigneter zu sein: Er ist nicht allein auf sozialen Prinzipien aufgebaut, sondern vor
allem auf Kommunikationsprinzipien. Das könnte besser in die Unternehmen als innovativer
Ansatz in der internen und externen Unternehmenskommunikation wirken. Die Zeit wird es
zeigen. Hier stehen wir noch ganz an den Anfängen.
Fazit: Performance Management und Analytik heute, also die „neue“ BI muss gemäß den
Prinzipien „Einfachheit, Mobilität, extreme Analytik und Kollaboration“ ausgerichtet sein und
entsprechend gelebt werden.
9.2 Taxonomie des Marktes für Performance Management und Analytik
Kommen wir nun zu einer Taxonomie des Marktes. Ausgehend von den drei Phasen der
Aktionszeit (Abb. 36) können wir eine Taxonomie ableiten, um die Spieler (Anbieter) im
Markt zu klassifizieren (Abb. 38). Spitzenspieler der verschiedenen Kategorien sind in den
Kapiteln 9.3 bis 9.5 aufgelistet. Einzelheiten über spezielle, ausgewählte Anbieter werden in
Teil 2 dieses White Papers veröffentlicht werden. In jedem dieser Kompendien werden wir
die Architektur und die Strategie der Anbieter analysieren und entsprechend der
Referenzarchitektur in diesem ersten Teil bewerten.
Teil 2 – Verfügbare Kompendien (März 2012): arcplan, BOARD, Cubeware, EPOQ, IBM,
Informatica, geoXtend, Kapow Software, Lixto, Panoratio, PitneyBowes/MapInfo, SAP, Stibo
Systems, Tibco/Spotfire, Tonbeller AG (auf www.wolfgang-martin-team.net).
Als Best Practice zur Implementierung von Performance Management gelten heute die von
Gartner so genannten CPM-Toolkits, die zwischen CPM-Suites und Einzelwerkzeugen (wie
Tabellenkalkulation) positioniert sind. Diese bieten Performance Management-spezifische
Funktionalitäten als Services, sind also offen mit standardisierten Schnittstellen. Sie sind
wegen des SOA-Prinzips der losen Kopplung aber nicht fest ‘zusammengeklebt’ wie CPM-
Suites, die typischerweise auf proprietären Technologien beruhen, bei deren
Implementierung nicht unerhebliche Integrationsaufwendungen entstehen und ein flexibles
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 122
Anpassen an individuelle und ad hoc Aufgaben nur schwer, wenn überhaupt möglich ist.
CPM-Toolkits funktionieren auf Grund ihres Servicecharakters wie Legosteine mit
Funktionen ‘hinter der rechten Maustaste’. Das erlaubt dem Nutzer nach dem SOA „Mash-
up“-Prinzip durch die Auswahl von Objekten mittels Drag-and-Drop und mittels Eingabe der
entsprechenden Eigenschaften weitgehend selbständig Composite Applications zu erstellen.
Performance Management
© 2012 S.A.R.L. Martin38
Taxonomie PM/Analytik
BAM
Entscheidungsmaschinen
Daten-IntegrationsplattformData
Warehouse
LLDM
Enterprise Service Bus
ETL
Analytik
Maßnahme
BusinessScorecard
Abbildung 38: Taxonomie des Performance Management (PM) und Analytik-Markts und seiner Spieler, die auf dem Prinzip der Aktionszeit (Abb. 36) beruht. (BAM = business activity monitoring, ETL = extraction, transformation, load; LLDM = low latency data mart)
Insofern adressieren insbesondere CPM-Toolkits die alte BI-Anforderung nach mehr
Selbstständigkeit in den Fachabteilungen (siehe These 4 in Kap. 9.1). Während
herkömmliche CPM-Suites nur spezifische Anforderungen innerhalb eines Bereichs mit
einem speziellen Modul abdecken, ist ein CPM-Toolkit eine offene, aber fachlich
zusammenhängende Umgebung, in der dem Nutzer alle Objekte und Funktionen als
Services zur Verfügung stehen, um ohne zu programmieren genau das per Mash-up zu
komponieren und orchestrieren, was benötigt wird.
9.3 Klassifikation der Anbieter von analytischen Datenbanken
Die folgende Auflistung von Anbietern erhebt keinen Anspruch auf Vollständigkeit.
Umgekehrt fokussiert Sie auf den deutschsprachigen Raum und enthält eine Reihe von
lokalen Anbietern. Die Klassifikation folgt der Taxonomie von Abbildung 38. Eine
weitergehende Beschreibung zu ausgewählten Anbietern findet man beispielsweise im ISIS
BI & BPM Kompendium (2011).
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 123
In der Vergangenheit wurden und auch heute noch werden Data Marts und Data
Warehouses in der Regel mittels relationaler Datenbank-Technologie implementiert. Daher
haben wir die traditionellen relationalen Datenbanksysteme hier genauso aufgenommen wir
die analytischen Datenbanken, die wir im Kapitel 7.2 diskutiert haben, und die NoSQL-
Datenbanken, die sich für Analyse eignen und die wir in Kapitel 7.3 diskutiert haben. Bei den
OLAP-Systemen haben wir auch ROLAP aufgenommen, obwohl ROLAP keine persistente
Datenhaltung hat, und ROLAP-Anbieter dazu in der Regel relationale oder analytische
Datenbanken nutzen.
OLAP-Datenhaltungssysteme (MOLAP, ROLAP, HOLAP)
BOARD, IBM Cognos, IBM Cognos TM1, Infor/Alea, Information Builders, instant OLAP,
Microsoft SQL Server, MicroStrategy, MIK, Oracle 11g, Oracle/Essbase, Paris Technologies
(PowerOLAP), Quartet FS (Active Pilot), SAP Netweaver BI, SAS OLAP Server, Teradata
Open Source: The Bee Project, Jaspersoft, Jedox/Palo, Pentaho/Mondrian
(traditionelle) relationale Datenhaltungssysteme
IBM DB2, IBM Informix, Microsoft SQL Server, Oracle 11g, SAS Scalable Performance Data
Server
Open Source: Ingres Data 10, Lucid DB, Oracle/MySQL, PostgreSQL
Analytische relationale MPP-Datenhaltungssysteme
IBM DB2 (InfoSphere Warehouse), IBM Smart Analytics System, IBM Netezza, Kognitio,
SAS Scalable Performance Data Server (mit SAS Grid Computing und SAS In-Memory-
Analytics), Teradata
Open Source: Actian VectorWise, EMC/Greenplum
Analytische NoSQL-Datenhaltungssysteme (ohne in memory Datenverarbeitung)
Illuminate, HP/Vertica, Kx Systems, Sand Analytics, SAP Sybase IQ, Teradata/AsterData,
Vectornova,
Open Source: Apache Cassandra, Apache Hadoop HBase, InfoBright, MongoDB
Analytische NoSQL-Datenhaltungssysteme (in memory Datenverarbeitung)
1010Data, Exasol, IBM Smart Analytics Optimizer, ParAccel, SAP HANA
Spezielle Datenhaltungssysteme (Technologie in Klammern)
CrossZSolutions (QueryObject System), Drawn-to-Scale (Big Data Platform auf Hadoop)
dimensio informatics (minimal-invasives Performance-Tuning), HPCC Systems (Big Data
Framework à la Hadoop), InterSystems (OODB), Oracle Exadata Database Machine (Data
Appliance mit Massive Parallel Grid), Oracle Exalytics In-Memory Machine
(Spezialtechnologie fuer CEP), Panoratio (Database Images)
Hadoop-Distributoren
Cloudera, Hortonworks, MapR
Analytische Datenbanken bringen den Nutzern ganz neue Möglichkeiten, sowohl in der
Skalierbarkeit, der Performance als auch in den Betriebskosten. Wer heute komplexe
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 124
Analysen auf großen Datenmengen durch viele Benutzer mit vielen Abfragen ausführt und
eine hohe Performance und Skalierbarkeit bei einfacher Wartbarkeit benötigt, sollte
analytische Datenbanken auf jeden Fall berücksichtigen. Wir meinen: Eine Evaluation lohnt
sich auf jeden Fall. Damit sollte man auf keinen Fall mehr warten!
9.4 Klassifikation der Performance Management/Analytik-Anbieter
Die folgende Auflistung von Anbietern erhebt keinen Anspruch auf Vollständigkeit.
Umgekehrt fokussiert Sie auf den deutschsprachigen Raum und enthält eine Reihe von
lokalen Anbietern. Die Klassifikation folgt der Taxonomie von Abbildung 38. Eine
weitergehende Beschreibung zu ausgewählten Anbietern findet man beispielsweise im ISIS
BI & BPM Kompendium (2011).
Performance Management / Analytik (allgemeine Frontends: Suites, Toolkits,
Reporting, Dashboards und Spezialwerkzeuge)
die GROSSEN Fünf: HP, IBM, Microsoft, Oracle, SAP
die weltweit größten Spezialisten: Actuate, Infor, Information Builders, MicroStrategy,
QlikTech, SAS Institute
die Herausforderer: Adaptive Planning, Advizor Solutions, Antares Informations-Systeme,
arcplan, aruba Informatik, Bime, Birst, Bissantz, Bitam, BOARD, CA/CleverPath,
Cubeware, Evidanza, GoodData, Host Analytics, InetSoft Style Intelligence, instantOLAP,
Intensio, iQ4bis, kpiWeb, Lyzasoft, Menta, MIK, Oco, Orbis AG, Panorama Software,
Paris Technologies, PivotLink, Prevero, Reboard, SAMAC (nur für IBM iSeries), StatSoft,
Tableau Software, Targit A/S, TIBCO/Spotfire, Tidemark, Tonbeller AG, Verix, Yellowfin
Spezialwerkzeuge für Hadoop: Datameer, Hadapt, Karmasphere
weitere Spezialwerkzeuge (Ansatz in Klammern): Ankhor (Visualisierung von Log-Daten),
Datonix (QueryObject System), Oracle/Endeca (Search), human IT software (InfoZoom),
Panoratio (Database Images)
Open Source: Actuate/BIRT, The Bee Project, JasperSoft, Pentaho
Business Activity Management/Complex Event Processing (BAM/CEP)
Axway, Business CoDe, Gemstone, IBM, Information Builders, Microsoft, myDials, Oracle,
Progress/Apama, SAP/Sybase, SL Corporation, Software AG, Streambase, Systar,
thinkAnalytics, Tibco, UC4 Decision, Verix, Vitria, VMWare/Gemstone
Prädiktive Modelle (Data Mining, Statistik & ähnliche)
Anderson Analytics, Angoss, Avail Intelligence, Blue Yonder, EPOQ, Equbits, Exeura Rialto,
FICO (Fair Isaac Corporation), IBM, IBM/SPSS, IBM/Unica, Infor/E.piphany, ISoft (Alice),
KXEN, Megaputer, Microsoft, MicroStrategy, MIT GmbH, Oracle, Pega Systems (Chordiant),
Pitney Bowes Software (Portrait Software), Prudsys, Quiterian, SAP, SAS, StatPoint
Technologies, StatSoft, Synesis Solutions, Systat Software, thinkAnalytics, Tibco/Spotfire,
Teradata, Treparel, Verix, Viscovery
Open Source: Knime, Orange, RapidMiner, Rattle, Revolution Analytics, R-Project, Weka
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 125
Textanalytik
Alias-i, Anderson Analytics, Attensity, Basis Technology, Business Intelligence Group,
Clarabridge, IBM, IBM/SPSS, Lexalytics, Linguamatics, Megaputer, OpenText/Nstein,
Rocket Software/AeroText, SAP, SAS/Teragram, Saplo, Sentimetrix, Serendio, StatSoft,
Teezir, Temis Group, Thomson Reuters/Clear Forest, Treparel, Viscovery, ZyLab
Open Source: Gate, Python NLTK, R (TM module), RapidMiner
Web-Analyse
Adobe/Omniture, AT Internet, Avail Intelligence, Bango, Bime, ComScore/Nedstat, Enecto,
eTracker, Foresee Results, Google Analytics, IBM Cognos Customer Insight,
IBM/Coremetrics, IBM/Unica, Intellitracker, Lyris, Mindlab Solutions, Nielsen/Glance Guide,
Nurago/LeoTrace, sitespect, Targit A/S, Visible Measures, webtrekk, WebTrends, Wired
Minds, Yahoo! Web Analytics
Open Source: eAnalytics
Location Intelligence
Aruba Informatik, BOARD, Cubeware, deCarta, Digital Globe, DMTI Spatial, ESRI,
geoXtend, Google Earth, Integeo, mapdotnet, MapQuest, MetaCarta, Microsoft/VisualEarth,
Navteq, Oracle, Pitney Bowes Software, Tableau Software, Talent Information Systems,
TomTom Global Content, Vistracks
Entscheidungs-(Regel-)maschinen
Angoss, Avail Intelligence, CA Aion, Bosch SI/Innovations, Corticon, EPOQ, FICO (Fair
Isaac Corporation), IBM, IBM/SPSS, Infor/E.piphany, MicroStrategy, Oracle, Pega Systems,
Pitney Bowes Software (Portrait Software), Prudsys, SAP, SAS, StatSoft, thinkAnalytics,
Tibco, UC4 Decision, Versata, Viscovery
Open Source: RapidMiner
Financial Performance Management (Budgeting, Planning, Forecasting, Financial
Consolidation etc.)
A3 Solutions, Acorn System, Adaptive Planning, Alight Planning, Antares Informations-
Systeme, arcplan, ASRAP Software, Axiom EPM, Bitam, BOARD, Complan & Partner
(EPUS), CoPlanner, CP Corporate Planning AG, CSS Computer Software Studio,
Cubeware, Cubus AG, Denzhorn, Evidanza, HaPeC, Hologram BI, Host Analytics,
IBM/Clarity Systems, IBM/Cognos, IDL Systems, Infor, Longview Solutions, LucaNet, macs
software, Microsoft, MIK, Oracle/Hyperion, Orbis AG, Paris Technologies, PMS GmbH,
Prevero, Procos AG, Prodacapo, ProfitBase, Prophix, Performance Solutions Technologies
(managePro), River Logic, SAP, SAS, Software4You, Tagetik, Targit A/S, Thinking
Networks, Tidemark, UNIT4 Coda, Whitebirch Software
Spezielle Werkzeuge für Spreadsheet-Management und Compliance: ClusterSeven
Business Scorecards (Dashboards, Strategy Maps) – Stand-Alone-Lösungen
Active Strategy, Axsellit (Corporater Express), BOC (AdoScore), Business CoDe,
Communic (Vision.iC), Corda Technologies, Corporater, eBrains Consulting, Hologram BI,
Horvath & Partner, Hyperspace, iGrafix, macs software, myDials, Performance Solutions
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 126
Technologies (managePro), Prelytis, Procos AG, Prodacapo, QPR Software, Rocket CorVu,
Software AG, Stratsys AB, UNIT4 Coda
9.5 Klassifikation der Anbieter von Information Management
Die folgende Auflistung von Anbietern erhebt keinen Anspruch auf Vollständigkeit.
Umgekehrt fokussiert Sie auf den deutschsprachigen Raum und enthält eine Reihe von
lokalen Anbietern. Die Klassifikation folgt der Taxonomie von Abbildung 38. Eine
weitergehende Beschreibung zu ausgewählten Anbietern findet man beispielsweise im ISIS
BI & BPM Kompendium (2011).
Datenintegration – Plattformen
die GROSSEN: IBM, Informatica, Oracle, SAP, SAS Institute/DataFlux
die Herausforderer: Adeptia, Astera, Attunity, Axway, CA/Inforefiner, Columba Global
Systems, Comlab/Ares, Composite Software, Gamma Soft, HVR Software, Information
Builders/iWay Software, Parity Computing, Pervasive, SnapLogic, Software AG, Tibco,
Uniserv, Versata
Open Source: CloverETL, JBOSS Enterprise Middleware, Jitterbit, JumpMind, Talend
ETL/ELT
AbInitio, BOARD, CA/Advantage Data Transformer, Cubeware, Datarocket, Datawatch, IBM,
Informatica, Information Builders, iQ4bis, Menta, Microsoft, Open Text, Oracle, Pervasive,
Pitney Bowes Software, SAP, SAS, Software Labs, SQ Data, Syncsort, Theobald Software,
Tonbeller AG, Uniserv, Versata
Spezielle Werkzeuge zur Planung von DW (“pre-ETL”): Wherescape 3D
Open Source: Apatar, The Bee Project, CloverETL, Enhydra Octopus, KETL, Pentaho/Kettle,
RapidMiner, Talend
ETL – Spezialwerkzeuge semantische Web-Crawler/-Extraktion
30 Digits Web Extractor, Business Intelligence Group, Brainware, Connotate, Fetch
Technologies, Kapow Software, Lixto, Teezir
Datenklassifikation
Data Global, EMC/Kazeon, FileTek/Trusted Edge, Index Engines, Microsoft, Nogacom,
Rocket Software/Arkivio, StoredIQ, Varonis Systems
Datenqualität
AS Address Solutions, Ataccama, Datactics, Datanomic, Datras, emagixx, Harte Henks,
Human Inference, IBM, Informatica, Innovative Systems, Omikron, Oracle, Pitney Bowes
Software, SAP, SAS, tekko, TIQ Solutions, Uniserv, Versata
Open Source: CloverETL, RapidMiner, Talend
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 127
9.6 Entwicklung von Big Data: Marktschätzungen
Der Big Data-Markt besteht aus Software-, Hardware- und Services-Anbietern. Zur Big Data-
Software werden Datenhaltungssysteme, Daten-Management und Analytik gezählt, die den
Belangen und Herausforderungen von Big Data gerecht werden. Dazu gehören:
Datenhaltungssysteme: NoSQL-Datenbanken wie Hadoop und analytische Datenbanken,
eine neue Generation von Data Warehouse Software- und Hardware-Technologien,
Big Data Management, i.e. Daten-Management (Integration, Repository, Datenqualität,
Governance) angewandt auf Big Data,
Big Data analytische Plattformen und Applikationen inklusive neuer Konzepte zur Daten-
Visualisierung, Data Discovery, Location Intelligence, Textanalyse etc. mit Fokus auch
auf die Analyse multi-strukturierter Daten.
Big Data-Services entsprechen den traditionellen Services wie Support, Training sowie
Beratungs- und Entwicklungs-Dienstleistungen, jetzt bezogen auf Big Data. Big Data-
Hardware umfasst alle Typen von Hardware, jetzt angewandt auf Big Data. Neu sind hier
insbesondere Data Appliances, gebündelte und aufeinander abgestimmte Software- und
Hardware-Lösungen, meist auch noch kombiniert mit den entsprechenden Dienstleistungen.
Entwicklung von Big Data
Markt- und Potenzialschätzungen
Anbieter wie EMC sprechen von $70b.
Investitionen in Hadoop: $350m.
Big Data ist mehr als ein Hype.
39 © 2012 S.A.R.L. Martin
Quelle: Wikibon - http://wikibon.org/wiki/v/Big_Data_Market_Size_and_Vendor_Revenues
Abbildung 39 : Wikibon’s 5 Jahres-Vorhersage für den Big Data-Markt (Software, Hardware, Services weltweit).
Am Jahresanfang 2012 ist dieser Big Data-Markt noch ein recht überschaubarer Markt, der
laut Wikibon (http://wikibon.org/wiki/v/Wikibon:About), einer „Professional Community“,
gerade mal auf $5 Milliarden (Software, Hardware und Services) geschätzt wird. Aber dieser
Markt soll in den nächsten 5 Jahren auf $50 Milliarden wachsen (Abb. 39). Das macht ein
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 128
CAGR von 58% von heute bis 2017. Anbieter wie EMC sprechen sogar von $70 Milliarden
als Zielgröße. Die Gründe für dieses rasante Wachstum haben wir ja bereits in Kap. 2.4
diskutiert: Die Nutzenpotenziale, die Analysen im Big Data versprechen, zielen direkt auf die
Bottom Line der Unternehmen in allen Branchen: Umsatzsteigerungen, Kosteneinsparungen,
Erhöhung der Wettbewerbsfähigkeit und neue, innovative Geschäftsmodelle. Wer will da
zurückstehen?
Aber trotz aller Euphorie für die Marktentwicklung und die Zukunft: Noch wird im Big Data-
Markt nicht das große Geld verdient. Wikibon hat dazu die Umsätze der „reinen“ Big Data-
Anbieter 2011/2012 ermittelt. Als „reiner“ Big Data-Anbieter zählt dabei ein Software-,
Hardware- oder Service-Anbieter, der mehr als 50% seines Umsatzes mit Big Data macht.
Der Gesamtumsatz dieser Anbieter (Februar 2012) macht gerade mal $311 Millionen aus,
also gerade mal rund 5% des Gesamtumsatzes im Big Data-Markt (Abb. 40).
Big Data-Anbieter 2011/12
Quelle: Wikibon - http://wikibon.org/wiki/v/Big_Data_Market_Size_and_Vendor_Revenues
40 © 2012 S.A.R.L. Martin
Abbildung 40: Weltweiter Jahresumsatz der führenden “reinen” Big Data-Anbieter bezogen auf Februar 2012. Die „reinen“ Big Data-Anbieter sind definiert als Anbieter von Software, Hardware oder Services, die mehr als 50% mit Big Data umsetzen. Diese gezeigten Zahlen spiegeln nur diese Umsätze wieder.
Aber umgekehrt sind es genau diese Anbieter, auf die nahezu alle Innovationen und
alternativen Ansätze zu Data Management und Analytik zurückgeführt werden können. Und
diese Anbieter sind deshalb auch das Ziel von Übernahmen durch die großen IT-Anbieter:
HP hat Vertica, Teradata Asterdata und EMC Greenplum übernommen. Das zeigt, dass sich
die großen IT-Anbieter ihren Anteil an diesem Wachstumsmarkt sichern. Das unterstreicht
auch, dass die Markteinschätzungen zum Wachstum nicht unbedingt aus der Luft gegriffen
sind, da die großen Anbieter hier investieren. So sind beispielsweise in das Apache
OpenSource-Projekt Hadoop bisher $350 Millionen geflossen.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 129
Wie sieht nun der $5 Milliarden Big Data-Markt in 2012 aus, wenn die „reinen“ Big Data-
Anbieter gerade mal mit 5% zum Markt beitragen? Es dominieren wie immer die großen IT-
Anbieter, und die haben sich alle Big Data auf die Fahnen geschrieben. In der Abbildung 41
listen wir der Wikibon-Schätzung folgend alle IT-Anbieter, die mehr als $100 Millionen
Umsatz mit Big Data machen. Die SAP ist noch nicht dabei, steht aber mit geschätzten $85
Millionen in 2011 kurz vor dieser Schwelle. Bei den Zahlen fällt zum einen auf, dass im
Augenblick viel Geschäft mit Hardware und auch mit Services (beispielsweise IBM) gemacht
wird, und zum anderen, dass mit Ausnahme von Teradata bei allen Anbieter der Big Data-
Umsatz vernachlässigbar klein ist. Aber das soll sich ja ändern, wenn auch völlig klar ist,
dass wir mit Big Data ganz am Anfang stehen. Auch ist in diesem Markt mit vielen
Übernahmen der kleinen innovativen Software-Anbieter durch die großen IT-Anbieter zu
rechnen ganz analog zur BI-Übernahmewelle in den Jahren 2007/08.
Big Data-Umsätze großer IT-Anbieter
Quelle: Wikibon - http://wikibon.org/wiki/v/Big_Data_Market_Size_and_Vendor_Revenues
Vendor
Big Data
Revenue
(in $US millions)
Total Revenue
(in $US millions)
Big Data
Revenue as
Percentage of
Total Revenue
IBM $1,100 $106,000 1%
Intel $765 $54,000 1%
HP $550 $126,000 0%
Oracle $450 $36,000 1%
Teradata $220 $2,200 10%
Fujitsu $185 $50,700 1%
CSC $160 $16,200 1%
Accenture $155 $21,900 0%
Dell $150 $61,000 0%
Seagate $140 $11,600 1%
EMC $140 $19,000 1%
Capgemini $111 $12,100 1%
Hitachi $110 $100,000 0%
Total 2012 Big Data Revenue by Vendor
41 © 2012 S.A.R.L. Martin Abbildung 41: TOP-Anbieter, die mehr als $100 Millionen Umsatz im Big Data machen (Software, Hardware, Services weltweit). Mit Ausnahme von Teradata liegt der Big Data-Umsatzanteil bei allen Anbieten bei rund 1% des Gesamtumsatzes oder sogar darunter.
Fazit: Big Data – der Markt:
Der Markt ist jung und unreif. Wir stehen ganz am Anfang, aber eine Explosion des Marktes ist zu erwarten: Big Data hat großes Potenzial und ist ein sehr schnell wachsender Markt.
Unternehmen sollten den Big Data-Markt beobachten, um nicht den Anschluss zu verlieren. Es empfiehlt sich, Nutzenpotenziale für das Unternehmen jetzt zu identifizieren und in Abhängigkeit von einer solchen Analyse erste Piloten zu starten.
Anbieter sollten eine glaubwürdige Position aufbauen und eine Roadmap, die klar erkennbare Werte bietet und die notwendige Flexibilität, um im Big Data-Markt zu prosperieren.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 130
9.7 Grundsätze zur PM/Analytik-Plattform- und Werkzeugauswahl
Die Evolution der traditionellen BI von Reporting und Analyse historischer Daten („Data
Warehouse“) zu prozess-orientierter, operationaler BI hat schon 2003/04 eingesetzt. Das ist
einer der Hauptgründe, warum die großen BPM/SOA-Plattform-Spieler (HP, IBM, Microsoft,
Oracle, SAP) und die führenden ERP II Anbieter (beispielsweise Infor) ihre Plattformen um
BI-Lösungen in 2007 (HP erst in 2011) ergänzt und arrondiert haben. Unter diesen
Gegebenheiten haben Anwender und Kunden die Wahl zwischen drei Szenarien:
Das konservative Szenario: Man wählt eine der fünf Plattformen. Der Nutzen für die
Anwender und Kunden liegt auf der Hand: Alles kommt aus einer Hand, alles ist integriert
und alles passt (mindestens sagt das das Marketing der Anbieter und einiges stimmt ja
auch!) Allerdings sind die Nachteile auch offenkundig: Man hängt am Tropf der Plattform
seines Anbieters und ist dessen Preisgestaltung (Lizenzierung, Wartung und Support)
ausgesetzt. Dazu kommt das Risiko, dass man nicht immer voll darauf bauen kann, dass die
aufgekauften BI-Lösungen vom neuen Besitzer mit der gleichen Sorgfalt und den
entsprechenden Investitionsvolumen weiterentwickelt wird. Ein konservativer Kunde wird
dann sagen: Mit den Nachteilen kann ich leben. Ich bin auf der sicheren Seite, denn eine
Entscheidung für einen der großen Anbieter stellt ein minimales Risiko dar.
Das innovative Szenario: Die SOA-basierten Plattformen der Großen Fünf bieten auch eine
große Chance, denn eine SOA folgt Standards. Niemals zuvor hat man in der IT gesehen,
dass alle großen Anbieter wirklich zusammen arbeiten und die Standards nach vorne
bringen (Das könnte zwar noch besser sein, aber viele der Standards sind schon
praxistauglich.) Mit anderen Worten, SOA macht die Plattformen offen. Sie stellen einen Bus
dar, in den jeder andere Anbieter sich leicht einklinken kann. Best-of-Breed wird möglich.
Das ist die Chance für innovative und kleine, agile Anbieter, Nischenfunktionalität zur
Ergänzung oder als Alternative zur Basisfunktionalität der Plattform erfolgreich in den Markt
bringen zu können. Innovative BI-Nutzer können so von der Offenheit der Plattform
profitieren und sich durch bessere BI-Werkzeuge Marktvorteile erarbeiten. Hier ist an
Enterprise Search, Simulationsverfahren, Text Mining, linguistische Verfahren,
Netzwerkanalysen etc zu denken.
Das Low-Budget-Szenario. Die Offenheit der Plattformen bietet Unternehmen, die nur
Commodity-Lösungen zu einem Commodity-Preis suchen ebenfalls eine Chance:
OpenSource-Lösungen sind aufgrund der Service-Orientierung leicht integrier- und nutzbar.
Das ist heute die Low-Budget-Alternative zu den BI-Lösungen der Plattform-Anbieter.
Inzwischen wird auch nahezu die gesamte Performance Management und Analytik-
Funktionalität in Form von OpenSource-Lösungen angeboten.
Heute tut sich eine weitere Möglichkeit auf, denn mit den Initiativen zu Cloud Computing
kommt eine Alternative zu den traditionellen „on premise“-Lizensierungsmodellen in den
Markt, die jetzt die Plattformanbieter unter Druck bringt, auch ein BI as a Service anzubieten.
Nahezu alle Anbieter haben diesen Schritt bereits vollzogen. BIaaS hat zudem das Potential,
BI in den Mittelstand zu bringen, denn da ist bis heute nur Excel als Werkzeug angekommen,
aber Mittelständler unterliegen den gleichen Compliance-Anforderungen wie die
Großunternehmen. Insofern ist das Ende von isolierten Excel-Lösungen als Unternehmens-
Werkzeug eingeläutet. Dieser Riesenmarkt wird sich mit BIaaS und ähnlichen Angeboten
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 131
aus der „Wolke“ erschließen lassen, aber nicht unbedingt nur mit den Plattformen der heute
(noch) führenden Anbieter.
9.8 Roadmap für die Nutzer von Big Data
Die aktuellen Big Data-Aktivitäten in Unternehmen kann man in drei Gruppen einteilen:
agiles Big Data, operationelles Big Data und „High Resolution Management“. So lassen sich
im Endeffekt die Angebote der Anbieter besser verstehen, und CIOs und CTOs können für
ihre Ziele die richtigen Angebote besser auswählen.
Agiles Big Data bezeichnet den Ansatz, dass alles nicht viel kosten und vor allem auch
schnell gehen sollte. Bei diesem Ansatz helfen beispielsweise die Technologie-Angebote, die
Analysten rasch erlauben festzustellen, ob eine Datenmenge aus dem Big Data fürs
Unternehmen Potenzial hat. Hier eignen sich insbesondere auch die jetzt auf den Markt
kommenden Data as a Service-Angebote, die über ein OPEX-Finanzierungsmodell
kurzfristig operativ abgerechnet werden können und die schnell nutzbar – und wenn es sich
nicht lohnt – auch schnell wieder abschaltbar sind. Im agilen Big Data-Ansatz sind die
Analysten oder Data Scientists (siehe Kapitel 3.4) die Macher. Die Unternehmen, die einen
solchen Ansatz fahren haben typischerweise eine robuste Unternehmenskultur in daten-
getriebenem Treffen von Entscheidungen. Die Kernfrage im agilen Big Data ist: Wie kann
man eine Art von Spreadsheet-Konzept in der Welt von Big Data etablieren?
Operationelles Big Data bezeichnet die Automatisierung und Verschlankung des
Analyseprozesses, damit man Entscheidungen treffen kann und Geschäftsprozesse
intelligenter werden. Hier findet der Wettbewerb statt zwischen der OpenSource-Welt von
Hadoop und den in Kapitel 9.3 genannten Anbietern zusammen mit den Data Discovery-
Lösungen wie sie beispielsweise MicroStrategy, QlikTech, SAS Institute, Tableau Software
und TIBCO Spotfire anbieten. Die Kernfrage im operationellen Big Data ist: Wie können wir
eine Infrastruktur schaffen, so dass jeder Nutzen aus dem ziehen kann, was wir aus dem Big
Data lernen?
High Resolution Management meint die Idee, dass die Management-Prozesse und auch
so mancher operativer Geschäftsprozess auf Basis der viel detaillierteren Fakten, die man
aus dem Big Data gewinnen kann, komplett neu zu gestalten ist. Die Kernfrage im High
Resolution Management ist: Wie können wir die Art und Weise ändern, mit der wir unser
Unternehmen managen, wenn wir all die Details über Markt und Kunden aus dem Big Data
zur Verfügung haben?
Mit diesem Modell als Hintergrund lässt sich sehr schön die SAP-Strategie darstellen, die wir
wegen der Bedeutung von SAP im deutschsprachigen Markt hier anführen. Sanjay Poonen24
sagt: „SAP is attempting to create an integrated approach that allows companies to perform
24
Sanjay Poonen ist President und Corporate Officer bei SAP Global Solutions, siehe Beitrag in Forbes:
http://www.forbes.com/sites/danwoods/2012/01/05/bringing-value-of-big-data-to-business-saps-integrated-
strategy/
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 132
analytics, make big data operational, and support applications for high resolution
management all in one environment.”
Wie wir schon gesagt haben: Big Data Technologien sind noch jung und unausgereift. Big
Data-Vorgehensweise stützen sich auf eine noch überschaubare Menge von Erfahrungen.
Hier haben wir fünf Herausforderungen zusammengestellt, die Nutzern helfen sollen, die
ersten Schritte in Richtung Big Data zu gehen.
1. Herausforderung: Das Aufspüren von talentierten Mitarbeitern, die Big Data und
Analytik kennen und Erfahrungen gemacht haben. Das ist nicht zu unterschätzen,
denn solche Experten sind noch rar im Markt. Hier sollte man auf jeden Fall auf
spezialisierte Beratungsunternehmen zurückgreifen, denn sonst kann man schnell viel
Zeit und Geld verlieren ohne einen Mehrwert aus Big Data zu erzielen. Vor allem: Starten
Sie nicht ins Big Data ohne externe Beratung, die neben den Big Data-Technologien vor
allem auch in Sachen Organisation berät. Im Big Data braucht man neue Wege in der
Zusammenarbeit IT und Fachabteilung sowie neue Rollen und
Arbeitsplatzbeschreibungen. Wir hatten die Data Scientists in diesem Zusammenhang ja
schon genannt (Kap. 3.4).
2. Herausforderung: Das Auswählen der Technologie und der Werkzeuge. Hier sollte
natürlich auch der externe Berater helfen. Es empfiehlt sich (nicht nur) im Big Data, die
Strategie zuerst festzulegen, also beispielsweise, ob man ins agile oder operative Big
Data will oder sogar ein High Resolution Management anstrebt. Denn – wie schon gesagt
– die Auswahl der Technologie und der Werkzeuge, sowie die Frage der Bereitstellung –
Cloud oder nicht Cloud – hängt davon ab.
3. Herausforderung: Das Feststellen der Relevanz von Information für die
Problemstellung. Welche Information bietet einen Mehrwert in Bezug auf die Kosten der
Identifizierung, Extraktion, Speicherung und Analyse? Das ist die Grundsatzfrage, die
man a priori in den seltensten Fällen beantworten kann. Ein Lösungsansatz ist das
Aufstellen von Relevanzmaßen. Bei Stimmungsanalysen kann man beispielsweise eine
Datenquelle danach bewerten, wie oft ein uns interessierender Begriff in welchem
Zeitraum vorkommt. Dabei helfen dann die bekannten Suchfunktionen, um sich solche
Statistiken zu erarbeiten. Hier sollte auch der externe Berater mit Best Practices helfen.
Ansonsten gilt: Ausprobieren und iterieren („trial and error“). Man betritt hier definitiv
Neuland.
4. Herausforderung: Das kontinuierliche “Anders-Denken”. Hier gilt als Regel: keine
Annahmen treffen, keine Hypothesen haben. Denn Big Data-Analysen dienen ja gerade
dazu, Hypothesen zu finden, die man so nicht kannte und erwartet hatte. Das Testen
solcher Hypothesen erfolgt erst in einem zweiten Schritt. Das Problem ist hier, dass wir
aus der „alten“ Zeit, in der nur wenig Information zur Verfügung stand, es gewohnt sind,
mit Hypothesen zu arbeiten, die man aus Erfahrungswissen her kannte. Analyse diente
dann genau dem Testen solcher Hypothesen. Jetzt im Big Data dient Analyse zuerst
eben dem Finden von Hypothesen. Das ist neues, anderes Denken, an das man sich erst
noch gewöhnen muss.
5. Herausforderung: Ein Ende finden und den Analyseergebnissen vertrauen. Hier
können wir an den zweiten der fünf Nutzenaspekte aus Kapitel 2.4 anknüpfen: Testen
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 133
aller Entscheidungen. Wenn eine Hypothese gefunden wurde, dann sollte man die
schnell in einen Test umsetzen und Kunden und Markt entscheiden lassen, ob die
Hypothese falsch ist oder zu positiven Auswirkungen geführt hat. Das entspricht dem
Vorgehen der Big Data-Vorreiter, die ihre gefundenen Hypothesen zügig in
Testumgebungen umgesetzt haben und dann die Wirkung gemessen haben. Das ist
schnell und dann auch monetär bewertbar. Im Endeffekt ist das natürlich auch wieder ein
iteratives Verfahren nach der “trial and error”-Methode. Da man aber Kunde und Markt
einbezieht, hat man in jeder Iteration eine direkte Wirkung auf die Bottom-Line und damit
eine zuverlässige Steuerung des Gesamtprozesses mit Umsatz und Profit als mögliche
Zielgrößen. Hier sieht man auch, wie wichtig das Wissen eines externen Beraters in den
organisatorischen Fragen ist: Nur wenn ein solches iteratives Verfahren in der
Unternehmensorganisation machbar ist, können Big Data-Analysen tatsächlich einen
messbaren Mehrwert erzeugen.
Fazit: Big Data-Roadmap:
Nutzer von Big Data sollten (wie immer) mit dem Aufstellen der Strategie beginnen. Die
sollte den Richtlinien agiles oder operatives Big Data oder High Resolution Management
folgen sollte.
Nutzer von Big Data stehen vor fünf Herausforderungen, die (wie immer) nicht nur im
Meistern der Technologie bestehen, sondern vor allem in der Organisationsstruktur (Wie
stelle ich mich für Big Data auf?) und in der Vorgehensweise (iterativ Hypothesen finden
und testen) bestehen.
Der Erfolg von Big Data-Analysen muss iterativ durch seine Auswirkungen auf Kunden-
und Marktverhalten gemessen und monetär bewertet werden.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 134
10 Schlusswort und Literaturverzeichnis
Ich bin davon überzeugt, dass meine Vision von Performance Management und Analytik, die
Operationen, Taktiken und Strategien umfasst, Standard wird für die kontinuierliche
Entwicklung von metrisch-orientiertem Management, der Voraussetzung, um sich heutigen
Aufgaben wie Governance, Risiko-Management und Compliance zu stellen. Ebenso bin ich
davon überzeugt, dass die hier diskutierte Referenzarchitektur analytischer Infrastrukturen
Standard wird für dynamische, unternehmensspezifische SOA (service-orientierte) IT-
Architekturen. Die Merger und Akquisitionen insbesondere der Jahre ab 2007 geben mir hier
bereits Recht. Die Anbieter SOA-basierter Plattformen ergänzen sich um Analytik per
Service-Orientierung. Dieses White Paper wird insofern weiterhin helfen, Entscheidungen
über Strategien und über Plattformen und analytische Services auch im Sinne von Cloud
Computing als IT-Bereitstellungsmodell zu treffen.
Performance Management und Analytik sind die richtigen Reaktionen auf die
Herausforderung, ein Geschäft zu leiten: Man kann nur managen, was man messen kann.
Wichtig dabei ist, dass das Messen über die reinen Finanzkennzahlen hingehen muss. Wir
müssen operative, taktische und strategische Metriken miteinander kombinieren, um die
richtigen KPMs zu haben. Das ist eines der Leitmotive und die große Herausforderung, die
Unternehmen in eine erfolgreiche Zukunft begleiten. Die technologischen Fortschritte beim
mobilen Internet und bei den sozialen Medien und den daraus resultierenden
Kollaborationsmethoden haben hier die wesentlichen Voraussetzungen geschaffen und
wirken als die großen Treiber.
Fazit:
Business Intelligence – Status Quo: Kritischer Erfolgsfaktor von BI heute ist, Information in
den Kontext von Geschäftsprozessen zu stellen, denn auf die Geschäftsprozesse kommt es
an! Information, auf die Prozesse bezogen, erlaubt den Mitarbeitern, die Prozesse regeltreu
(„compliant“) zu gestalten und nachvollziehbar verfolgen können. So können
Prozessverantwortliche und Führungskräfte die augenblickliche Position und Situation jedes
Prozesses verstehen und rechtzeitig Maßnahmen treffen, wenn Probleme und Risiken sich
abzeichnen. So lassen sich bessere Entscheidungen treffen. Business Intelligence gehört zu
und an jeden Arbeitsplatz. Business Intelligence dient heute dazu, Prozesse intelligent zu
machen und mittels Performance Management zu steuern. Aus traditioneller Business
Intelligence ist Performance Management und Analytik geworden.
Annecy, im Oktober 2012
E-Mail-Adresse: [email protected]
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 135
Literatur:
Inmon, W.H., Imhoff, C., and Sousa, R.: Corporate Information Factory, New York, John
Wiley & Sons, 1998, 274 Seiten
Lehmann, P., Martin, W., und Mielke, M.: Data Quality Check 2007 – Trends im deutschen
Markt, Steinbeis Edition, Berlin – Ludwigshafen, 2007, 34 Seiten
Luckham, D.: The Power of Events: An Introduction to Complex Event Processing in
Distributed Enterprise Systems, Boston, Addison Wesley Professional, 2002, 400 Seiten
Martin, W.: Business Performance Management und Real-Time Enterprise – auf dem Weg
zur Information Democracy, Strategic Bulletin, IT Research, www.it-research.net, Aying bei
München, 2003-A, 32 Seiten
Martin, W.: CRM 2004 – Kundenbeziehungsmanagement im Echtzeitunternehmen, Strategic
Bulletin, IT Research, www.it-research.net, Aying bei München, 2003-B, 32 Seiten
Martin, W.: BI 2004 – Business Intelligence trifft Business Integration, Strategic Bulletin, IT
Research, www.it-research.net, Aying bei München, 2004, 32 Seiten
Martin, W.: SOA 2008 – SOA basierendes Geschäftsprozessmanagement, Strategic Bulletin,
IT-Verlag für Informationstechnik GmbH, Aying bei München, 2007, 28 Seiten
Martin, W.: Regelbasierte Komposition von agilen Business Services, White Paper, S.A.R.L.
Martin, www.wolfgang-martin-team.net, Annecy, 2008, 23 Seiten
Martin, W.: Information Governance – Ergebnisse einer Marktbefragung zum Status Quo und
zu den Trends 2012, Research Note, S.A.R.L. Martin, www.wolfgang-martin-team.net,
Annecy, 2012, 12 Seiten
Martin, W.: Big Data, Strategic Bulletin, IT-Verlag für Informationstechnik GmbH, Aying bei
München, 2012, 42 Seiten
Martin, W., Nußdorfer, R.: Portale in einer service-orientierten Architektur – Prozesse und
Menschen – Kollaborations- und Präsentationsdienste, Kompendium „Status und Trend“,
iBond White Paper Vol. 4, www.soa-forum.net,München, 2006, 33 Seiten
Martin, W., Eckert, J., und Repp, N.: SOA Check 2010 – Status Quo und Trends im
Vergleich zum SOA Check 2009, 2008 und 2007, IT-Verlag für Informationstechnik GmbH,
Aying bei München, 2010, 33 Seiten
Nußdorfer, R., Martin, W.: RTE – Real-Time orientierte IT Architektur, White Paper “Das
große Ganze – IT Architekturen strategisch geplant“, iBonD White Paper Vol. 1, www.soa-
forum.net; 2003, 35 Seiten
Nußdorfer, R., Martin, W.: BPM – Business Process Management – Änderung des
Entwicklungsparadigmas, White Paper “Geschäftsprozesse als Lösungen“, iBonD White
Paper Vol. 3, www.soa-forum.net; 2007, 43Seiten
-: ISIS BI & BPM White Paper, Edition 2011, nomina, München, 2011, 95 Seiten
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 136
11 Glossar und Liste der Abkürzungen
In diesem Glossar fassen wir die wesentlichen Definitionen, die wir in diesem White Paper
aufgestellt haben, nochmals zusammen.
Analytik bezeichnet sowohl den Prozess zur Gewinnung von Information und der Ableitung
eines Modells zur Nutzung von Information (beispielsweise prädiktive Modelle aus einem
Data Mining Prozess) als auch die Einbettung und Nutzung dieses Modells in
Geschäftsprozessen. Die Idee ist, „intelligente“ Prozesse zu schaffen.
Analytische Datenbanken verbessern die Skalierbarkeit und die Performance deutlich
gegenüber traditionellen Datenbanken. Zusätzlich helfen sie auch, die Betriebskosten zu
senken. Das beruht auf der Kombination von bekannten und neuen Technologien wie
Spaltenorientierung, Komprimierung, speziellen, intelligenten Zugriffsverfahren, massiv
paralleler Verarbeitung sowie In-Memory-Technologien.
Agilität bedeutet die Fähigkeit zur Flexibilität.
Eine Architektur in der Informatik spezifiziert das Zusammenspiel der Komponenten eines
komplexen Systems. Sie beschreibt die Übersetzung fachlicher Anforderungen in
Bauinstruktionen. Damit hat eine Architektur Charakteristiken und Konsequenzen.
BI as a Service (BIaaS) bedeutet die Bereitstellung von analytischen und Performance
Management Services mittels des Cloud Computing Modells. Dabei bezeichnet Cloud
Computing25 ein auf Virtualisierung basierendes IT-Bereitstellungsmodell, bei dem
Ressourcen sowohl in Form von Infrastruktur als auch Anwendungen und Daten als verteilter
Dienst über das Internet durch einen oder mehrere Leistungserbringer bereitgestellt wird.
Diese Dienste sind nach Bedarf flexibel skalierbar und können verbrauchsabhängig
abgerechnet werden.
Big Data (früher: die Datenflut) bedeutet nicht nur ein riesiges Datenvolumen, sondern
auch einen Mix aus strukturierten und unstrukturierten Daten mit komplexen Beziehungen
untereinander. Eine wahre Flut von Daten wartet im Web auf uns. Die Quellen im Web sind
vielfältig: Portale, Web-Applikationen, Social Media, Videos, Photos und mehr, eben Web-
Content aller Art. Neben der schieren Datenflut ist die Unterschiedlichkeit und Vielzahl der
Quellen das zweite große Problem: Der Zugriff auf eine Quelle im Big Data ist jedes Mal neu
zu definieren: Die Konsequenz ist ein Zeit- und Ressourcenproblem. Dazu kommt, dass
immer mehr Mitarbeiter im Unternehmen möglichst in Echtzeit Big Data nutzen möchten.
BI-Governance besteht wie jede Governance aus vier Elementen, einer
Organisationsstruktur, aus den BI-Governance-Prozessen, den entsprechenden
Management-Policies und einer Technologieplattform. Die Organisationsstruktur besteht aus
einem Leitungsgremium, dem ein BI-Sponsor vorsitzt, dem BI-Kompetenzzentrum und den
Data Stewards. Dazu gehören wohl-definierte Rollen und Verantwortlichkeiten.
Business Activity Monitoring (BAM) ist Teil von operativem Performance Management.
Dabei dient BAM dem Verarbeiten von Ereignissen (einfachen Ereignissen oder
25
Definition von Cloud Computing nach Prof. Dr. Helmut Krcmar, TU München, 2008.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 137
Ereignisströmen). Die Aufgabe von BAM ist das Erkennen und Bewerten von Ereignissen,
um Aktionen zum Gegensteuern auszulösen. Der Verarbeitung komplexerer Ereignisse dient
das Complex Event Processing.
Als Business Intelligence (BI) bezeichnet man die Fähigkeit, Bereitschaft und Fertigkeit,
das Geschäft zu kennen und zu verstehen – oder detaillierter ausgedrückt: Unter Business
Intelligence verstehen wir alle Strategien, Prozesse und Technologien, bei denen aus Daten
Information und aus Information erfolgskritisches Wissen gewonnen wird, so dass
Entscheidungen auf Basis von Fakten getroffen werden, die Aktionen zur Unternehmens-
und Prozesssteuerung auslösen.
Business Process Management (BPM) dient dem Managen des Lebenszyklus von
Geschäftsprozessen. Es ist ein Kreislaufmodell, das aus drei Phasen besteht:
Phase 1: Analysieren, planen, modellieren, testen und simulieren von
Geschäftsprozessen.
Phase 2: Ausführen von Geschäftsprozessen durch applikationsübergreifende
Arbeitsabläufe („process flow“) mittels einer Prozessmaschine auf einer service-
orientierten Architektur (SOA) als Infrastruktur
Phase 3: Planen, Überwachen und Steuern der Prozesse, ihrer Performanz und des
Zusammenspiels aller Geschäftsprozesse
Eine Business Scorecard ist eine widerspruchsfreie, umfassende Gruppe von Metriken
gemäß einer Managementpolitik, um die Performanz (Leistung) einer Gruppe von
Prozessen, eines Unternehmensbereiches oder des gesamten Unternehmens zu
überwachen und zu steuern. Widerspruchsfrei bedeutet insbesondere, dass Metriken sich
nicht widersprechen und so Konflikte zwischen Rollen und kollaborativen Teams schaffen,
die in unterschiedlichen Kontexten arbeiten. Sie wird im Rahmen einer BI-Governance aus
dem Informationsprofil einer Rolle abgeleitet und mit Hilfe der Technologie von Dashboards
implementiert.
Business Services sind Komponenten eines Geschäftsprozesses und stellen so fachliche
Services dar, die von Service-Zentren, Kompetenz-Zentren oder auch von traditionellen
Abteilungen geleistet werden. Sie werden entweder intern bereitgestellt oder von Dritten
bezogen. Sie können auch als SaaS bereitgestellt werden.
Business-Vokabular (oder Business-Glossar oder -Terminologie) stellt die Terminologie der
gesamten Fachlichkeit in einem Unternehmen und seinem Unternehmensnetzwerk dar. Es
ist zwingend notwendig, denn Prozesse brauchen eine einheitliche gemeinsame
Terminologie zur Modellierung und Kommunikation mit allen an den Prozessen Beteiligten,
den Mitarbeitern in den Fachabteilungen und in der IT, aber auch den Lieferanten, Partnern
und sogar den Kunden. Cloud Computing siehe in diesem Kontext unter BIaaS.
Complex Event Processing (CEP) meint die Verarbeitung komplexer Ereignisse. Aufgabe
von CEP ist die Erkennung, Analyse, Gruppierung und Verarbeitung voneinander
abhängiger, beliebiger Ereignisse. Damit ist CEP der nächste Schritt über BAM hinaus. CEP
bezeichnet die Methoden, Techniken und Werkzeuge, um solche Ereignisse zu verarbeiten
während sie passieren, also in Echtzeit. CEP leitet aus Ereignissen höheres, wertvolles
Wissen in Form von komplexen Ereignissen ab. Das sind Situationen die sich nur als
Kombination mehrerer Ereignisse erkennen lassen.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 138
Compliance bedeutet die Erfüllung der von der Unternehmensleitung gemachten Vorgaben
(„Policies“) sowie der rechtlichen und regulativen Vorgaben. Mit anderen Worten: Jeder im
Unternehmen handelt so, wie er handeln sollte.
Unter Data Discovery versteht man eine neue Generation von BI-Werkzeugen, die sich
durch außerordentliche Benutzerfreundlichkeit und Flexibilität auszeichnen. Dazu kommt die
Verwendung von In Memory-Technologien, die intern zur Speicherung und Verarbeitung
genutzt werden. Der große Vorteil der In Memory-Technologie ist die Performance: Daher
sind Data Discovery-Werkzeuge insbesondere zur Big Data-Analytik geeignet. Weiterhin
setzen sie auf Visualisierung, interaktive, intuitive Analyse, Kollaboration und Autonomie der
Endanwender.
Ein Data Mart ist im Gegensatz zu einem Data Warehouse keine unternehmensweite
Lösung, sondern ein Data Warehouse Konzept zur Lösung von entweder isolierten
Teilaufgaben der Entscheidungsunterstützung oder im Rahmen einer Data Warehouse
Architektur eine aufgabenbezogene Teilmenge eines Data Warehouse.
Data Mining ist definiert als ein Prozess zur Identifizierung und/oder Extraktion vorher
unbekannter, nicht-trivialer, unerwarteter und wichtiger Information aus großen bis sehr
großen Mengen von (strukturierten) Daten.
Data Scientists sollen die Verarbeitung von Big Data fördern und helfen, die Potenziale von
Big Data auch zu realisieren. Sie treiben als Mittler zwischen der IT und den
Fachabteilungen den weiteren Ausbau der Zusammenarbeit quer über alle
Geschäftseinheiten inklusive der IT. Das erfordert neue Skills und eine Neuorientierung der
IT: Die IT muss in den Zeiten von Big Data den Hauptfokus auf Data Management legen.
Ein Data Warehouse ist ein Konzept für eine subjektorientierte, integrierte, zeitbezogene
und dauerhafte Haltung von Information zur taktischen und strategischen
Entscheidungsunterstützung im Unternehmen. Es ist eine von den operationellen IT-
Systemen getrennte Datenhaltung, die über eine Datenintegrationsplattform auch im
Rahmen von operativer Entscheidungsunterstützung eingesetzt werden kann.
Datenintegration stellt Informations-Services zur Verfügung, um Daten, aber auch Meta-
und Stammdaten zu analysieren, Datenmodelle abzuleiten, Daten und Metadaten
aufzubereiten und zu profilieren, sowie ETL- (extraction, transformation, load) Dienste.
Eine Datenintegrationsplattform erlaubt parallelen und simultanen Zugriff auch in Echtzeit
auf operative und dispositive Daten per Services im Rahmen einer SOA. So wird das
traditionelle Data Warehouse zu einer Komponente der Datenintegrationsplattform.
Datenqualität sollte bereits in die operativen Prozesse im Rahmen einer TQM (total quality
management)-Initiative eingebaut werden. Die vier Eckpfeiler von Datenqualität sind:
Qualität wird als Grad der Übereinstimmung mit Anforderungen definiert.
Das Grundprinzip der Qualitätsplanung ist Vorbeugung.
Null-Fehler-Prinzip muss zum Standard werden.
Qualitätskosten sind die Kosten für Nichterfüllung der Anforderungen.
Echtzeit im Business bedeutet die richtige Information zum richtigen Zeitpunkt am richtigen
Ort zum richtigen Zweck verfügbar zu haben. Die „Echtzeit“-Forderung im Business hat also
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 139
nichts mit der Uhrzeit zu tun. Was für „Echtzeit“ entscheidend ist, ist die Verfügbarkeit von
Information in der Geschwindigkeit, mit der sie benötigt wird.
ELT, siehe ETL-Prozesse.
Enterprise 2.0 bezeichnet die Nutzung von Social-Software-Plattformen in einem
Unternehmen oder zwischen Unternehmen und seinen Kunden und Partnern (nach Andrew
McAfee). Bei Enterprise 2.0 geht es um das Nutzen und Nutzenkonzepte von Web 2.0-
Technologie im Unternehmen, nicht um die Web 2.0-Technologien allein.
Eine Entscheidungs-(Regel-)Maschine (englisch: business rule management sytem –
BRMS) setzt eine Entscheidungslogik operativ um. Eine Entscheidungslogik wird mittels
Regeln beschrieben.
ETL-Prozesse (extract, transform, load) dienen der Füllung und Auffrischung eines Data
Marts oder eines Data Warehouse mit internen oder externen Daten. Dabei meint „extract“
das Entladen von Daten aus den unterschiedlichen Datenquellen, „transform“ das
Transformieren dieser Daten in das Data Warehouse Datenmodell und „load“ das
entsprechende Laden. Alternativ gibt es auch ELT-Prozesse, bei denen der Transform- und
Ladeschritt in umgekehrter Reihenfolge durchgeführt werden. Während bei den ETL-
Prozessen der Transform-Schritt außerhalb der Datenbank vollzogen wird, findet er bei den
ELT-Prozessen in der Datenbank statt, was in der Regel zu Performance-Gewinnen führt.
Ein Geschäftsprozess ist….
eine Menge von Aktivitäten & Aufgaben ausgeführt von Ressourcen
(Services geleistet von Menschen & Maschinen)
unter Nutzung unterschiedlicher Information
(strukturiert & unstrukturiert)
mittels unterschiedlicher Interaktionen
(vorhersehbar & unvorhersehbar)
gesteuert von Management-Politiken und Prinzipien
(Geschäftsregeln & Entscheidungskriterien)
mit dem Ziel, vereinbarte Endergebnisse zu liefern
(Strategien & Ziele)
Governance bezeichnet die verantwortungsvolle, nachhaltige und auf langfristige
Wertschöpfung ausgerichtete Organisation und Steuerung von Aktivitäten und Ressourcen
im Unternehmen. Das bedeutet ein regelkonformes Management und Verhalten. In allen
Aktionen der Unternehmensressourcen – Menschen, Maschinen und Systemen – muss
sichergestellt sein, dass die Management-Policies und -Leitlinien beachtet und umgesetzt
werden. Auf diese Art und Weise stellt Governance Compliance sicher.
Hadoop ist ein Apache Software Foundation Entwicklungsprojekt. Es arbeitet wie ein Daten-
Betriebssystem und besteht aus drei Komponenten: der Speicherschicht HDFS (Hadoop
distributed file system, der Programmierumgebung MapReduce zur Verarbeitung von
Abfragen und einer Funktionsbibliothek. Dazu kommen noch einige Ergänzungen wie die
High Level Query Languages (HLQL) Hive, Pig und JAQL, sowie ZooKeeper (Managen
verteilter Konfiguration), Chukwa (Echtzeit-Monitoring) und andere.
Information Management hat als Zielsetzung, vertrauenswürdige Daten zu schaffen. Die
Aufgaben von Information Management sind die Definition der Daten (die Unternehmens-
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 140
Terminologie), die Modellierung der Daten (die Unternehmens-Semantik), das Meta- und
Stammdaten-Management (Transparenz und Nachvollziehbarkeit), das Datenqualitäts-
Management (Relevanz und Korrektheit), die Datenintegration und die Datensicherheit und -
Schutz.
Ein Kompetenzzentrum ist eine in vielen Unternehmen genutzte Organisationsstruktur, die
eine funktionsübergreifende Einheit im Unternehmen darstellt, Sie ist als interdisziplinäres
Team verantwortlich, den Einsatz einer bestimmten Disziplin im Unternehmen zu fördern,
beispielsweise ein BI-Kompetenzzentrum den Einsatz von BI. Location Intelligence ist die
geographische Dimension von Business Intelligence. Es kombiniert Technologie, Daten und
Services mit Fachwissen, um Organisationen in die Lage zu versetzen, ihre Geschäftsdaten
auch räumlich geographisch zu messen, zu vergleichen, zu visualisieren und zu analysieren.
MapReduce ist eine von Google vorgeschlagene Programmierumgebung und -Modell für
verteile Verarbeitung über viele bis sehr viele Knoten, die aus preiswerter „Commodity“-
Hardware bestehen können.. Mehr dazu unter Big Data und Hadoop.
Mash-up (engl. für Vermanschung) bezeichnet die Erstellung neuer Inhalte durch die
nahtlose Kombination bereits bestehender Inhalte. Eine SOA ist in der Regel die
Voraussetzung.
Meta-Daten sind Information über Daten, die in der Regel in einem Repository gespeichert
werden. Meta-Daten setzen sich zusammen aus den Stammdaten, den Navigations-Daten
und den Administrationsdaten. Sie beschreiben den Aufbau, die Elemente, die
Eigenschaften der Elemente von Daten inklusive entsprechender Regeln.
Eine Metrik beschreibt, wie die Leistung eines Prozesses zu messen und zu managen ist
und / oder wie ein Prozess zu überwachen und zu steuern ist. Sie wird durch Metrisierung
der Unternehmens- und Prozess-Ziele abgeleitet. Metriken werden wie Sensoren entlang der
Prozessstrecke eingesetzt, um ein proaktives Erkennen von Problemen (also beispielsweise
das absehbare Nichterreichen des geplanten Endergebnisses) zu ermöglichen, so dass man
rechtzeitig gegensteuern kann. Eine Metrik besteht aus Kennzahlen und ihren Skalen, um
das Auskommen der Kennzahl zu interpretieren, zu bewerten und Entscheidungen zu
treffen.
Multi-strukturierte Daten sind Daten, die unbekannte, unzureichend definierte oder multiple
Schemata haben. Beispiele sind maschinen-generierte Ereignis-Daten, Sensor-Daten,
System-Log-Daten, interner/externer Web Content inklusive Social Media Daten, Texte und
Dokumente, Multi-Media-Daten wie Audio, Video etc.
NoSQL bedeutet „not only SQL“. Es ist eine Initiative, einen alternativen Ansatz zur
Datenhaltung voranzutreiben. Es handelt sich dabei um Datenbanken, die einen nicht-
relationalen Ansatz verfolgen. Man nutzt keine festgelegten Tabellenschemata mehr und
versucht, ohne Join auszukommen. So erreicht man eine horizontale Skalierbarkeit und
exzellente Lesegeschwindigkeiten auch bei Datenmengen à la Big Data. Man bezeichnet sie
auch als „strukturierte Datenspeicher“.
OLAP (online analytical processing) ist eine Methode innerhalb der Analytik, die schnelle
und interaktive Zugriffe auf relevante Information ermöglicht. Es bietet insbesondere
komplexe Analysefunktionen, die sich durch Multidimensionalität auszeichnen. Das bedeutet
die Anordnung der verschiedenen Metriken (Kennzahlen) entlang unterschiedlicher
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 141
Dimensionen, beispielsweise Umsatz in Bezug auf Kunde, Produkt, Region, Berichtsperiode
etc.
Performance Management ist definiert als ein Geschäftsmodell, das einem Unternehmen
ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander
abzustimmen und konsistent zu halten. Das Planen, Überwachen und Steuern von
Prozessen ist Aufgabe von Performance Management innerhalb von BPM.
Ein Repository ist eine Datenbank zur Haltung und Verwaltung von Meta-Daten.
Risiko-Management bezeichnet alle Aktivitäten der Risikoerkennung, Risikoverminderung
und Risikovermeidung.
Selbstbedienungs-Business Intelligence (self-service BI) erlaubt den Nutzern, Daten
interaktiv und visuell zu analysieren. Sie hat rollenspezifische und personalisierte Mensch-
Maschine-Schnittstellen und unterstützt insbesondere auch Suchfunktionen. Damit schafft
sie eine Autonomie der Nutzer gegenüber der IT. Selbstbedienungs-BI ist heute Bestandteil
von Data Discovery-Werkzeugen.
Ein Service ist (in der Informatik) eine Funktionalität, die typischerweise mittels einer
Anfrage-Antwort über eine standardisierte Schnittstelle ausgelöst und gemäß einem SLA
konsumiert wird. Ein Service ist somit eine spezielle Ausprägung einer
„Softwarekomponente“.
Ein Service Level Agreement (SLA) definiert die (auch gesetzlich) bindenden
Lieferungsbedingen und Konditionen für Services zwischen den Service-Anbietern und
Service-Nehmern.
Service-Orientierung (SO) beschreibt eine Kollaboration zwischen einem Verbraucher
(Konsument, Servicenehmer) und einem Anbieter (Produzent, Servicegeber). Der
Verbraucher will eine bestimmte Funktionalität (ein “Produkt” oder eine “Dienstleistung -
Service”), den ein Anbieter bereitstellt. Eine solche Kollaboration arbeitet nach den folgenden
Prinzipien:
Prinzip 1 – Konsequente Ergebnisverantwortung. Der Service-Geber übernimmt die
Verantwortung für die Ausführung und das Ergebnis des Services. Der Service-Nehmer
übernimmt die Verantwortung für die Kontrolle der Service-Ausführung.
Prinzip 2 – Eindeutige Service Level. Jede Serviceausführung ist eindeutig vereinbart
hinsichtlich Zeit, Kosten, Qualität. Input und Output der Services sind klar definiert und
beiden Parteien bekannt per Service Level Agreement (SLA).
Prinzip 3 – Pro-aktives Event Sharing. Der Service-Nehmer ist über jede vereinbarte
Statusänderung seines Auftrages informiert. Der Service-Geber ist verpflichtet den
Service-Nehmer unmittelbar über unvorhergesehene Ereignisse zu informieren.
Prinzip 4 – Service-Verknüpfung. Ein Service kann zur Leistungserbringung einen oder
mehrere andere Services nutzen. Umgekehrt kann jeder Service von anderen Services
zur Leistungserbringung genutzt werden.
Social Business Intelligence meint eine Erweiterung der bekannten und traditionellen BI
um Social Media-Funktionalität und Kollaboration, um Wissensmanagement, um neue
Technologien (Web- und Cloud-Integrationswerkzeuge, analytische Datenbanken,
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 142
Textanalytik) und um neue Anwendungsfelder (Social Media Performance Management,
Social Media Analytik).
Social Media-Interaktion baut auf Social Media Monitoring ganz im Sinne des Closed-loop
auf. Es bedeutet ein Interagieren des Unternehmen mit den Teilnehmern der sozialen
Medien. Das Unternehmen kann jetzt auf relevante Beiträge in den sozialen Medien sofort
reagieren und intervenieren. Das bringt Vorteile vor allem im Kundenservice oder bei der
Einführung neuer Produkte im Markt, da sich sofort eine Kommunikation mit Communities im
Web aufbauen und unterhalten lässt.
Social Media Monitoring meint das Aufspüren, wo, wann und wie über ein Unternehmen,
eine Persönlichkeit, ein Produkt oder eine Marke in den Social Media geredet und diskutiert
wird. Das beginnt mit dem Identifizieren und Extrahieren der relevanten Quellen im Big Data
mit Hilfe der agilen Web-Integrationswerkzeuge. Mit Hilfe von Textanalytik können dann
diese Quellen ausgewertet werden. Das liefert nicht nur statistische Information, wo und wie
viele Spuren sich im Web und in den Social Media befinden, sondern mit Hilfe von
Stimmungsanalysen (sentiment analysis) lässt sich auch die Tonalität aller Beiträge
bestimmen.
SQL steht fuer „sequential query language“. Es ist eine mengentheoretisch orientierte,
standardisierte Abfragesprache fuer relationale Datenbanksysteme.
Stammdaten sind fachlich orientierte Metadaten, die die Basis für das Business-Vokabular
darstellen. Es sind die Metadaten, die die Business-Strukturen wie Anlagen, Produkte und
Dienstleistungen und die Geschäftsparteien (beispielsweise Lieferanten, Kunden,
Mitarbeiter, Partner etc.) beschreiben. Damit erhält man eine einheitliche Sicht auf alle
Unternehmensstrukturen.
Textanalytik ist eine Erweiterung von Analytik, insbesondere von Data Mining und Text
Mining und bringt Analytik ins Content Management und ins World Wide Web. Es verbindet
linguistische Verfahren mit Suchmaschinen, Text Mining, Data Mining und Algorithmen des
maschinellen Lernens.
Web-Analyse meint die Anwendung von Performance Management und Analytik auf das
Nutzen von und Verhalten auf Webseiten durch die Besucher („Internauten“).
Wissensmanagement hat zwei Aufgaben, den Wissenstransfer von Person zu Person und
die Dokumentation von Wissen. Es geht nicht nur darum Wissen in die Köpfe der Mitarbeiter
im Unternehmen zu bringen und dort zu halten, sondern vielmehr auch darum, dieses
Wissen zu extrahieren und für andere nutzbar zu machen.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 143
Liste der Abkürzungen
ACID atomicity, consistency, isolation, durability
B2B business to business
B2C business to consumer
BAM business activity monitoring
BI business intelligence
BIaaS business intelligence as a service
BPM business process management
CAD computer aided design
CAGR compound annual growth rate
CAM computer aided manufacturing
CC competency center
CEP complex event processing
CFO chief financial officer
CIO chief information officer
CPM corporate performance management
CPO chief performance officer
CRM customer relationship management
CRUD create, read, update, delete
DBA Datenbank-Administrator
DBMS database management system
DI Datenintegration
DW data warehouse
DWaaS data warehouse as a service
EII enterprise information integration
ELT extract, load, transform
ERP enterprise resource planning
ESB enterprise service bus
ESDB enterprise service data bus
ETL extract, transform, load
GIS geographical information system
GRC governance, risk management and compliance
HDFS Hadoop distributed file system
HLQL high level query language
HOLAP hybrid OLAP
IaaS infrastructure as a Service
IT information technology
KPM key performance metric
LLDM low latency data mart
MDM master data management
MR map reduce
MOLAP multidimensional OLAP
NoSQL not only SQL
ODS operational data store
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 144
OPEX operational expenditure
OLAP online analytical processing
OLTP online transactional processing
PaaS platform as a service
PM performance management
PPM process performance management
RDBMS relational DBMS
RFID radio frequency identification
ROLAP relational OLAP
ROI return on investment
SaaS software as a service
SDK software development kit
SLA service level agreement
SME small medium enterprise
SOA service oriented architecture
SOM self-organising maps
SQL sequential query language
TQM total quality management
XML extensible markup language
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 145
12 Die Sponsoren
Actuate Corporation
Actuate, Hersteller von Business Intelligence und Reporting–Software, ist Gründer des BIRT Open
Source Projekts und seit Beginn richtungsweisend daran beteiligt. BIRT wird von über 1,5 Mio.
Entwicklern weltweit genutzt und ist die Basis für die ActuateOne® Plattform, mit der Entwickler
maßgeschneiderte Anwendungen für Business Analytics und Kundenkommunikation schnell
aufsetzen können. Mit ihren Möglichkeiten im Bereich Skalierung und Visualisierung ist sie die ideale
Grundlage für den Umgang mit Big Data und die zunehmende Nutzung von mobilen Geräten mit
Touchscreen.
ActuateOne Anwendungen basieren auf einem BIRT-Design und integrieren beliebige Daten, inklusive
unstrukturierter Quellen. Sie bieten für jeden Anwender, unabhängig von seinen Vorkenntnissen ein
einheitliches Nutzererlebnis. Eine Plattform unterstützt jede Einsatzumgebung – ob Cloud, hybride
Modelle, On-Premise, Web oder mobile Endgeräte.
Actuate hat weltweit über 5.000 Kunden aus verschiedenen Branchen, darunter Finanzdienstleister,
Technologie-Unternehmen und die öffentliche Hand. Der Softwareanbieter hat seinen Hauptsitz im
Silicon Valley und ist mit dem Kürzel BIRT an der NASDAQ gelistet.
Mehr Informationen zu Actuate unter www.actuate.com sowie zur BIRT Community unter www.birt-
exchange.com.
arcplan Information Services
arcplan ist ein führender innovativer Softwareanbieter von Business Intelligence, Dashboard-,
Corporate Performance- und Planungslösungen, die steuerungsrelevante Informationen interaktiv auf
PCs und mobilen Endgeräten bereitstellen. arcplan-basierte Lösungen verbessern die operative
Leistungsfähigkeit der Unternehmen unter Verwendung Ihrer bestehenden Infrastruktur. Kunden und
Partner nutzen das arcplan-Produktportfolio wie in der Abbildung (S. 126) dargestellt: arcplan
Enterprise®, das zentrale Business Intelligence (BI)-Produkt von arcplan, ist eine hochflexible BI-
Plattform, die weltweit von mehr als 3.000 Kunden für den Aufbau und Betrieb von analytischen
Anwendungen, Dashboards und Berichtssystemen genutzt wird. arcplan Excel Analytics® ist ein in
Excel integriertes Ad-Hoc- und Berichtswerkzeug, das die Möglichkeiten von arcplan Enterprise
optimal ergänzt. arcplan Edge® ist eine vorkonfigurierte Lösung für Budgetierung, Planung und
Forecasting und kombiniert Planungsfunktionen mit den Stärken der Prozesssteuerung und dem Web-
basierten Berichtswesen von arcplan Enterprise, sowie die Integration mit Excel. arcplan Engage®
ergänzt das Portfolio, bringt mit „Search & Collaboration“ Web 2.0-Funktionen in die BI-Welt und bietet
einfache Self-Service-Funktionen für arcplan Enterprise-Systeme, integriert aber auch weitere
unstrukturierte Datenhaltungssysteme wie CMS (Content Management Systeme), E-Mail oder andere
BI-Plattformen.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 146
Hinzu kommen Lösungsangebote für mobile BI mittels arcplan Mobile und als integriertes Paket web-
basierte Ad-Hoc Analysen (Web Pivoting) mit arcplan Spotlight.
Alle arcplan-Produkte besitzen mit dem arcplan Application Designer eine zentrale, grafisch
ansprechende Entwicklungsumgebung, mit deren Hilfe Kunden schnell und erfolgreich ihre
Projektziele umsetzen und sowohl Zeitplanung als auch Budget einhalten können.
Anwendungsvorlagen erleichtern den Entwicklungsprozess noch weiter.
Übersicht arcplan Produktportfolio
Als zentraler BI-Motor für alle Corporate Performance Management-Aufgaben im Unternehmen dient
der arcplan Application Server. Er ist aktuell für Windows® als 32 bit und 64 bit-Version erhältlich.
arcplan Enterprise bietet die bi-direktionale Verbindung zu unterschiedlichen SAP-Datenquellen,
einschließlich SAP BW und SAP BW IP. Gleichzeitig bietet arcplan Enterprise-Schnittstellen zu einer
Vielzahl anderer Datenquellen, wie Oracle (jede Oracle-Datenbank, Oracle OLAP, Oracle Essbase,
Hyperion Financial Management, Hyperion Enterprise), IBM (Cognos TM1, IBM DB2 UDB, DB2
Cubing Services), Kognitio, Microsoft (SQL Server & Analysis Services), Teradata, jede ODBC-, OLE
DB-, XMLA-, XML-Datenquelle oder Web-Service/SOA Systeme mit offener API.
Seit 1993 hat arcplan weltweit mehr als 3.000 Kunden ermöglicht, die Effizienz ihrer
Unternehmensabläufe durch die effektive Verbindung von Information und Analyse entscheidend zu
verbessern. Zu den Kunden von arcplan zählen Unternehmen aus allen Branchen.
arcplan Enterprise® ist laut The BI Survey 10 (2011) die Nr. 1 bei den Werkzeugen eines Drittanbieters
für SAP BW, Oracle Essbase und IBM Cognos TM1.
Weitere Information finden Sie unter: www.arcplan.de
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 147
Cubeware
Die 1997 gegründete Cubeware GmbH mit Sitz in Rosenheim und Niederlassungen in Berlin,
Darmstadt, Düsseldorf und Hamburg sowie Tochtergesellschaften in Österreich, der Schweiz und
Houston (USA) ist einer der führenden Anbieter von Business Intelligence (BI)- Software.
Cubeware Software adressiert Fachabteilung und Mittelstand. Sie ist intuitiv, schnell einzuführen und
leicht zu administrieren. Die Lösungen sind offen für alle Vorsysteme und Datenbanken und
integrieren sich nahtlos in die Plattformen von Microsoft, IBM, Infor, Oracle und SAP.
Cubeware Produktportfolio
• Cubeware Cockpit V6pro (BI-Frontend)
• Cubeware Importer (OLAP-Modellierung und ETL)
• Cubeware Connectivity for SAP® Solutions (SAP-Anbindung)
• Cubeware BI-Templates für SAP FI, CO, SD und MM (Standards zur Datenübernahme)
Als Datenbanken
werden je nach
Projekt-
anforderung die
Microsoft SQL
Server Analysis
Services, IBM
Cognos TM1, Infor
PM/Infor10 ION BI
OLAP, Oracle
Hyperion Essbase
und SAP BW
genutzt. Im SAP-Umfeld ist Cubeware die ideale Lösung für ein spürbares Mehr an Flexibilität,
Effizienz und Fachanwendernähe.
Controlling, Fachanwender und Management arbeiten mit Cubeware einfach und schnell in den
unterschiedlichsten Abteilungen. Sie analysieren, planen und reporten eins-zu-eins interoperabel in
Windows, Web und auf mobilen Endgeräten.
Cubeware beschäftigt heute über 100 Mitarbeiter und gehört zum internationalen Firmenverbund von
Cranes Software Ltd. Zu den über 2.500 Cubeware Kunden zählen Unternehmen verschiedenster
Branchen, Firmengrößen und Anwendungsgebiete.
Weltweit ist ein stetig wachsendes Netz qualifizierter Business-Partner aktiv.
Weitere Information sind unter http://www.cubeware.de abrufbar.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 148
IBM Deutschland
Die Software IBM Business Analytics liefert umfassende, einheitliche und korrekte Informationen,
denen Entscheidungsträger zum Verbessern der Unternehmensleistung vertrauen. Ein umfassendes
Portfolio aus Geschäftsvorteilen, fortgeschrittener Analytik, finanziellen Vorteilen und
Strategiemanagement sowie Analyseanwendungen bietet Ihnen sofort klare und umsetzbare Einblicke
in die aktuelle Leistung und gibt Ihnen die Möglichkeit, zukünftige Ergebnisse vorherzusagen. Als Teil
dieses Portfolios unterstützt IBM SPSS Predictive Analytics Software Organisationen, zukünftige
Ereignisse vorherzusagen und proaktiv auf Basis dieser Erkenntnisse zu handeln, um bessere
Geschäftsergebnisse zu erzielen. Kunden aus den Bereichen Wirtschaft, öffentlicher Verwaltung und
Lehre verlassen sich weltweit auf IBM SPSS Technologie als Wettbewerbsvorteil zur
Kundengewinnung, -bindung und Erhöhung der Kundenumsätze bei gleichzeitiger Betrugsreduzierung
und Risikominimierung. Durch die Integration von IBM SPSS Software in ihre täglichen Prozesse
werden Organisationen zur Predictive Enterprise – sie sind dadurch in der Lage Entscheidungen zu
treffen und zu automatisieren, um die Geschäftsziele zu erreichen und einen messbaren
Wettbewerbsvorteil zu gewinnen.
Zu den Kunden von SPSS in Deutschland zählen große Unternehmen und Institutionen wie GfK AG,
Bundesagentur für Arbeit, Versatel AG, Deutsche Telekom AG, Vattenfall Europe-Hamburg AG, MSD
Sharp & Dohme GmbH , Commerzbank AG, Yamaha Motor Deutschland GmbH, Barmer Ersatzkasse,
DekaBank Deutsche Girozentrale, OBI GmbH & Co. Franchise Center KG, TUI AG, AOL Deutschland
GmbH & Co. KG, O2 Germany GmbH & Co. KG, Allianz Versicherungs AG, AMB Generali Holding
AG, DBV Winterthur Versicherung AG, Gruner + Jahr AG & Co. KG, Raiffeisenlandesbank
Niederösterreich Wien, IT Austria und KTM Sportmotorcycle AG.
Weitere Information finden sich unter http://www-01.ibm.com/software/de/analytics/.
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 149
pmOne AG
Die pmOne AG ist ein expandierendes Unternehmen im Markt für Business Intelligence (BI). Das
Lösungsangebot auf Basis von Microsoft-Technologie, das sich an Kunden in Zentraleuropa richtet,
hat drei Säulen: Data Warehousing als Fundament, Anwendungen für Performance Management
(CPM) – insbesondere Berichtswesen, Unternehmensplanung und Konzernkonsolidierung – sowie
Visualisierung durch Information Design.
Die zur pmOne-Gruppe gehörende MindBusiness GmbH ist spezialisiert auf SharePoint-Lösungen
und Dienstleistungen für Office-Rollouts. Aktuell vereinen 150 Mitarbeiter über 900 Mannjahre
Projekterfahrung. Die 2007 gegründete pmOne AG befindet sich zu hundert Prozent im Eigentum des
Managements und der Mitarbeiter. Die pmOne-Gruppe hat acht Unternehmensstandorte in
Deutschland, Österreich und der Schweiz.
Referenzen
Die pmOne AG hat Lösungen bei zahlreichen Unternehmen erfolgreich eingeführt, dazu gehören:
Dr. August Oetker KG: Konzernbilanz & Konsolidierung
AirBerlin: Unternehmensweites Data Warehouse
KraussMaffei: Konzernplanung und Reporting
M+W Group: Konzernkonsolidierung, Planung, Reporting, Treasury und Projektcontrolling
VALORA: Konzerninformationssystem
Heraeus: Enterprise Data Warehouse
Webseminare
Um Interessenten einen ersten Einblick in die unterschiedlichen Themen zu eröffnen, bietet die
pmOne AG kompakte Webseminare an. In 60 Minuten können sich Teilnehmer von ihrem Arbeitsplatz
aus bei einer interaktiven Online-Präsentation informieren. Zur Auswahl stehen unter anderem diese
Themen:
Tricks und Kniffe in Excel: 60 Minuten, die Ihren Feierabend retten
Einführung in Information Design: Business-Grafiken und Dashboards richtig gemacht
Überblick für Entscheider: Business Intelligence mit Microsoft
Modern Zusammenarbeiten mit Microsoft SharePoint
Data Mining für Excel-Anwender mit dem Microsoft SQL Server - Geheimnisverrat: Analysepower
mit den kostenfreien Add-Ins für Data Mining in Microsoft Office
Die hohe Kunst von Konsolidierung und Konzernsteuerung: Tagetik 4.0
Einfaches Reporting und schnelle Analyse: Excel-Add-In XLCubed
Data Warehouse: Wofür, für wen und wie? Erprobte Methodik, erzielbarer Nutzen und Hinweise
auf typische Fallstricke
Aktuelle Termine werden laufend online auf www.pmone.de/webseminare veröffentlicht.
Kontakt:
E-Mail: [email protected]
www.pmone.de | www.pmone.at | www.pmone.ch | www.pmone.com
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 150
Uniserv GmbH
Die Uniserv GmbH, Pforzheim, ist der größte spezialisierte Anbieter von Data Quality Solutions in
Europa. Data Management – die Verzahnung von Datenqualitätssicherung und Datenintegration –
steht dabei im Mittelpunkt. Firmen wie Amazon, Deutsche Bank und Volkswagen vertrauen bei ihren
Initiativen für Datenqualität, Datenintegration, Datenmigration und -konsolidierung sowie
Datensynchronisation auf die Lösungskompetenz und Qualität von Uniserv. Das Produktportfolio ist
vielfältig einsetzbar – im Umfeld von CRM-Anwendungen, eBusiness, Direct- und Database-
Marketing, CDI/MDM-Anwendungen, Data Warehousing, Business Intelligence sowie Performance
Management und Analytics.
In Performance Management und Analytik geht es darum, Unternehmensziele und Geschäftsprozesse
in einem Closed-Loop kontinuierlich aufeinander abzustimmen und konsistent zu halten sowie
Sachverhalte systematisch zu untersuchen. Dabei spielen Unternehmensdaten in ihrer Gesamtheit
über alle Datendomänen hinweg eine entscheidende Rolle. Denn sie sind der Rohstoff für
Informationen. Aus Informationen entsteht Wissen. Und dieses Wissen bildet insbesondere die
Grundlage für strategische Geschäftsentscheidungen, aus denen wiederum beispielsweise
Unternehmensziele abgeleitet und Geschäftsprozesse modelliert werden.
Mit seinen Data Quality und Data Integration Services innerhalb des Data Quality Service Hub leistet
Uniserv unter Nutzung von Cloud-Technologien hier einen wertvollen Beitrag. Erstens lässt sich
Datenqualität mittels der bereitgestellten Services nach einer vorangestellten Analyse sowie initialen
Datenbereinigung in einem geschlossenen Kreislauf auf Dauer zuverlässig sicherstellen. Zweitens
können verschiedenste Daten permanent extrahiert, transformiert und wieder geladen werden (ETL).
Damit stehen immer perfekte Daten als Informationsrohstoff zur Verfügung, die optimale
Voraussetzung für Performance Management und Analytik, wie sie sein sollen.
Weitere Information finden Sie unter www.uniserv.com
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 151
Viscovery Software GmbH
Als eines der ersten Data-Mining Unternehmen in Europa zählt Viscovery (ehemals eudaptics
software gmbh) zu den führenden Anbietern von Predictive-Analytics-Lösungen. Die Viscovery Suite
verfügt über eine einzigartige, patentierte Technologie zur explorativen Analyse und statistischen
Modellierung komplexer Daten. Das Viscovery Team verfügt über umfangreiches Know-how und
langjährige Projekterfahrung in Customer Analytics, Kundensegmentierung und -scoring, bis hin zu
Text Mining-Anwendungen, genetischen Analysen und industrieller Prozessoptimierung.
Viscovery kann auch für Text Mining-Aufgaben eingesetzt werden. Die Abbildung zu einer Viscovery Text Mining-Anwendung zeigt das Korpus von veröffentlichten Texten zu schädlichen Effekten des Rauchens. Das Balken-Diagramm zeigt eine Liste von gemeinsam auftretenden Termen in einer ausgewählten Teilmenge der Texte.
Die intuitive Oberfläche von Viscovery ermöglicht auch Benutzern ohne statistisches Vorwissen,
visuelle Clusteranalysen, Kundenprofile und Segmentierungen zu erstellen und interaktiv den
einzelnen Gruppen operative Maßnahmen zuzuordnen. Eine Demoseite zu "Website visitors" finden
Sie auf http://www.viscovery.net/demos/click-stream-analysis und eine zu einer Klassifikation von
Eiskristallen auf http://www.viscovery.net/demos/snow-crystals-classification. Die Projektumgebung
von Viscovery unterstützt den Data Mining-Prozess durch eine übersichtliche Workflow-Struktur und
eine inline Dokumentation, die den gesamten Analyseweg protokolliert. Alle Workflows haben erprobte
Voreinstellungen, die modifiziert und als Vorlagen wieder verwendet werden können. Die
Wolfgang Martin Team
BI trifft BPM / Wolfgang Martin Oktober 2012 Seite 152
hochperformanten Viscovery-Modelle sind sehr einfach in Echtzeit integrierbar, automatisch erstellbar
und aktualisierbar.
Viscovery wird weltweit von zahlreichen Kunden, wie Banken, Versicherungen, Telekoms, Industrie,
Medien und Handel, bis hin zu Forschungseinrichtungen und Universitäten seit vielen Jahren
erfolgreich in den unterschiedlichsten Bereichen eingesetzt. Seit September 2007 ist Viscovery ein
Unternehmen der Biomax Gruppe.
Viscovery ist der einzige kontinental-europäische Data Mining-Anbieter, der in Gartner's "Magic
Quadrant 2008 for Customer Data-Mining Applications" gelistet ist.
Weitere Information zu Viscovery finden Sie auf www.viscovery.net.
Impressum Dr. Wolfgang Martin S.A.R.L. Martin 6 rue Paul Guiton 74000 Annecy - France
www.wolfgang-martin-team.net N° TVA FR81413866625 RCS Annecy B 413 866 625 00010 NAF/APE 6202A