01_09cowo Datenmodellierung

4
Datenmodellierung ist einer der wichtigsten und folgenreichsten Schritte im Prozess der Software- entwicklung. Der Grund dafür liegt auf der Hand: Das Datenmo- dell soll die fachlichen Anforde- rungen des Auftraggebers mög- lichst vollständig, korrekt und ein- deutig widerspiegeln und damit überhaupt erst die DV-technische Grundlage für die Entwicklung des Softwareprodukts liefern. Nun gilt die Kommunikation zwischen dem DV-Fachmann und der meist nicht ausreichend DV- geschulten Fachseite des Auftrag- gebers schon immer als die Achil- lesferse der Softwareentwicklung. Oft führt eine missverstandene Kommunikation zwischen Fach- und DV-Seite zum Scheitern oder zur mangelnden Nutzerakzeptanz von Projekten. Case-Tools sollten alles lösen Dieses Kommunikationsproblem schien – ganz im Sinne der Vision vom Software-Engineering – durch das Konzept der „durchgängig computergestützt ablaufenden Da- tenmodellierungsphase“ lösbar. Die seit den achtziger Jahren auf dem Markt existierenden, unter- schiedlich mächtigen Case-Tools (von ADW, Bachman, Maestro über IEF, Rochade, Case/4/0 bis zu Ra- tional Rose, Teamwork und Erwin) belegen dies. Auf jedes der mit Mar- keting-Versprechungen garnierten neuen Case-Tools haben sich Da- tenmodellierer und Datenbankde- signer mit großen Erwartungen und Euphorie gestürzt. Alle hoff- ten, endlich die maschinelle Lösung ihrer Hauptprobleme bei der Da- tenmodellierung vorzufinden: – Erfassung und Aktualisierung der Vorgaben der Fachseite, – Generierung und Pflege des Datenmodells und der physischen Datenbank, – grafische Darstellung des Daten- modells sowie – Synchronisation der fachlichen Kundenanforderungen mit den physischen Datenbankobjekten über mehrere Produktzyklen hinweg und damit ein wirkungs- volles Versions- und Konfigura- tions-Management. Sehr bald stellte man jedoch er- nüchtert fest, dass auch mit Hilfe dieser Spezialwerkzeuge das ange- strebte Ziel nicht erreicht wird, nämlich den Prozess von der Er- fassung der fachlichen Vorgaben über die Erzeugung der logischen Datenstrukturen bis hin zu den physischen Datenbankobjekten unter Wahrung der Datenaktuali- tät durchgängig computergestützt abzuwickeln. Etliche Anwender haben kräftig in Case investiert, geben aber nicht zu, sich damit auf dem Holzweg zu befinden. Die Enttäuschung über die zum Teil so hochgelobten Case-Tools hat im Wesentlichen folgende Ur- sachen: Die Produkte bieten keine überzeugenden maschinellen Hil- fen zur Erfassung und Aktualisie- rung der für die Datenmodellie- Kommunikationsprobleme zwischen Fach- und IT-Seite Datenmodellierung ohne Medienbruch Den Case-Tools zum Trotz: Der Prozess von der Erfassung fachlicher Vorgaben bis hin zur Erzeugung eines Datenmo- dells verläuft in der Regel nicht durchgängig computergestützt. Dieses für Entwickler besonders ärgerliche Manko lässt sich jedoch mit relativ einfachen Mitteln beheben. Von Tamas Szabo und Hans-Dieter Werno* NACHRICHTEN ANALYSEN TRENDS www.computerwoche.de B 2615 C 28.JAHRGANG SONDERDRUCK AUS NR. 37 VOM 14. SEPTEMBER 2001 Foto: Mauritius SdrCW 37/01 Datenmodellierung o 26.09.2001 10:42 Uhr Seite 1

description

Datenmodellierung, IBM, DB2, Erwin,

Transcript of 01_09cowo Datenmodellierung

Datenmodellierung ist einer derwichtigsten und folgenreichstenSchritte im Prozess der Software-entwicklung. Der Grund dafürliegt auf der Hand: Das Datenmo-dell soll die fachlichen Anforde-rungen des Auftraggebers mög-lichst vollständig, korrekt und ein-deutig widerspiegeln und damitüberhaupt erst die DV-technischeGrundlage für die Entwicklungdes Softwareprodukts liefern.

Nun gilt die Kommunikationzwischen dem DV-Fachmann undder meist nicht ausreichend DV-geschulten Fachseite des Auftrag-gebers schon immer als die Achil-lesferse der Softwareentwicklung.Oft führt eine missverstandeneKommunikation zwischen Fach-und DV-Seite zum Scheitern oderzur mangelnden Nutzerakzeptanzvon Projekten.

Case-Tools sollten alles lösen

Dieses Kommunikationsproblemschien – ganz im Sinne der Visionvom Software-Engineering – durchdas Konzept der „durchgängigcomputergestützt ablaufenden Da-tenmodellierungsphase“ lösbar.Die seit den achtziger Jahren aufdem Markt existierenden, unter-schiedlich mächtigen Case-Tools (von ADW, Bachman, Maestro überIEF, Rochade, Case/4/0 bis zu Ra-tional Rose, Teamwork und Erwin)belegen dies. Auf jedes der mit Mar-

keting-Versprechungen garniertenneuen Case-Tools haben sich Da-tenmodellierer und Datenbankde-signer mit großen Erwartungenund Euphorie gestürzt. Alle hoff-ten, endlich die maschinelle Lösungihrer Hauptprobleme bei der Da-tenmodellierung vorzufinden:– Erfassung und Aktualisierung

der Vorgaben der Fachseite,– Generierung und Pflege des

Datenmodells und der physischenDatenbank,

– grafische Darstellung des Daten-modells sowie

– Synchronisation der fachlichenKundenanforderungen mit denphysischen Datenbankobjektenüber mehrere Produktzyklenhinweg und damit ein wirkungs-volles Versions- und Konfigura-tions-Management.

Sehr bald stellte man jedoch er-nüchtert fest, dass auch mit Hilfedieser Spezialwerkzeuge das ange-strebte Ziel nicht erreicht wird,nämlich den Prozess von der Er-fassung der fachlichen Vorgabenüber die Erzeugung der logischenDatenstrukturen bis hin zu denphysischen Datenbankobjektenunter Wahrung der Datenaktuali-tät durchgängig computergestütztabzuwickeln. Etliche Anwenderhaben kräftig in Case investiert,geben aber nicht zu, sich damit aufdem Holzweg zu befinden.

Die Enttäuschung über die zumTeil so hochgelobten Case-Toolshat im Wesentlichen folgende Ur-sachen: Die Produkte bieten keineüberzeugenden maschinellen Hil-fen zur Erfassung und Aktualisie-rung der für die Datenmodellie-

Kommunikationsprobleme zwischen Fach- und IT-Seite

Datenmodellierung ohne MedienbruchDen Case-Tools zum Trotz: Der Prozess von der Erfassung fachlicher Vorgaben bis hin zur Erzeugung eines Datenmo-dells verläuft in der Regel nicht durchgängig computergestützt. Dieses für Entwickler besonders ärgerliche Mankolässt sich jedoch mit relativ einfachen Mitteln beheben.

Von Tamas Szabo und Hans-Dieter Werno*

N A C H R I C H T E N • A N A LY S E N • T R E N D S

www.computerwoche.de

B 2615 C 28.JAHRGANG

SONDERDRUCK AUS NR. 37 VOM 14. SEPTEMBER 2001

Foto: Mauritius

SdrCW 37/01 Datenmodellierung o 26.09.2001 10:42 Uhr Seite 1

aus COMPUTERWOCHE Nr. 37/2001

rung notwendigen Texte (Daten-,Attribut- und Tabellenbeschrei-bungen) an. Solche Basisfunktio-nen, die mit rund 80 Prozent denLöwenanteil an der Modellie-rungsarbeit ausmachen, bleibendeshalb weitgehend Handarbeit –jedenfalls ohne maschinelle Ver-bindung zum jeweiligen Werk-zeug. Die angebotenen Hilfen sindzu komplex, viel zu aufwändig zulernen und dadurch letztlich zuteuer, rechnet man Beschaffungs-und Ausbildungskosten mit ein.

Das von fast allen Herstellernangebotene Standard-Datenaus-tauschformat CDIF (Case Data In-terchange Format) wird weitge-hend ignoriert. Es gilt als zu kom-plex und daher nicht praktikabel.Die zum Beispiel in Erwin vorgese-hene dialogorientierte Erfassungund Änderung von Attributen undTexten wird von vielen wegenmangelnder Übersichtlichkeit alsnicht sehr produktiv angesehen.

Zu viele Hürden

Das Problem der fehlenden, zu-mindest lückenhaften maschinel-len Unterstützung gilt gleicherma-ßen auch für das Nachziehen derÄnderungen an den generiertenDDL-Jobs für das Versions- undKonfigurations-Management so-wie für die Rückkopplung aus demKatalog des verwendeten Daten-bank-Management-Systems (DB2, Oracle etc.).

Stein des Anstoßes ist nicht zu-letzt das schlechte Preis-Leis-

tungs-Verhältnis der Tools, dieunter Berücksichtigung der ge-nannten Probleme eindeutig zuteuer sind. Die Kosten für eineEinzellizenz liegen im Bereich von10 000 bis 12 000 Mark. Eine pro-duktive und effiziente Nutzungdes Tools erfordert den Einsatzmehrerer Lizenzen in einem Pro-jekt. Da der Ausbildungs-, Einar-beitungs- und Administrations-aufwand ebenfalls sehr hoch ist,werden in der Regel nur wenigeTool-Spezialisten herangezogen.Schließlich schlägt zu Buche, dassdie Werkzeuge schnell altern undsich die Investitionen in den meis-ten Fällen nicht amortisieren.

Die Gesamtbilanz fällt dahernicht positiv aus – der Verzicht aufdie für ein Projekt erforderlichenMehrbenutzerlizenzen und dienotwendige Anzahl ausgebildeterSpezialisten führt zu Engpässenbei der Datenmodellierung. Be-rücksichtigt man dazu noch, dassletztlich nur rund 20 Prozent desgesamten Modellierungsaufwandsvon den Tools wirkungsvoll unter-stützt werden, so erscheint dieEntscheidung vieler Anwenderund Projekt-Manager gegen denEinsatz von Spezialwerkzeugenzur Datenmodellierung durchausverständlich.

Am Anfang steht – wie so oft –die Euphorie, doch schnell mündetdie Begeisterung für das vielge-priesene Tool in Enttäuschung.Die Folgen: Man kehrt zurück zurErfassung der Kundenanforderun-

gen „auf Papier“. Es wird grund-sätzlich überlegt, ob man die Da-tenmodellierung nicht besser dochohne Tools durchführen sollte.Dieser aus Resignation beschritte-ne (Rück-)Weg ist sicher nicht dieLösung des Problems und zudemalles andere als zeitgemäß.

Der geforderte „einfache“ Lö-sungsweg besteht darin, die Stär-ken von bekannten, möglichstweit verbreiteten Spezialwerk-zeugen zur Datenmodellierungwie beispielsweise Erwin, ER/Studio oder IEF mit universellverwendeten Tools wie Exceloder Access sinnvoll und zielge-richtet zu verbinden.

Der hier gewählte, spezielleWerkzeugmix besteht aus den fürdie Basisfunktionen der Daten-modellierung eingesetzten ToolsExcel und Access sowie dem gra-fischen ModellierungswerkzeugErwin.

Dabei wird in Access zunächstein leeres Erwin-Metamodell vor-bereitet. Die Fachseite liefert ihreEingaben (Texte, Attributbe-schreibungen) oder aber die Vor-gaben und Muster aus dem Vor-gängerprojekt in Form von Excel-Tabellen. Diese Texte werden inAccess in den (noch leeren) Tabel-len des Erwin-Metamodells (alsKopie aus Erwin übertragen) ab-gespeichert. Die Zwischenspei-cherung in Access macht das stän-dige Aktualisieren (Überschrei-ben) der Vorgaben der Fachseiteerst möglich.

Keine manuellen Eingriffe

Die Generierung der physischenDatenbank aus Access erfolgt au-ßerhalb von Erwin mit Hilfe selbstgeschriebener Rexx-Prozeduren(eine nicht sehr aufwändige Eigen-programmierung von Skripts mitinsgesamt etwa 2000 Zeilen). Die-ser Weg wurde gewählt, um ein lü-ckenloses und ohne manuelle Ein-griffe ablaufendes Versions- undKonfigurations-Management si-cherzustellen. Die generierte Da-tenbank wird auf dem Zielsystemgespeichert und in den DB2-Kata-log aufgenommen. Für Erwinwird eine Kopie dieser Datenbankerstellt, die dann mit Erwin gra-fisch dargestellt werden kann.Durch einen jederzeit möglichenAbgleich zwischen der mit denAnwendungsdaten gefüllten Da-

S O N D E R D R U C K

Das Problem…

Eine typische, heute durchaus verbreitete Arbeitsweise: manuelle Eingabeder fachlichen Anforderungen (Word-Dateien) ohne maschinelle Verbindungzum Datenmodellierungs-Tool, hier Erwin.

SdrCW 37/01 Datenmodellierung o 26.09.2001 10:43 Uhr Seite 2

tenbank und dem von der Fachsei-te gelieferten Mengengerüst lässtsich eine automatische Optimie-rung der physischen Datenbankdurchführen.

Das beschriebene Verfahrenstammt aus einem Software-Ent-wicklungsprojekt der DeutschenTelekom als Auftraggeber. Ent-sprechend richtete sich die Aus-wahl des Werkzeug-Mix vorran-gig nach den beim Anwender vor-handenen Gegebenheiten. Excel,das der Erfassung und Aktualisie-rung von fachlichen Anforderun-gen und Vorgaben dient, bietetvor allem folgende Vorteile:– Texte in Excel-Tabellenform

sind übersichtlicher und ein-deutiger als Texte in Word-Do-kumentenform. Sie sind ma-schinell verwertbar. Zwar gibtes auch in Word die Tabellen-form, aber bei ungeübtem Ge-brauch werden Tabellen er-zeugt, die maschinell nicht ver-wertbar sind.

– Da der Umgang mit Excel in-zwischen auch in den Fachab-teilungen zur täglichen Routinegeworden ist, wird die Kommu-nikation zwischen der DV-Ent-wicklung und der Fachseite er-heblich erleichtert. Mit Excelkann die Fachseite ihre Vorga-ben ohne Mittler selbst erstel-len, ändern und nach Bedarf ak-

tualisieren. Dadurch wird dieVerantwortung für Daten wie-der dort wahrgenommen, wosie hingehört.

– Erwin-Grafiken können nachkonventionellen Verfahren nurauf Papier verteilt werden. Diehier gewählte Methode mit Ex-cel ermöglicht das Speichernder Grafiken in Excel-Zellen(eine Grafik pro Zelle). Somitist das Problem der maschinel-len Verteilung von Bildern imProjekt gelöst. Mit Excel kön-nen diese Bilder in beliebigen

Vergrößerungen ohne Quali-tätsverlust reproduziert werden.

Access als Bindeglied

Access bildet das Bindeglied zwi-schen Excel und Erwin. Es dientzur Speicherung und Pflege dersynchronen Kopie des Erwin-Me-tamodells sowie der dazu gehören-den Inhalte. Anstelle von Accesskönnten natürlich auch Oracleoder DB2 eingesetzt werden.

Erwin, für das lediglich eine Ein-zellizenz erforderlich ist, stellt dasDatenmodell als Entity-Relation-ship-Modell grafisch dar. Damitdie Generierung und Pflege derSQL, die Rückkopplung mit demKatalog der physischen Daten-bank (hier DB2 auf dem Host) so-wie das Versions- und Konfigura-tions-Management ohne die beiErwin erforderlichen manuellenEingriffe und Nacharbeiten ablau-fen können, mussten die oben ge-nannten Rexx-Prozeduren ge-schrieben und in das gesamte Ver-fahren eingegliedert werden.

Fazit: Mit Hilfe einer geeignetenKombination von vertrautenWerkzeugen lässt sich der Prozessder Datenmodellierung von derErfassung der fachlichen Vorga-ben bis zur Generierung der physi-schen Datenbank unter Wahrungder Datenaktualität und über meh-rere Produktzyklen hinwegdurchgängig computergestützt ab-wickeln. Durch den Einsatz ver-trauter Tools fallen keine Ausbil-dungskosten an, bei den teurenSpezialwerkzeugen genügt eine

… die Lösung

Eine erprobte Lösung stellt die Synchronisation der Vorgaben mit der Da-tenbank durch eine optimierte Werkzeugkombination dar.

In der Praxis erprobt

Das hier beschriebene Verfahrenwurde in einem großen Software-Entwicklungsprojekt erprobt, dasunter Federführung von IBM mitMitarbeitern von DV-RATIO fürdie Deutsche Telekom entwickeltund mittlerweile erfolgreich zumAbschluss gebracht wurde.Die wichtigsten Charakteristikades Projekts waren:– 120 DB2-Tabellen,– logisches Datenmodell mit 120Entitäten und 1500 Attributensowie– mehr als 600 000 Codezeilenin C++ und Cobol.Die zunächst nicht durchgängigcomputergestützte Datenmodel-lierung auf der Basis von Fach-seitenvorgaben (rund 10 000Word-Seiten) stieß sehr bald anihre Grenzen: Das entstandeneDatenmodell hatte keinerlei Be-

zug mehr zur Realität der Vorga-ben. Die Projektleitung ent-schloss sich daraufhin mitten imlaufenden Projekt, diesen Wegaufzugeben, mit dem hier be-schriebenen Verfahren auf dembisherigen Stand aufzusetzenund mit gezielten Aktualisie-rungsschritten fortzufahren.Der Umstieg erfolgte auf Basisder vorhandenen Ergebnisse unddes existierenden Datenbe-stands. In mehreren Abgleichver-fahren wurden dieser Datenbe-stand sowie die Datenbankinhal-te auf den aktuellen Stand derFachseitenvorgaben gebracht.Dies war möglich, weil ein Kon-sens über die eingesetzten undvertrauten Werkzeuge erreichtwurde und die Fachseite bereitwar, ihre Eingaben nur noch inExcel-Tabellenform abzuliefern.

SdrCW 37/01 Datenmodellierung o 26.09.2001 10:43 Uhr Seite 3

aus COMPUTERWOCHE Nr. 37/2000

Einzellizenz pro Projekt. Ein wei-terer Vorteil: Der durchgehend au-tomatisierte Ablauf der Datenmo-dellierung hat zur Folge, dass Feh-ler aufgrund manueller Zwischen-schritte völlig ausgeschlossen sind.Verbesserungspotenzial bestündefür einen nächsten Schritt dahinge-hend, dass die Modellierungs-werkzeuge die Lage der Bilder inxy-Koordinaten über mehrereVersionen hinweg in einem Repo-

sitory speichern und dieses nichtmanuell nachgebessert werdenmüsste.

Das beschriebene Verfahren istbei allen Datenbankanwendungenab etwa 50 Tabellen sowie überalldort produktiv einsetzbar, wo Da-ta Dictionaries beziehungsweiseModellierungs-Tools zur Verfü-gung stehen. Als nützlich erweistes sich nicht nur bei Neuentwick-lungen, sondern auch in den Fäl-

len, in denen eine Konsolidierunggroßer Datenbankanwendungenansteht. Der Umstellungsaufwandrechnet sich für erfahrene Benut-zer des gewählten Werkzeug-Mi-xes bereits nach kurzer Zeit. %

*Dipl.-Ing. Tamas Szabo ist Entwickler und Da-

tenbankarchitekt bei der DV-RATIO Unterneh-

mensberatung in München; Dipl.-Ing. Hans-Die-

ter Werno arbeitet als Projekt-Manager bei IBM

Global Services in München.

DV-RATIO SÜD GmbHRosenkavalierplatz 1281925 MünchenTel: 089 / 925191-0Fax: 089 / 925191-15

DV-RATIO MITTE GmbHReichsforststr. 2060528 FrankfurtTel: 069 / 6607680-0Fax: 069 / 6607680-29

DV-RATIO NORD GmbHRahlstedter Bahnhofstr. 4222143 HamburgTel: 040 / 675968-0Fax: 040 / 675968-66

DV-RATIO NORDWEST GmbHLeostr. 3140545 DüsseldorfTel: 0211 / 577996-0Fax: 0211 / 55916-17

DV-RATIO SÜDWEST GmbHIm Grund 771397 Leutenbach / StuttgartTel: 07195 / 92255-0Fax: 07195 / 92255-22

S O N D E R D R U C K

C O M P E T E N C E .

DV-RATIO Unternehmensberatung

D i e m i t d e r L ö s u n g .We keep your business running.

TRY US!

DV-RATIO Aktiengesellschaft Arabellastrasse 4 · 81925 München · Telefon: 0 89/92 51 93-0 · Telefax: 0 89/92 51 93-99

I D E A S . C O M P E T E N C E . S O L U T I O N S .

www.dv-ratio.com

DV-RATIO steht seit 20 Jahren für Qualität und Innovation. Als Anbieter von IT-Servicesmit mehr als 400 Experten betreuen wir Unternehmen der Finanzwirtschaft, der Industrie,der IT-, Telekommunikations-, Luft- und Raumfahrtbranche sowie Handels- und Dienst-leistungsfirmen.

MIT UNS NEHMEN IHRE VISIONEN GESTALT AN.

Die DV-RATIO Unternehmensberatung ist in ganz Deutschland für Sie da! In München, Stuttgart, Frankfurt, Düsseldorf und Hamburg.

SdrCW 37/01 Datenmodellierung o 26.09.2001 10:43 Uhr Seite 4