Die Wirtschaftsinformatik der Zukunft auch eine ... · Management / SCM) jegliche...

40
Universität Erlangen-Nürnberg Wirtschaftsinformatik I Peter Mertens, Dina Barbian Die Wirtschaftsinformatik der Zukunft auch eine Wissenschaft der Netze? Arbeitsbericht Nr. 2/2014 Herausgeber Prof. Dr. Peter Mertens Lange Gasse 20, 90403 Nürnberg, Tel. 0911/5302-493, FAX 0911/5302-155 [email protected]

Transcript of Die Wirtschaftsinformatik der Zukunft auch eine ... · Management / SCM) jegliche...

Universität Erlangen-Nürnberg

Wirtschaftsinformatik I

Peter Mertens, Dina Barbian

Die Wirtschaftsinformatik der Zukunft – auch eine Wissenschaft der Netze?

Arbeitsbericht Nr. 2/2014

Herausgeber

Prof. Dr. Peter Mertens

Lange Gasse 20, 90403 Nürnberg, Tel. 0911/5302-493, FAX 0911/5302-155

[email protected]

1

Inhaltsverzeichnis

1. Zunehmende Bedeutung von IT-gestützten Netzen in Gesellschaft und Wirtschaft 3

2. Wirtschaftsinformatik und Netze 3

3. Systemrelevanz 4

4. Einzelne Netze 4

4.1 Physische Güter allgemein (Supply Chains) 5

4.2 Nahrungsmittel 9

4.3 Arzneimittel 10

4.4 Betriebsmittel 11

4.5 Verkehr 12

4.6 Energie 13

4.7 Trinkwasser 15

4.8 Banken 16

4.9 Versicherungen 22

4.10 Katastrophen 24

4.11 Daten und Kommunikation 24

5. Methoden 26

6. Zusammenfassung von Beiträgen der WI 29

7. Literatur 33

GLOSSAR 38

2

Danksagung:

Bei der Erstellung dieses Arbeitsberichts haben uns die folgenden Personen wertvolle Hinweise und Informationen gegeben, für die wir uns an dieser Stelle besonders bedan-ken. Es sind dies im Einzelnen Edward Bernroider, Thorsten Blecker, Peter Bradl, Felix Freiling, Wolfgang Gerke, Thorsten Greiner, Günther Görz, Liaquat Hossain, Peter Klaus, Wolfgang König, Alexander Mägebier, Uwe Neis, Arno Rolf, Bernd Rudolph und Sven Voelpel.

3

1. Zunehmende Bedeutung von IT-gestützten Netzen in Gesellschaft und Wirtschaft

In Gesellschaft und Wirtschaft der Gegenwart spielen Netze bereits eine große Rolle. Für die Zukunft sehen viele Politiker, Fach- und Führungskräfte von Unternehmen so-wie Verbänden und Wissenschaftler diesbezüglich einen weiteren Bedeutungsgewinn. Stellvertretend erwähnen wir hier nur vier Belege:

1. Im Anschluss an die Messe Cebit 2014 übergaben Henning Kagermann, der Präsi-dent der Deutschen Akademie für Technikwissenschaften, und Frank Riemensber-ger, Leiter der Deutschland-Niederlassung von Accenture, der Bundeskanzlerin ei-nen Bericht zum Status quo und zum Potenzial internetbasierter Dienste für die deutsche Wirtschaft – als Nachfolgeprojekt von „Industrie 4.0“. Darin wird neuen di-gitalen Infrastrukturen eine systemkritische Rolle „in der Transformation von Wirt-schaft und Gesellschaft“ zugewiesen [Knop14]. Die Grundvoraussetzung dafür sei „ein Ausbau der Breitbandnetze, um Produkte, Services und Menschen in der öffent-lichen Infrastruktur … zu vernetzen“.

2. In einer Studie dazu, ob in der Fachgemeinschaft der Wirtschaftsinformatiker (WI) im deutschsprachigen Raum ein gewisser Konsens über die ganz großen Herausforde-rungen („Grand Challenges“/GC) herbeigeführt werden kann, rangierte die GC „Er-mittlung systemischer Risiken in weltweiten Netzen“ auf Platz 1. In einer ähnlichen Befragung in der Gesellschaft für Informatik (GI e. V.) wurde die Position „Beherr-schung systemischer Risiken in IT-unterstützten weltweiten Netzen“ in die Spitzen-gruppe der fünf wichtigsten GC der Informatik aufgenommen.

3. Arno Rolf moniert, dass die BWL der wahrscheinlichen Entwicklung nicht genügend Rechnung trage, weil sie zu wenig das Unternehmen mit seiner Einbindung in Netze im Fokus habe [Rolf14].

4. Der deutsche Bundesinnenminister erwägt, Betreiber von kritischen Infrastrukturen, z. B. von Energie- oder Telekommunikationsnetzen, zu verpflichten, bestimmte si-cherheitsrelevante Beobachtungen oder Angriffe an das Bundesamt für die Sicher-heit in der Informationstechnik (BSI) zu melden. Diese soll aus der Vielzahl der Mel-dungen Lageberichte ableiten.

2. Wirtschaftsinformatik und Netze

Die WI hat eine lange Tradition, was die Befassung mit Netzen angeht. Als Beispiel seien die zwischenbetriebliche Integration [Mert66] und die ausführlichen Arbeiten zum

sogenannten E-Business genannt. Sieht man in Anlehnung an eine These der Associa-tion for Information Systems (AIS) [AIS99] eine Hauptaufgabe der WI darin, die Verant-wortung für die Ressource „Information“ zu tragen, während die Ökonomie (BWL, VWL) die Verantwortung für die "Ressource Kapital" und die Verhaltenswissenschaften (Sozi-ologie, Psychologie, Organisationswissenschaft) diese für die "Ressource Mensch" übernehmen, so lässt sich daraus folgern, dass das Fach sich im Grenzgebiet zwischen Informatik und Ökonomie eingehend mit Problemen von Netzen im wirtschaftlichen Be-reich zu befassen hat. Mit anderen Worten: Dort, wo die WI bisher hauptsächlich gehol-fen hat, die Komplexität der Geschäftsmodelle, der Aufbau- und der Ablauforganisation e i n e s Unternehmens zu beherrschen, gilt es in Zukunft mehr, ganze Netze zu pla-nen, zu steuern und zu kontrollieren, das Risiko abzuschätzen und entsprechende Schutzmaßnahmen zu ergreifen. So verwundert es nicht, dass bei einer Studie über die großen Herausforderungen der Wirtschaftsinformatik („Grand Challenges“ / GC) und

4

ähnlich bei einer Diskussion in der Gesellschaft für Informatik der Umgang mit den sys-temischen Risiken in globalen Netzen auf Platz 1 landete. In Anbetracht der Vielzahl, Größe und Komplexität muss man ähnlich wie in der projektbezogenen Netzplantechnik rechtzeitig den Fokus auf die systemrelevanten bzw. -kritischen Elemente (Knoten und Kanten) richten, d. h. diese identifizieren, robust machen und sie so selektiv schützen, denn der gleichzeitige und gleich wirksame Schutz aller Netzkomponenten käme einem verschwenderischen Umgang mit Ressourcen gleich. Es gilt, auf einer noch zu finden-den Abstraktionsebene Instrumente zu entwickeln, die nach entsprechender Paramet-rierung auf möglichst viele Netztypen anwendbar sind.

3. Systemrelevanz

Die Online-Enzyklopädie Wikipedia (abgerufen am 14.06.2014) setzt Systemrelevanz bzw. Systemik mit „Too big to fail“ gleich, was sehr problematisch ist. Die Definition dort lautet: „Institutionen wie Staaten und deren Glieder, auch Banken, Konzerne, Massen-medien und ähnliche Organisationen, die so systemstabilisierend sind, dass ihr Ausfall die herrschende Hegemonie auflösen würde und die darum auch zu Lasten der Ge-meinschaft gerettet werden.“ In der Folge wird vor allem auf Banken abgehoben (vgl. Abschnitt 4.8).

Die neuere Sicht, der wir hier folgen (siehe Abb. 1), stellt aber neben dem „Too big to fail“ (TBTF) auch auf die Maßstäbe „Too interconnected to fail“ (TITF) und „Too big to save“ (TBTS) ab [BaSc13].

Abbildung 1: Kriterien der Systemrelevanz

4. Einzelne Netze

In der Folge wenden wir uns 11 Netzen zu, die für die WI relevant sind. Es besteht in unserer inhaltlichen Auswahl eine interessante Übereinstimmung mit einem jüngst be-kannt gewordenen Plan des Bundesinnenministers („Erstes IT-Sicherheitsgesetz“), nach Branchen gegliederte Standards für die IT-Sicherheit einzuführen [LuBe14].

Nr. 128Too big to fail.

(TBTF)

Too interconnected

to fail. (TITF)

Too big to save.

(TBTS)

Island

5

4.1 Physische Güter allgemein (Supply Chains)

Obwohl man unter der Aufbau- und Ablauforganisation von Liefernetzen (Supply Chain Management / SCM) jegliche Kunden-Lieferanten-Beziehungen subsumieren kann, z. B. auch die „Financial Supply Chain“, wollen wir an dieser Stelle nur die vernetzten Güterströme betrachten. Im gegebenen Zusammenhang geht es speziell um das „Supply Chain Risk Management“ (SCRM). Es wird zuweilen als „natürliche Weiterent-wicklung“ und Komponente des Supply Chain Management (SCM) gesehen. Fundier-tere Überlegungen hierzu begannen etwa um 2005. Eine Ursache waren die in vielen Unternehmen getroffenen Maßnahmen zur Reduktion der Kapitalbindung. Dadurch wur-den Pufferlager zum Teil oder ganz aufgelöst, sodass die Gefahr der Fortpflanzung von Fehlern im Güternetz zunahm [Zieg07, S. 1]. Die wachsende Vielfalt und Komplexität der Liefernetze, vor allem als Folge der Vergabe von Unter-Unteraufträgen, erschwert es auch, den Überblick zu wahren. So beklagten Gewerkschaftsvertreter nach Katastro-

phen in weit entfernten Produktionsstätten, z. B. der Textilindustrie, dass die Verantwor-tung für die Unfallsicherheit der Arbeitsplätze unklar geworden wäre.

Die Durchdringung des komplexen Geschehens impliziert die Beteiligung vieler Diszipli-nen am SCRM, so z. B. Allgemeine BWL / Führungslehre, Logistik, Produktion, Operati-ons Research, Allgemeine Informatik, Künstliche Intelligenz oder Chemieingenieurwe-sen [SAMi11]. Abbildung 2 soll einen groben Eindruck von der Interdisziplinarität vermit-teln, wobei Vollständigkeit hier nicht angestrebt werden kann.

Abbildung 2: Interdisziplinarität

Charakteristisch sind viele Systematiken, die wiederholt in die recht bekannte SCOR-Methodik (Supply Chain Operations Reference Model (SCOR)) eingebettet werden [MWDa09], [Knol09]. Letztere hat zum Kern die Dreigliederung in Source – Make – Deli-ver, d. h. in die Prozesse bzw. Funktionen Beschaffung, Fertigung und Versand bei al-len Betrieben im Netz. Die Risiken werden entsprechend diesen drei Kategorien zuge-ordnet.

SCRM

VWL BWL

Statistik

Prognoserechnung

OR

EUS

CPFR

KI

Multiagenten-Systeme

Rechtswissenschaft

Informatik

Verteilung von Daten und Wissen im Netz

Datengewinnung und -haltung

Wissensgenerierung aus Daten

6

Weitere Untergliederungen sind:

a) SC Risk Identification, b) SC Risk Monitoring, c) SC Risk Assessment,

a) SC Risk Identification, b) SC Risk Assessment, c) SC Risk Mitigation und

a) Upstream Risks, b) Downstream Risks (entsprechend der Orientierung hin zum Be-schaffungs- oder Absatzmarkt).

Einen Überblick über Typen von Risiken in Liefernetzen enthält Tabelle 1.

Tabelle 1: Risiken in Liefernetzen (Umfangreichere und differenziertere Aufstellungen mit einer Fülle von praktischen Beispielen und Fallstudien findet man bei [SCCo o.J.], [SAMi11] und [Zieg07].)

Typen Erläuterungen

I Naturbedingte:

Erdbeben Das Kobe-Erdbeben im Jahr 1995 führte zu einem Mangel an Speicher-komponenten für elektronische Anlagen und einem weit streuenden Schaden.

Tsunami Der bedeutende Umschlaghafen Sendai wurde 2011 zerstört. Untergang von Containerschiffen.

Hurrikan Nach dem Hurrikan Katrina im Jahr 2005 fielen Lieferquellen und Transportstrecken aus.

II Marktbedingte:

Plötzliche Verschiebungen der Wettbe-werbssituation

Einbruch bei Mobiltelefonen durch PDA (Persönliche Digitale Assistenten, „Smartphones“) „Harte Tastaturen“ wurden durch „Soft-keys“ (berührungsempfindliche Tastaturen wie beim iPhone) verdrängt

Hohe Volatilität Aus einer Vielzahl von Gründen schwankt z. B. die Nachfrage nach elektronischen Bauelementen und -gruppen stark (siehe unten).

Reputationsrisiken Falsche oder begründete Gerüchte führen zu Einbrüchen auf der Abnehmerseite [OV09]

III Produktionsbedingte:

Zulieferer bekommen neue Werkstoffe und Fertigungstechniken nicht unter Kontrolle

Erhebliche Schwierigkeiten (Verzöge-rungen) im komplizierten Liefernetz des Großraumflugzeuges Boeing 787

Störungen der Aufbau- und Ablauforga-nisation

Feuer in taiwanesischer Lackfabrik führte zu Engpässen bei Lacken für Elektronik-Chips, kurzfristig erhebliche Auswirkungen auf die weltweite Elektronikproduktion

Qualitätsprobleme Probleme bei Produkten und Prozessen der Partner im Netz

Unberechtigte Mängelrügen

IV Finanzbedingte:

Finanzmarktrisiken Katastrophale Einbrüche in Bauindustrie und Immobilienmärkten (USA, Spanien) nach dem Platzen von Spekulationsblasen

7

Liquiditätsprobleme Probleme bei Lieferanten, Kunden und Transportmittlern, im Grenzfall plötzliche Insolvenz, Zwangsverkäufe von Betrieben

V Rechtlich bedingte Klagen wegen Schutzrechtsverletzungen lassen Lieferungen in Netzen stocken

VI Politisch bedingte:

Terrorakte Piraterie Verzögerungen und Ausfälle am Seeweg

zwischen Rotem Meer und Indischem Ozean („Horn von Afrika“)

Embargo Embargos bei Gaslieferungen Kriegsereignisse Unterbrechung von Transportwegen

VII Personell bedingte:

Streiks, Krankheit Temporärer Ausfall von Produktions- und Transportstrecken oder von Dienstleistungen in Häfen

Fachkräfte mit „Herrschaftswissen“ fallen aus

Technische Großprojekte, z. B. Bau von Flughäfen, stocken Leitstände von Verkehrsbetrieben funktionieren nicht, z. B. Stellwerk Mainz der Deutschen Bahn AG

Besonderheiten der Risiken im SCRM sind:

1. Große Schäden richten Extremereignisse mit niedriger Eintrittswahrscheinlichkeit

an.

2. Wegen der für Liefernetze charakteristischen Peitscheneffekte („Bullwhip-Effekt“)

können kleine Ursachen schwerwiegende Folgen und Kettenreaktionen auslösen.

3. Neben „harten Fakten“ wirken psychologische Einflüsse mit (Bereitschaft zur Wahr-

nehmung von und Auseinandersetzung mit Risiken, Präferenzen, Abwägungen zwi-

schen Risiken und Chancen, Zögern bei Absicherung von Eventualschäden zu Las-

ten von sofortigen sicheren Kosten und Rentabilitätseinbußen, Auswirkungen von

Reputationsschäden).

Die Aufgaben der WI erschließen sich zum Teil schon aus der Abbildung 2. Letztlich ist Voraussetzung, dass systemische Knoten und Kanten identifiziert sind. Das ist nicht vordergründig. So brannte vor längerer Zeit eine Lackfabrik in Taiwan. Zunächst wurde

dem keine Bedeutung beigemessen. Erst als man feststellte, dass dieses Werk eine Quasi-Monopolstellung für Lacke hatte, die man für die Fertigung von Chips benötigt, wurde klar, dass man die Produktion so schnell wie möglich wieder hochfahren musste, um eine Kettenreaktion in der globalen Elektronikindustrie zu verhindern. Ähnliche Ef-fekte traten nach dem Erdbeben in der Region Kobe/Japan 1995 ein, das einen emp-findlichen Mangel an Speicheraggregaten für Computer zur Folge hatte (siehe Tab. 1). Wenn die Knoten identifiziert sind, müssen die Auswirkungen möglicher Schäden im Netz, die von diesen Stellen ausgehen, nach Richtung (Kanten), Geschwindigkeit und Stärke (unmittelbar in der Nachbarschaft des Knotens und Fernwirkungen (unter Be-rücksichtigung von Dämpfungseffekten über der Distanz)).

Ein wichtiges Arbeitsgebiet ist die Flexibilitätsforschung im Rahmen des SCM, wobei man die Bestimmung eines günstigen Flexibilitätsgrades als Teilgebiet des SCRM ver-

8

orten kann. Es gilt vor allem, in einem Notfallplan („Plan B“) rechtlich und logistisch früh-zeitig und gründlich analysierte sowie auf dem aktuellen Stand gehaltene Alternativen „in der Schublade“ zu haben. Beispiele sind Vereinbarungen mit Reedern oder Bahnge-sellschaften für den Fall, dass wegen Kriegsereignissen das Frachtfluggeschehen zeit-weise gestört ist. So war die Deutsche Bahn beim ersten Ausbruch des Vulkans Eyja-fjallajökull nicht darauf vorbereitet, Fracht zu übernehmen, die nicht mehr geflogen wer-den konnte, und mit Ausweichlösungen überfordert. Beim nächsten Ausbruch des glei-chen Vulkans funktionierte dies schon besser.

Ein theoretisches Konstrukt zur Durchdringung der Flexibilitätsproblematik ist der Dyna-mic-Capability-Ansatz, der wiederum auf der Ressourcen-basierten Sicht der Unterneh-mensführung gründet [LZSc13]. Es geht darum, dass Flexibilität zusätzliche finanzielle und materielle Ressourcen bindet, z. B. Mieten in Lagerräumen. Ergo müssen die Zu-satzkosten der Flexibilität mit vermiedenen Schäden verglichen werden. Die WI kann

helfen, wenn durch Zusammentragen von Schadensinformationen (u. a. Zeitreihen des Auftretens, Dauer von Unterbrechungen) die Diskussion von Szenarien möglichst objek-tiv verlaufen soll. Für die Priorisierung von Alternativen, Vorsorge- und Ausweichmaß-nahmen mögen Simulationen hilfreich sein.

Tabelle 2 fasst Absicherungsmaßnahmen im SCRM zusammen (in Anlehnung an [DSVo12]).

Tabelle 2: Absicherungsmaßnahmen im SCRM

1. Redundanz (Betriebsmittelkapazitäten, Material/Lagerstätten, Personal, Güterliefe-ranten, Dienstleister)

2. Übernahme von Partner-Unternehmen (Knoten und Kanten im Netz) zwecks enge-rer Kontrolle

3. Absichernde Verträge, Beistandsverträge mit Partner-Unternehmen (u. a. „Ersatz-Partner“), Regierungen, Gewerkschaften

4. Versicherungen, z. B. für Betriebsunterbrechung, Vertragsstrafen 5. Eigentumsvorbehalte 6. Hedging gegen große Preisschwankungen bzw. Volatilität [SCCo o.J.], z. B. an Bör-

sen für Rohstoffe und Basiskomponenten, wie bei Palladium, Speicherchips und LCD-Platinen

7. Notfallpläne

8. Besondere Betonung der Flexibilität bei der Produktentwicklung, sodass die verlang-ten Varianten (z. B. Farben, Sonderausstattungen, Verpackung) erst nach Auftrags-eingang hergestellt oder Produkte sehr spät noch modifiziert werden können („Post-poning“)

In Frage kommen zu Punkt 3 der Tabelle 2 vor allem auch Produzenten in anderen Län-dern für den Fall längerer Streiks (Geografische Diversifikation). Auch Rahmenverträge mit Arbeitnehmerorganisationen zwecks Verhinderungen von Schwerpunktstreiks an systemischen Knoten sind in Betracht zu ziehen.

9

Die Hewlett-Packard Company hat ein auf einem mathematischen Modell basierendes IT-System entwickelt, welches man als Kombination von statistischen Verfahren (Prog-nosen), logistischen Algorithmen (Peitscheneffekt), Lagerdispositionsmethoden, Finanz-mathematik und Szenariotechnik einstufen kann [Naga08].

Sowohl für die Ursachenforschung als auch für die Entscheidungsvorbereitung ist einer-seits essenziell, dass bei der im SCRM oft anzutreffenden Konstellation „Geringe Wahr-scheinlichkeit – bedrohliche Folgen“ (s. o.) Wahrscheinlichkeitsrechnungen nicht weit tragen. Mit Mathematischen Optimierungen stößt man andererseits an die wiederum für das SCRM charakteristischen Komplexitätsgrenzen. Die Fortschritte bei den Rechenka-pazitäten (Modellgröße, die im Hauptspeicher gehalten werden kann, geringer Zeitbe-darf für das Durchrechnen) lassen Simulationen unter Berücksichtigung von zeitversetz-ten Rückkopplungen und Kettenreaktionen als Methode der Wahl erscheinen. Gegen-stand mögen nicht zuletzt Extrem-Szenarien, darunter sog. Worst Cases, sein. Dadfar,

Schwartz und Voß [DSVo12] sehen zu Recht die Dynamisierung als besonders wichtig an. Multi-Agenten-Verfahren könnten sich als nützlich erweisen, indem die Software-Agenten die vielen Instanzen im Netz (nicht nur Betriebe, sondern z. B. auch Transport-strecken, maschinelle Anlagen) mit ihren zum Teil divergierenden Informationsständen, Zielfunktionen und Restriktionen repräsentieren.

Eine weitere Kategorie von Beiträgen der WI bezieht sich auf Daten und Wissen. Bei-des muss mit IT-Unterstützung aus verstreuten Netz-internen und -externen Quellen zu-sammengetragen, verarbeitet und wieder verteilt werden („Information sharing“). Huang u.a. [HBHu08] skizzieren dies am Beispiel eines Umschlagplatzes in Form eines Hafens für Containerschiffe:

Das Abladen von Containern von einem Frachtschiff, das in Kürze in einem Hafen eintref-

fen wird, steht bevor. Eine Verbrecherbande hat die Ladeliste auf elektronischem Wege

abgefangen und so Kenntnis erlangt, dass in einem der Container eine sehr wertvolle

Ladung von Diamanten transportiert wird. Die Organisation dringt in das Informationssys-

tem der Hafenverwaltung ein, um zu erfahren, der wievielte Behälter in der Reihenfolge

der Löschung der mit den Diamanten ist. Ferner gewinnen die Täter so die Information,

auf welchen Lkw dieser Container umgeladen wird und welchen Bestimmungsort, z. B.

ein Werk eines Schmuckherstellers, der Lkw ansteuern wird. Schließlich penetrieren sie

das Personalverwaltungs- und -dispositionssystem des Schmuckproduzenten und erfah-

ren so Einzelheiten zu dem Lkw-Fahrer, der möglicherweise erpressbar ist.

Die Aggregationen von Detailinformationen zu Risikomaßen sind ebenso Herausforde-rungen an die WI wie Berechnungen, etwa das gerade für Güternetze vielversprechen-de Verfahren „Collaborative Planning, Forecasting and Replenishment“ [MZGW11].

Erwägenswert ist ein systematischer Austausch der Beobachtungen von Gefahren zwi-schen den Instanzen des Netzes. Dabei können die Berichtsformate, die dezentralen und zentralen Datenspeicher sowie die Auswertungsmethoden standardisiert werden.

4.2 Nahrungsmittel

Das Management von und in globalen Nahrungsketten darf man als wichtigen und kom-plizierten Spezialfall des SCM ansehen. Neben den Produktstrukturen (Stücklisten, Re-zepturen) spielen die Produktionsprozesse eine große Rolle.

10

Die weltweite Arbeitsteilung wird an dem folgenden Beispiel deutlich: Der Seelachs wird vor den Küsten Alaskas gefangen, getötet und eingefroren. Frachtschiffe bringen ihn in chinesische Fischverarbeitungsfabriken. Dort wird der Fisch aufgetaut, zerlegt, in Porti-onsbeuteln eingefroren und auf Frachtschiffe verladen, die den Beutel zum Bestim-mungsland transportieren. An den zugehörigen Häfen beginnt die Binnenlogistik, z. B. über die Einkaufsgenossenschaften, Zentrallager von Handelsketten, Ladenlokale bis zum Verbraucher [Dowi14].

Im Fall von Störungen und Verunreinigungen, z. B. wenn in einem Endprodukt Salmo-nellen oder Melamin auftauchen oder gar Menschen und/oder Tiere nach Verzehr des Nahrungsmittels erkranken, greifen verschiedene Prozesse, die von unterschiedlichen Institutionen mit IT-Unterstützung organisiert sind, wie die folgenden Praxisfälle zeigen:

1. Oft muss eine Nahrungskette bis zum Ursprung oder zu ursprungsnahen Kompo-

nenten zurückverfolgt werden. Ein Beispiel sind die in einem bestimmten Bauernhof

gelegten Eier oder die Bestandteile der Charge des Hühnerfutters bei dessen Her-

steller. Hierzu dokumentieren z. B. das European Egg Consortium (EEC) und der

Handelskonzern Metro mit dem System OS-FS (Online Service – Food Safety) die

Bewegung von Eiern in einer Lieferkette, in die u. a. Futtermittelhersteller, Legebe-

triebe, Packstellen, Prüfstellen und Einzelhandel eingegliedert sind. Die Betriebe in

der Kette müssen sich gegenüber einem zentralen System authentifizieren. Die

nachfolgenden Chargen nehmen jeweils Bezug auf die Vorchargen [Hein06]. Ein

Hilfsmittel derartiger Produktverfolgung sind die Kennzeichnungen gem. EU-Ver-

marktungsnormen [Mert13].

2. Der Handelskonzern Metro erprobt in Testmärkten seiner Cash-and-Carry-Großhan-

delskette eine Technik auf der Basis von Apps und „Cloud Computing“, mit der die

Herkunft von Fisch- und Fleischprodukten detailliert nachvollzogen werden kann

[OV14m]. Die Beteiligten erfassen die nötigen Informationen in eigenen Datenban-

ken, die dann online zusammengeführt werden. So entsteht eine zentrale Datenba-

sis, die allen Beteiligten per Fernverarbeitung zugänglich ist. Bei Erfolg ist die Aus-

dehnung auch auf Obst und Gemüse und schließlich über den Lebensmittelbereich

hinaus denkbar.

3. An das Schnellwarnsystem RASFF („Rapid Alert System for Food and Feed“) der

EU melden Europas Lebensmittelkontrolleure elektronisch auffällige Importe.

4.3 Arzneimittel

Ebenso wie die Beherrschung von Nahrungsnetzen kann man auch die der Liefernetze zur Medikamentenversorgung als Spezialfall des SCM ansehen. Eine Besonderheit sind die extremen Folgen von Versorgungsschwierigkeiten, die schwere Erkrankungen und Todesfälle bedingen können.

Die Produktion von Komponenten, vor allem von Grundsubstanzen der Arzneimittel, verlangt bei den Pharmaherstellern oft sehr spezielle Betriebsmittel und wissensinten-sive Verfahren. Diese Voraussetzungen haben z. B. bei Multi- bzw. Kombi-Impfstoffen zur Bildung von marktmächtigen Oligopolen und Monopolen geführt, die systemische Knoten im Netz sind. Diese versuchen wegen der Anlagenintensität Überkapazitäten zu vermeiden, sodass bei Epidemien Engpässe in Apotheken und Krankenhäusern entste-

11

hen („Impfstoffkrise“) (siehe Abb. 3). Ähnliche Entwicklungen zeigen sich bei Medika-menten zur Chemotherapie; dort spielt auch eine Rolle, dass es sich zum Teil um Arz-neien handelt, für die der Patentschutz ausgelaufen ist, sodass nur niedrige Preise er-zielt werden können [OV14n].

Als Reaktion hat das Bundesinstitut für Arzneimittel und Medizinprodukte 2013 eine Da-tenbank eingerichtet, über die rechtzeitig, aber freiwillig Lieferengpässe gemeldet wer-den sollen.

Zur Auflösung kommen vor allem alternative Medikamente in Frage, deren Wirkungen und Nebenwirkungen sorgfältig verfolgt und dokumentiert werden müssen, aber auch Querlieferungen, z. B. zwischen Apotheken. Dies impliziert einen hohen Informations-stand über alle Bestände im Netz und anspruchsvolle Zuweisungsalgorithmen zur Be-stimmung von logistisch optimalen Ausgleichslieferungen.

Abbildung 3: Impfstoffkrise [EtFr14]

4.4 Betriebsmittel

Optimistische Vorhersagen zu „Industrie 4.0“ beinhalten, dass in Zukunft nicht mehr IT-Systeme miteinander kommunizieren, die auf Funktionen bezogen sind, wie z. B. Wa-renwirtschaftssysteme, sondern betriebs- und unternehmensübergreifend sofort Werk-zeugmaschinen, Fertigungsanlagen, automatische Lager, innerbetriebliche Fahrzeuge, LKWs und andere Betriebsmittel. Dieser Trend zur Digitalisierung in vielen Branchen der Industrie gilt zurzeit als unstrittig [BuGn14].

Weitere Szenarien beziehen sich bis hin zu automatischen, aber menschenähnlichen Verhandlungen über logistische Dispositionen zwischen Betriebsmitteln von Unterneh-men und Verkehrsträgern.

Kombi-Impfstoff

Windpocken Masern Mumps Röteln

Antigen

Anzucht des

Erregers

Oligopole/Monopole

(Glaxosmithkline, Sanofi-Pasteur)

Rentabilitätsstreben

Vorratsminimierung im

Liefernetz

Arztpraxen ApothekenKrankenhäuser

SCM (ATP/CTM, CPFR, Querlieferungen)

Verdrängt Monoimpfstoffe

12

Gegenstand der Kommunikation können z. B. Abstimmungen über Kapazitätsquer-schnitte in der mittelfristigen Planung, Bestellungen, Zuweisungen von zu transportie-renden Gütern zu Straßenfahrzeugen, Flugzeugen und Schiffen, aktuelle Umdispositio-nen nach Störungen, Verspätungsankündigungen oder Reklamationen sein. Erfolg ver-sprechende Ansätze unter Verwendung von Software-Agenten, welche die einzelnen Betriebsmittel mit ihren Merkmalen, Zielen und Einsatzplänen repräsentieren, findet man bei [Falk95] und [Weig94].

Eine besondere Schwierigkeit dürfte sich daraus ergeben, dass aus Wertschöpfungs-ketten vermehrt Wertschöpfungsnetzwerke entstehen und längerfristige oder gar dauer-hafte Kunden-Lieferanten-Beziehungen zurückgedrängt werden (in Anlehnung an Ein-schätzungen von Michael Ziesemer, Präsident des ZVEI, siehe [OV14a]).

So entstehen z. B. Ad-hoc-Netze, die etwa bei einem Transport zu einem anderen Kon-tinent, wie er in Abschnitt 4.2 angedeutet ist (Seelachs aus Alaska), mehrere Verkehrs-träger und Lagerstätten berühren.

Hierbei gilt es, einen geeigneten Normungsstand zu erreichen. Das eine Extrem sind weltweite und entsprechend von Weltorganisationen entwickelte und verabschiedete detaillierte Vorschriften, z. B. Protokolle zum Datenaustausch. Derzeit werden sogar die Austauschformate rund um das teilautomatisierte Haus („smart home“; vgl. [Sche14]) bereits auf mehrere Hundert geschätzt.

Das andere Extrem stellen sehr flexible und formlose, aber automatisierte Ad-hoc-Kom-munikationsvorgänge dar, wie sie zwischen Menschen in Telefonaten stattfinden („Men-schenähnliche Informationsverarbeitung im wirtschaftlichen Zusammenhang“). Elmar Sinz hat es so formuliert: „Genauso wie der Mensch in der Lage ist, sich in (schlechtem) Englisch („bad English“) in (fast) jedem Land der Erde verständlich zu machen, sollten dies IT-Systeme auch tun können.“ Das bedeutet, dass ein vom IT-System A wie auch immer formulierter Wunsch von einem beliebigen IT-System B (ggf. nach einigem Nach-fragen) nicht nur verstanden, sondern auch als Auftrag ausgeführt wird. Hilfsmittel aus der Informatik und speziell der Computer-Linguistik sind Thesauri, Semantische Netze und Ontologien. Eine Lösung dieses Problems würde es gestatten, den globalen Auto-matisierungsgrad entscheidend zu erhöhen [MeBa14].

Betriebsmittel-Netze bieten sich als Einfallstor für politisch oder wirtschaftspolitisch be-dingte Spionage in Industrie-, Dienstleistungs- und Wissenschaftsbetrieben besonders an (vgl. Abschnitt 4.4). Als Extrem nennt Rolf Reinema, Leiter Sicherheit und Daten-schutz bei Vodafone Deutschland, Experimente, Herzschrittmacher zu attackieren

[Rein14].

Gelingt es Kriminellen, in die Netze teilautomatisierter Häuser einzudringen, so können sie detaillierte Informationen über das regelmäßige Verhalten der Hausbewohner sam-meln und daraus z. B. geeignete Zeitpunkte eines Einbruchs ablesen.

Zur Aufgabe der WI gehören auch innovative Geschäftsmodelle, die den informations-technischen Fortschritten entsprechen, z. B. neue Betriebsformen von Flotten der Ver-kehrsträger.

4.5 Verkehr

Erstreckt man die Betrachtungen auf die Verkehrsnetze, so erkennt man auch dort die Defizite bei der Untersuchung der systemischen Schwachstellen bzw. die Fehler in Ge-

13

stalt zu breit angelegter Investitionen und Reparaturen im Netz. So äußerte Heiko Fi-scher, Vorstand des Logistikkonzerns VTG: „Leider steht der Güterverkehr bei all den Ausbauprojekten, die es gibt, nicht im Fokus. Hochgeschwindigkeitsstrecken oder Bahnhofsprojekte sind wichtiger als das, was für weniger Geld zu haben wäre – nämlich Engpassbeseitigung. Der Staat hat 20 Jahre zu spät angefangen, systemisch zu erneu-ern. Das sogenannte European Control System gibt es in so vielen nationalen Varian-ten, dass ich … mich frage: Ist das wirklich ernst gemeint?“ [Eule11]

Von dem im Verkehrswegeplan als besonders dringlich eingestuften Projekten (Verhält-nis der Nutzen und Kosten > 8) wurde von 2003 bis 2013 jedes fünfte fertiggestellt, aber bei einer Relation < 3 fast jedes vierte [Delh14].

Im weiteren Sinn mag man die frühzeitige Analyse von Knoten und Kanten in Verkehrs-netzen einbeziehen, die als Alternativen in Betracht kommen, sobald die „normalen“ Verbindungen gestört sind. Beispiele sind Flugrouten, als Aschewolken nach dem Aus-bruch des Vulkans Eyjafjallajökull oder Tsunamis oder Terrorgefahr im Luftraum über der Ostukraine Flugkorridore unpassierbar machten. Die Modelle der „Hauptnetze“ müssen dann um Netzteile für diese Notfälle ergänzt und frühzeitig Ausweich-Entschei-dungen durchgerechnet bzw. simuliert werden.

Über die EUS hinaus, die bei vorübergehenden Umdispositionen helfen, kommen sol-che in Frage, welche der Verkehrsnetzentwicklung in Verbindung mit Raumordnungs-verfahren dienen und die z. B. in Deutschland den „Richtlinien für Integrierte Netzgestal-tung“ folgen [FGSV14].

An diesem Beispiel erkennt man die Bedeutung der Instrumente Sensorik, Datensamm-lung sowie Simulation von Schäden an Knoten und Kanten und deren Ausbreitung.

4.6 Energie

Die Energienetze sind als systemrelevant zu betrachten, vor allem wenn durch eine Störung in einem Knoten (z. B. Kraftwerk) ganze Landesteile vom Strom abgeschnitten werden können. Hier sind Fragen zur Ausfallsicherheit bzw. Robustheit von Stromnet-zen zu berücksichtigen.

Die Bundesnetzagentur (BNetzA), die oberste deutsche Regulierungsbehörde für Elekt-rizität, Gas, Telekommunikation, Post und Eisenbahnen, überwacht circa 80 % des deutschen Gas- und 90 % des Strommarktes. Sie sammelt unter anderem Daten über die Ausfallsicherheit des deutschen Stromnetzes. Der sogenannte SAIDI-Wert („System Average Interruption Duration Index“) erfasst die Dauer, das Ausmaß sowie den Zeit-raum eines Stromausfalls im betrachteten Jahr und gilt damit als Indikator für die Ver-sorgungsqualität von Stromnetzen (siehe Abb. 4). Die Versorgungssicherheit in Deutschland liegt im europäischen Vergleich auf einem sehr hohen Niveau (99,996 % Versorgungssicherheit für das Jahr 2013) [Bnet14].

14

Abbildung 4: Versorgungsqualität in Deutschland [Wiki14b]

Im Bereich Sicherstellung der Versorgungssicherheit gibt es seit Mitte 2013 mit den neuen Regelungen im Energiewirtschaftsgesetz und in der Reservekraftwerksverord-nung eine juristische Grundlage dafür, dass Kraftwerksbetreiber ihre Anlagen nicht ohne vorherige Prüfung vom Netz nehmen dürfen. Soll ein Kraftwerk abgeschaltet wer-den, so prüft die Bundesnetzagentur, inwiefern eine Systemrelevanz vorliegt. Für das Jahr 2013 hat man ein Stilllegungsverbot für fünf Kraftwerksblöcke ausgesprochen [Bnet14, insb. S. 35].

Es gibt wichtige Untersuchungen, die zeigen, wie künftige EUS zu regelmäßigen An-passungen der Stromnetze an veränderte Bedingungen aussehen könnten, wobei große und laufend aktualisierte Datenbanken und statistische Methoden im Zentrum stehen.

Ein internationales Forscherteam der US-Akademie der Wissenschaften hat in den Pro-ceedings of the National Academy of Sciences (PNAS) im Jahr 2011 [Schn11] ein Maß für die Robustheit von Netzen entwickelt (vgl. Kapitel 5). Dabei wird die Struktur des Net-zes berücksichtigt und das Ausmaß von Netzausfällen bei Angriffen gemessen. Ideal wäre demnach ein Stromnetz, in dem jeder Knoten mit jedem anderen verbunden ist.

Dies ist nach Meinung der Autoren der Studie genauso unrealistisch wie ein Netz in Stern-form, bei dem alle Verbindungen von einem Hauptknoten ausgehen. Bei einem Ausfall eines einzigen Knotens würde dann das komplette Netz ausfallen (siehe auch [Gräb11]). Das europäische Stromnetz, in dem die Netzstrukturen Strahlen-, Ring- und Maschen-netz vorherrschen [Schw12, insb. S. 512ff.], gilt nach dem Robustheitsmaß als ein sehr fragiles Netz, d. h. kleinere Störungen bedingen bereits gravierende Auswirkungen. Nach Berechnung der Wissenschaftler würde das komplette Netz bereits zusammenbrechen, wenn man nur jedes zehnte europäische Kraftwerk abschalten würde. Die Forscher ma-chen aber auch Vorschläge, wie das Netz robuster werden kann: Man müsste nur jede zwanzigste Verbindung verändern, um die Ausfallsicherheit um 45 % zu steigern. Ge-meint sind prioritär Verbindungen in Norditalien an der Schweizer Grenze und solche zwischen Deutschland und Polen, aber auch in Frankreich [Schn11], [Gräb11].

Wie empfindlich das europäische Stromnetz in der Praxis ist, zeigt ein Beispiel aus dem Jahr 2006: Am 4. November kollabierte es für zwei Stunden. Teile von Deutschland,

15

Frankreich, Belgien, Italien, Österreich, Spanien waren betroffen, und sogar in Marokko waren die Auswirkungen spürbar. Auslöser war die planmäßige zeitweilige Abschaltung einer Hochspannungsleitung im Nordwesten Niedersachsens für die Ausschiffung des Kreuzfahrtschiffes Norwegian Pearl [UCTE07], [BNet07].

Verfolgt man die Auswirkungen derartiger Episoden weiter, so lässt sich behaupten, dass die Stromversorgung ihrerseits einen systemischen Knoten in der menschlichen Gesellschaft darstellt. Dies kann an dem folgenden (fiktiven) Szenario angedeutet wer-den (in Anlehnung an [Semb14] unter Bezug auf [Elsb12]):

Ein Angriff auf einen „intelligenten Stromzähler“ („Smart Meter“) aus dem Internet heraus löst eine

vorerst nicht zu unterbrechende Kettenreaktion aus. Ampeln an Kreuzungen versagen, es kommt

zu Zusammenstößen, Türen von U-Bahnen öffnen sich nicht, Fahrstühle bleiben zwischen Stock-

werken hängen, die Wasserversorgung bricht zusammen, auch Toilettenspülungen funktionieren

nicht mehr, man kann nicht mehr telefonieren und auf das Internet zugreifen. Nachdem die Auto-

maten an den Tankstellen versagen, bleiben viele Fahrzeuge auf der Straße stehen. Sobald die

Notstromaggregate erschöpft sind, kann die medizinische Versorgung in den Krankenhäusern

nicht mehr aufrechterhalten werden. Auf den Intensivstationen spielen sich tragische Szenen ab.

In den Reaktoren von Atomkraftwerken kann das Kühlwasser nicht mehr temperiert werden, so

dass ein GAU droht.

Seit dem schwersten Erdbeben in der Geschichte Japans im März 2011 und dem damit einhergehenden „Super-GAU“ im Atomkraftwerk Fukushima Daiichi wendet sich die Bundesregierung immer mehr von der Nuklearenergie ab und den regenerativen Ener-gien zu. Die Bundesregierung will bis zum Jahr 2050 ihren Energiebedarf zu 80 % aus erneuerbaren Ressourcen decken. In Zusammenhang mit dieser Umstrukturierung des Energienetzes werden ebenfalls Fragen zur Versorgungssicherheit sowie zur Gefahr von Blackouts noch wichtiger, da Wind- und Sonnenenergieanlagen keine konstante Leistung erbringen [Heym14], [OV14k]. Durch das Aufkommen von Privathaushalten, die einen Teil ihres Strombedarfes selbst erzeugen und Überschüsse in das öffentliche Netz einspeisen dürfen, entstehen zusätzliche Knoten und Kanten in den Netzstruktu-ren, was die Komplexität weiter erhöht.

Auf der CeBit 2014, der weltgrößten IT-Messe, befassten sich rund ein Viertel aller Aus-steller mit Aspekten rund ums Erzeugen, Verteilen und Speichern von Energie. Durch IT-gestützte Vernetzung beispielsweise in einem intelligenten Netz („Smart Grid“) kann das Energienetz überwacht werden und eröffnet damit Perspektiven für mehr Versor-gungssicherheit. Gefahren sind jedoch möglich, wenn die notwendigen Kommunikati-onsinfrastrukturen nicht den höheren Ansprüchen genügen und Angriffe aus dem Inter-

net nicht verhindert werden können. Dies wurde in einem Expertengespräch mit Vertre-tern aus der Gesellschaft für Informatik (GI e. V.) und dem VDE/ITG zum Thema „Infor-mationssicherheit im Stromnetz der Zukunft“ auf der CeBit 2014 diskutiert. Noch viel zu wenig beachtet ist ein möglicher Angriff von Hackern auf die Steuerungscomputer von Energieversorgern, wie bspw. RWE. Damit könnte ein Cyberspion oder -saboteur per Mausklick „den Strom abschalten und damit eine Kettenreaktion … auslösen“. Wichtig ist hier, eine gut aufgestellte Cyberabwehr im Unternehmen zu installieren [Berk14].

4.7 Trinkwasser

Die Trinkwasserversorgung von Haushalten und Unternehmen erfolgt in Ballungsgebie-ten über weitverzweigte Netze. In Berlin werden pro Jahr ca. 200 Millionen m3 durch ein

16

kompliziertes Rohrsystem von rund 8000 km Länge gepumpt. Vernetzt sind u. a. 9 Wasserwerke, 900 Brunnen, 63 Reinwasserbehälter und 89 Reinwasserpumpen.

Das System ist stark IT-gesteuert, sodass winzige Manipulationen ausreichen würden, das Leben in der Stadt empfindlich zu beeinträchtigen. Daher sind die Steuerungscom-puter die systemischen Knoten und werden mit hochsicheren Verfahren, ähnlich wie die Datenverbindungen zwischen Berliner und Bonner Regierungsstellen, geschützt [Berk14].

4.8 Banken

Wichtige Besonderheiten dieser Netze, die mit Herausforderungen an die WI einherge-hen, sind:

1. Neben der globalen Verflechtung der Banken untereinander besteht eine erhebliche

Vernetzung mit Regierungen wegen gegenseitiger Abhängigkeiten. Daraus entste-

hen auch im Kern sachfremde Kriterien, wie z. B. Anweisungen, bei Risikoprüfungen

Kredite an Staaten unberücksichtigt zu lassen bzw. Staatsinsolvenzen nicht in Rech-

nungen und Simulationen einzubeziehen ([OV11] und [OV14i], vgl. auch [HePa13].

Die Wissenschaft muss mit eigenen Analysen, z. B. mit Simulationen von Schocks

im Netz unter Beachtung von zeitversetzten Rückkopplungsschleifen („System Dy-

namics“), auf die Gefahren solcher Politik hinweisen.

2. Zuweilen werden bisher unbekannte bzw. unberücksichtigte Netze plötzlich sichtbar.

So sorgte im Juli 2014 das Geschehen um die portugiesische Familie Espírito Santo

für beträchtliche Irritationen an den Finanzmärkten. Sie besitzt neben zahlreichen

anderen Engagements rund ein Viertel der Anteile der zweitgrößten portugiesischen

Bank BES (Banco Espírito Santo). Die auf mehrere Zweige verteilte Familie hält ihre

Beteiligungen in einer wenig transparenten Kaskade von Holdings [OV14b]. Es be-

steht methodisch kein prinzipielles, wohl aber ein Größen- und Komplexitätsproblem

(vgl. auch unten Punkt 5 zu den Herausforderungen der WI), globale Netze von Ban-

ken und „Nicht-Banken“ zu verknüpfen (vgl. auch [VGBa11] und [Batt12]).

3. Vorerst nicht regulierte Institute bzw. Schattenbanken wie Hedgefonds sind in die

aktuellen Stabilisierungsaktionen nicht einbezogen. Die Bedeutung dieser Institutio-

nen nimmt zu [Weis12, S. 7]. In einer Umfrage des Center for Financial Studies der

Universität Frankfurt äußerten 80 % der Banken und der ihnen nahestehenden

Dienstleister selbst, dass die Schattenbanken einer international koordinierten Regu-

lierung unterzogen werden sollten [CFSt14]. Auch die Bundeskanzlerin mahnt eine

konsequente Regulierung der Schattenbanken an [OV14q], [OV14r]. Das Beseitigen

dieser Schwachstelle würde zu neuen Erweiterungen und Komplikationen der Netze

führen [OAWK14].

4. Viele nationale und internationale Institutionen sind mit speziellen Kontrollaufgaben

und -vollmachten ausgestattet. Diese bedienen sich aus diversen Datenspeichern

und sind sachlich sowie zeitlich nicht immer gut abgestimmt (u. a. Financial Stability

Board, Weltbank, BIZ, EZB zusammen mit der Europäischen Bankenaufsicht (SSM

= Single Supervisory Mechanism), dem ESRB (siehe unten) und dem SRM (= Single

Revolution Mechanism), der wiederum aus dem SRB (= Single Revolution Board)

17

und dem SRF (= Single Revolution Fund) zusammengesetzt ist, dem US-amerikani-

schen Federal Reserve System (FED), Nationale Zentralbanken (z. B. Deutsche

Bundesbank), nationale Aufsichtsbehörden, z. B. BaFin, Finanzminister-Konferenz

des EU-Rates). Hinzu kommt, dass nach dem ersten Stresstest ein permanentes

Kontroll-Instrumentarium implementiert werden soll [Fehr14]. In diesem Rahmen sol-

len Aufsichtsbehörden im Wege der zwischenbetrieblichen Automation kontinuierlich

und automatisiert Meldungen erhalten, die aus dem Rechnungswesen der Kreditin-

stitute stammen, wie z. B. solche zur Entwicklung des Eigenkapitals und der Liquidi-

tät. Eine ganze Reihe der Banken, so auch die deutsche KfW, dürften dazu wegen

des bedenklichen Standes ihrer IV-Systeme noch längere Zeit nicht in der Lage sein

[OV14c].

5. Der Status quo der Kontrolle ist unausgereift und daher kritikwürdig (siehe unten).

6. Bei großen Kontrollaktionen, wie wir sie derzeit in Gestalt der EU-Bankenunion erle-

ben (siehe unten), entsteht ein hoher personeller Prüfaufwand, der z. B. bei einer

Großbank während des Prüfzeitraumes ca. 80 Prüfer verlangt. Auch bei kleinen In-

stituten können die Kosten relativ stark ins Gewicht fallen, sodass die Bestimmung,

ob sie systemrelevant sind, von hoher Bedeutung ist [OV14d].

7. Geschwindigkeiten der Ausbreitung von Informationen einschließlich von Gerüchten

sind extrem, z. B. beim Hochfrequenzhandel in Fast-Echtzeit. Damit verbunden ist

das Problem von privilegierten Datenverbindungen [Kuls14].

8. Starke und schwer vorhersagbare psychologische Effekte in Gefahrensituationen, z.

B. Gerüchtebildung, Herdentrieb, Panikreaktionen („Bank run“), sind zu berücksichti-

gen, zumal Krisensignale und Gerüchte gerade in der Bankenbranche große politi-

sche und mediale Aufmerksamkeit finden. So hat sich bei der Prüfung der Notfall-

pläne („Banken-Testamente“) der elf größten Banken in den USA durch die FED ge-

meinsam mit der Einlagensicherung FDIC (Federal Deposit Insurance Corporation)

herausgestellt, dass die meisten Geldhäuser von unrealistischen Annahmen über

das Verhalten von Kunden und anderen Geschäftspartnern ausgingen [OV14p]. Zu

entwickeln und erproben wären branchenbezogene Methoden, Stimmungslagen und

Verhaltensprognosen aus Sozialen Netzwerken herauszufiltern. Die daraus resultie-

renden Vorhersagen müssten langfristig in die Simulation der Krisendynamik einbe-

zogen werden.

9. Seit Jahrzehnten ist es vielfach geübte Praxis bei der Geldanlage und Vermögens-

verwaltung, in wenig korrelierende Anlageklassen (Aktien, Anleihen, Gold, Immobi-

lien) zu diversifizieren. Theoretisch war dies durch die Arbeiten von Markowitz fun-

diert. Diese Strategie hat sich aber in der großen Finanzkrise als nicht mehr so er-

folgreich erwiesen wie früher. Ergebnisse der Finanzmarktforschung deuten darauf

hin, dass das Markowitz-Modell zur Abwägung zwischen Gewinnchancen und Risi-

ken verschiedener Vermögensklassen, welches stationäre, normalverteilte und li-

near korrelierte Strukturen unterstellt, bei der Geldanlage nicht mehr realitätskon-

form ist [CQRA09]. Diese ernüchternden Befunde lassen befürchten, dass die bishe-

rigen Strategien an Wirkung auf die Risikobegrenzung verlieren. Auch insoweit muss

18

nach neuen Methoden zur Beherrschung von Risiken in der vernetzten Bankenbran-

che gesucht werden. Hierzu hätte die WI theoretische Entwicklungen zum „Know-

ledge discovery from databases“ in die Praxis der Finanzwirtschaft umzusetzen.

10. An vielen Knoten hat man relativ geringe Puffer zur Bewältigung von Krisen in Ge-

stalt von Eigenkapital. So hatte sich bei einer Untersuchung durch den Financial

Stability Board herausgestellt, dass 28 Banken systemisch sind (G-SIBs = Globally

systemically important banks). Bei allen wurde in unterschiedlichem Ausmaß be-

mängelt, dass die finanzielle Ausstattung zur Absorption von Schocks verbessert

werden muss, wofür ein Zeitfenster von 2016 bis 2019 eingeräumt wird [FSBo12].

11. Datensicherheit und Datenschutz haben überdurchschnittliche Bedeutung.

12. Es existieren große finanzielle Anreize zum Fehlverhalten seitens der Leitungs- und

Fachgremien in den Banken. Diese Schwachstelle muss auch durch neue IT-ge-

stützte Kontrollsysteme, namentlich für Aufsichtsorgane, angegangen werden

[Mert09].

13. Als Reaktion auf die Innovationsgeschwindigkeit bei oft sehr komplexen bzw. raffi-

nierten Bankprodukten müssen stets neue Varianten der Beaufsichtigung und ein-

schlägigen Entscheidungsunterstützung entwickelt werden [Fehr14].

EU-Gremien arbeiten zusammen mit nationalen Institutionen an einer sogenannten Bankenunion, in deren Rahmen die Kreditinstitute strengen Kontrollen unterworfen wer-den sollen. Damit will man verhindern, dass einzelne unsolide finanzierte bzw. operie-rende Banken zu große Risiken eingehen und am Ende die Staaten und Sparer für Schäden einstehen müssen. Die Auswahl der besonders zu überprüfenden Banken folgt sehr stark dem Prinzip „Too big to fail“ (TBTF), d. h. man unterstellt, dass die größ-ten Institute am ehesten Schäden anrichten können, die Dritte in die Haftung zwingen. Dieser Maßstab ist vor allem in der Wissenschaft stark umstritten [BaSc13]. Die instituti-onelle Grenzziehung, wonach die EZB alle Banken mit einer Bilanzsumme über 30 Mrd. Euro direkt beaufsichtigen soll, wurde von mehreren Politikern als „völlig willkürlich“ oder ähnlich kritisiert. Einerseits werden kleinere, aber wegen ihrer starken Vernetzun-gen gefährliche Institute, zum Teil ausgespart, andererseits aber vergleichsweise sehr solide finanzierte Institutionen wie das Beamtenheimstättenwerk von der EZB geprüft [Bers13]. Auch die Aufbauorganisation, vor allem die Grenzziehung zwischen nationaler Aufsicht und EZB und dort zwischen Geldpolitik und Bankenaufsicht, ist strittig. Es wird darauf verwiesen, dass auch das Kriterium „Too interconnected to fail“ (TITF) zu be-

rücksichtigen ist. So wurde ein nichtlinearer Zusammenhang zwischen dem Grad der Integration von Banken und der Wahrscheinlichkeit einer systemischen Krise nachge-wiesen [Buch o.J., S. 14]. Die zypriotischen Banken, die Gegenstand einer schweren Krise im Jahr 2013 waren, sind vergleichsweise klein, hatten aber Bankeinlagen von griechischen Kunden und anderen Ausländern (vor allem aus den Nachfolgestaaten der Sowjetunion), die höher waren als die der Inländer. Bundesfinanzminister Schäuble ar-gumentierte zunächst, dass Zypern nicht systemrelevant wäre; ihm wurde u. a. vom EZB-Präsidenten Draghi und vom EU-Währungskommissar Rehn entschieden wider-sprochen, vor allem auch mit dem Argument, dass die Verunsicherung der Sparer schnell auf griechische Banken überspringen könnte [OV13b]. Auch andere Kreditinsti-tute, die anfänglich als relativ klein angesehen wurden, wie Lehman oder Bear Stearns oder BES, erwiesen sich später vor allem wegen ihrer Vernetzung als systemisch. Der Zusammenbruch von Lehman Brothers löste eine Kettenreaktion aus, die für das ge-

19

samte weltweite Finanzsystem eine ernste Bedrohung darstellte [Rudo14]. Die US-Re-gierung hat später bedauert, die Investmentbank nicht rechtzeitig gerettet zu haben. Möglicherweise lag es daran, dass die Aufsicht das Geflecht von 3.000 rechtlich selbst-ständigen Gesellschaften des Konzerns mit Sitz in über 50 Staaten nicht mehr überbli-cken konnte [ebenda, S. 73]. Hinzu kommt, dass kleine Staaten mit großem Banken-sektor, wie Belgien (Dexia-Bank) oder Island, mit der Rettung einer Bank oder gar meh-reren überfordert wären, sodass sich die Rettung als unmöglich erwiese, wenn nicht überstaatliche Institutionen zu Hilfe kämen („Too big to save“/TBTS). Der SRM bietet keine Absicherung gegen Ansteckungsgefahren, da Einleger und Gläubiger bzw. Spa-rer mit kurzfristigen Forderungen nicht ausreichend geschützt werden [GoRi14]. Ursa-chen für diese Vereinfachung in der Praxis mögen sein, dass den ohnehin durch die laufenden Prüfungen stark geplagten Banken zusätzliche Lasten bei der Datenbereit-stellung aufgebürdet würden und die Ergebnisse besonders schlecht ausfielen, was

wiederum zu neuen Krisen führen könnte.

In diesem Zusammenhang zeigt sich ein weiteres Problem der Netzarchitektur: Ein-zelne Knoten, wie z. B. lokale Sparkassen, sind nicht systemisch, sehr wohl aber Ver-bände wie die Deutsche Sparkassenorganisation, weil innerhalb der Gruppe eigene Si-cherheitsmechanismen greifen (Sparkassen treten füreinander ein), sodass unter Um-ständen ein spezielles Subnetz von Haftungsverflechtungen entsteht, das temporären Charakter haben kann. Hierfür wird zuweilen das nicht ideal treffende Schlagwort „Too many to fail“ genutzt.

Der Komplexität der Kriterien Rechnung tragend, hat der Basler Ausschuss für Banken-aufsicht 2011 einen indikatorbasierten Messansatz entwickelt (siehe Abb. 5, entnom-men aus [Rudo14, S. 78]). Dieser ist freilich statisch und reflektiert keine Abläufe und Domino-Effekte. Ähnlich ist die Schweizerische Nationalbank vorgegangen [ScBa11, S. 10].

Indikatorbasierter Messansatz

Kategorie (und Gewichtung)

Einzelindikator Indikatorgewicht

Grenzüberschreitende Aktivitäten (20 %)

Grenzüberschreitende Forderungen 10 %

Grenzüberschreitende Verbindlichkeiten 10 %

Größe (20 %) Gesamtengagement 20 %

Verflechtung (20 %) Vermögenswerte innerhalb des Finanzsys-tems

6,67 %

Verbindlichkeiten innerhalb des Finanz-systems

6,67 %

Ausstehende Wertpapiere 6,67 %

Ersetzbarkeit / Finanzin-stitutsinfrastruktur (20 %)

Verwahrte Vermögenswerte 6,67 %

Zahlungsverkehrsaktivitäten 6,67 %

Emissionsgeschäfte an Schuldtitel- und Aktienmärkten

6,67 %

Komplexität (20 %) Nominalwert außerbörslicher Derivate 6,67 %

Aktiva der Stufe 3 6,67 %

Zu Handelszwecken gehaltene bzw. zur Veräußerung verfügbare Wertpapiere

6,67 %

Abbildung 5: Indikatorbasierter Messansatz für systemrelevante Banken [Rudo14, S. 78]

20

Im Wissen darum, dass die im europapolitischen Raum und in anderen Ländern (USA, Großbritannien, Schweiz) praktizierten Verfahren noch nicht ausgereift sind, hat man diverse Ausschüsse eingerichtet, so z. B. den European Systemic Risk Board (ESRB), dem auch ein Gremium von Wissenschaftlern zuarbeitet. Diese sollen die Netz-Proble-matik, z. B. auch die sogenannten Ansteckungskanäle, intensiver analysieren und das Thema „Makroprudentielle Politik“ bearbeiten. Darunter versteht man die Aufsicht über das gesamte Finanzsystem und dessen Regulierung, um Krisen zu verhindern. Hierzu gehört ausdrücklich, systemische Risiken zu identifizieren und zu priorisieren, sodass Frühwarnsignale ausgesendet werden können, und einschlägige politische Empfehlun-gen auszusprechen. Der ESRB ist umstritten, u. a. wegen der Gefahr, dass seitens der EU sehr spezieller Einfluss auf die Kapitalallokation in den europäischen Staaten ge-nommen wird [Spey12]. Ein Problem aus Sicht der Forschung liegt darin, dass mit der Arbeit solcher Gremien eine Art Zensur verbunden ist. So berichtete DER SPIEGEL

Folgendes: Ein wissenschaftliches Beratungsorgan des ESRB habe vorgeschlagen, Klumpenrisiken zu vermeiden, indem Banken auferlegt wird, die erworbenen Staatsan-leihen zu begrenzen. Der EZB-Präsident Draghi habe die Empfehlungen wegen ihrer Brisanz „zur Überarbeitung“ zurückgegeben [HePa14].

Der Stand der Aktion „Bankenrettung“ wirkt also, soweit man ihn in Anbetracht der Ge-heimhaltung vieler Vorgehensweisen und (Zwischen-)Resultate als Wissenschaftler überhaupt beurteilen kann, bedenklich. Der Stresstest 2011 gilt als „grandioser Fehl-schlag“. So musste z. B. die belgische Bank Dexia, die bestanden hatte, bald darauf mit öffentlichen Geldern gerettet werden [HeFi14]. Auch die im Zahlenwerk der portugiesi-schen Banco Espírito Santo lauernden Gefahren wurden von Prüfungsbehörden, darun-ter der portugiesischen Bankaufsicht und auch der Troika, zu lange übersehen. Mit Ein-lagen von unter 40 Mrd. Euro gilt dieses Institut als im europäischen Maßstab nicht be-sonders groß.

Noch im Juni 2014 kritisierte der deutsche Bundesfinanzminister, dass die EU-Kommis-sion immer noch keine Beurteilung der von jeder Bank ausgehenden Risiken vorlegen könne und auch dass nicht geregelt sei, ob und in welchem Maße kleine Banken ohne systemisches Risiko an den Kosten der großen Aktion „Bankenunion“ beteiligt werden. Man erkennt an dieser Stelle wieder die Bedeutung der Identifikation von systemischen Knoten im Netz [OV14o].

Sollte diese Einschätzung zutreffen, so mag der unbefriedigende Zustand eine Reihe von Ursachen haben:

1. Es handelt sich um eilbedürftige Aktionen großen Ausmaßes, die einen erheblichen

Ressourcenbedarf zeitigen. So baut die EZB binnen Jahresfrist eine Abteilung mit ca. 1000 zusätzlichen Fachleuten auf, die spezielle Qualifikationen haben. Geht man davon aus, dass die große Aufgabe eher Projektcharakter hat, so stellt sich zudem die Frage nach der langfristigen Verwendung dieses Personals. Daher kommt der Automation der gesamten Funktionen und der zugehörigen Prozesse hohe Bedeu-tung zu. Die jährlichen Kosten bei der EZB werden auf über 250 Mio. Euro ge-schätzt. Hinzu kommen hohe Beträge der nationalen Aufsichtsbehörden (in Deutschland der BaFin) und der beaufsichtigten Institute selbst [OV14e].

2. Entsprechend sind die Belastungen bei den Kreditinstituten (siehe oben). Es wird geschätzt, dass europaweit 6.000 Wirtschaftsprüfer und andere Berater eingeschal-tet sind [OHAK14].

3. Die betroffenen Banken erhalten extrem kurze Zeiten für die Stellungnahme zu Ana-lyseergebnissen, bevor diese veröffentlicht werden (im Oktober 2014 nur 48 Stun-

21

den). Binnen zwei Wochen müssen sie festlegen, wie sie fehlendes Kapital aufbrin-gen [Schu14], [HFWe14]. Dies birgt die Gefahr fehlerhafter Informationen, die zu bri-santen Kettenreaktionen bzw. Turbulenzen führen können. Hierzu kursiert die War-nung vor einem „Black Monday“ oder „Lehman II“. Auch müssen Gläubiger von un-günstig beurteilten Banken sehr kurzfristig Konsequenzen ziehen, z. B. zusätzliche Sicherheiten verlangen, was sofort zu schwer kontrollierbaren Effekten im Netz füh-ren könnte [OHAK14].

4. Umgekehrt werden längere Zeitstrecken zwischen Analyseschritten und Information der (Fach-)Öffentlichkeit vermieden, um die Gefahr von Brüchen der Vertraulichkeit durch Einweihung von Medienvertretern und Spekulanten zu reduzieren.

Es mehren sich Stimmen, die wegen der Kombination aus Zeitdruck und Arbeitsverdich-tung ungenügend ausgereifte Konzeptionen und andere Qualitätsmängel befürchten (z. B. [Kral14] und [OV14h]).

Herausforderungen an die Wirtschaftsinformatik sind:

1. Sammlung von externen Daten und externem Wissen und Abbildung bzw. Verbin-dung in neuen Daten- und Wissensspeichern. Man kann das als die Umkehrung des Wissensextraktes aus Datenspeichern sehen, denn das so gewonnene Wissen muss in geeigneter Form vereint werden („Knowledge Mapping in Databases“).

2. Statistische Methodenbanken mit Prognoserechnungen, Wahrscheinlichkeitsrech-nungen, Korrelationsrechnungen, Clusteranalysen (zur Abschätzung von Klumpenri-siken), Schrittweise Regression und Adaptive Einflussgrößen-Kombination [Matt05].

3. Verdachtsmomentgenerierung durch Recherche in Sozialen Netzwerken („Social Data Mining“): Hierher gehören auch Versuche, durch besondere automatische Fil-terung in diesen Netzwerken Schlüsse darauf zu ziehen, wie sich Stimmungslagen in Teilen der Bevölkerung entwickeln. So könnten Krisen und Krisenszenarien, etwa die überstürzte Flucht in bestimmte Vermögensformen („Immobilien- oder Rohstoff-blasen“) oder heftige Absetzbewegungen („Entsparen“), in die Entscheidungsvorbe-reitung einfließen. Für die Simulation der Ausbreitung muss man Vertrauenswerte quantifizieren, die bereits vorhandene oder drohende Vertrauenskrisen signalisieren [Boha14].

4. Modellierung der Netze unter besonderer Berücksichtigung von (zum Teil zeitverset-zen) Rückkopplungen und Aufschaukel-Prozessen, etwa: Gerücht –> Reaktion der Bank –> Gerücht -> Reaktion der Bankkunden -> Reaktion der Bank -> Gerücht.

5. Simulation von Krisenverläufen über der Zeitachse. In Frage kommen insbesondere auch die Auswirkungen von Schocks, wie z. B. einer weltweiten Zinswende, von

Währungskrisen oder einem globalen Einbruch der Aktienkurse [OV13a], [OV14f]. Der Auf- und Abbau von Vermögensblasen (vgl. Punkt 3), dem oft eine Phase finan-zieller Ungleichgewichte folgt, im Zeitablauf kann kaum mit statischen Kennzahlen, sondern muss mit dynamischen Simulationen analysiert werden [Weis12, S. 12]. Gegenwärtig sieht man sich in Anbetracht der großen Zahl von Knoten, Datenvolu-mina, der Vielfalt der Merkmale, die an den einzelnen Knoten (z. B. Banken) unter-schiedlich abgegrenzt und kodiert werden, noch mit einem Dilemma konfrontiert: Man kann entweder für jede der sehr vielen Instanzen (Knoten, Kanten) des Netzes wenige Merkmale modellieren oder umgekehrt per (oft problembehafteter) Aggrega-tion wenige Instanzen vorsehen, diese aber mit einer großen Zahl von Deskriptoren ausstatten. Fortschritte bei der IT-Hardware und bei der Simulationsmethodik im weitesten Sinne mögen bei diesem Skalierungsproblem zu beträchtlichen Erleichte-rungen führen.

6. (Teil)automatisierte Auswertung von Simulationsergebnissen.

22

Wegen der erwähnten kleinen Zeitfenster müssen die von der WI entwickelten Ent-scheidungsunterstützungsverfahren s e h r s c h n e l l a r b e i t e n. Für die eigentli-chen Simulationen ist das durch Verarbeitung des gesamten EUS im Hauptspeicher („In-memory-computing“) erreichbar. Umso mehr gilt es, die Modellierung und Paramet-rierung der alternativen Szenarien und die – ggf. situationsbezogene, rollenorientierte und personalisierte – Auswertung der Simulationsergebnisse zu beschleunigen (siehe Abb. 6). Die Herausforderung für die WI liegt darin, entsprechende Zu- und Abgangs-systeme zu entwickeln und einzuführen [MWHa91], [MeBa14], [MeMe09, insb. S. 71-73], [Bode81].

Abbildung 6: Simulator mit Zu- und Abgangssystem

4.9 Versicherungen

In der globalen Versicherungswirtschaft wirkt das Bewusstsein für die Identifikation von systemischen Risiken im vernetzten Geschäftsgeschehen etwas ausgeprägter als in der Bankenbranche. Dies mag damit zusammenhängen, dass das Risiko per se im Mittel-punkt des Versicherungsgeschäftes steht.

Der International Association of Insurance Supervisors (IAIS) gehören Aufsichtsbehör-den aus fast 140 Ländern an. Sie ist Glied des FSB und des Basler Committee on Ban-king Supervision (BCBS). Die Expertisen der IAIS werden routinehaft von Führungskräf-ten der G20 abgerufen. Gemeinsam haben die Institutionen wiederum eine weltweite Initiative G-SIFIs ins Leben gerufen. Diese Abkürzung steht für „Global Systematically Important Financial Institutions“. Man mag dies als eine Art Dach über Banken, Versi-cherungen und andere Organisationseinheiten der Finanzwirtschaft begreifen. Die IAIS hat 2013 einen Zwischenbericht „Global Systematically Important Insurers (G-SIIs): Ini-tial Assessment Methodology“ vorgelegt [IAIS13]. Es wird eingangs betont: „… the tradi-tional insurance business model is different from banking ..:“, dies u. a. deshalb, weil man sich im Versicherungsgewerbe nicht mit Zahlungsverkehrssystemen oder dem so-genannten Investment Banking befasst [ebenda, S. 7]. Dennoch mag man die G-SIIs als Teil der G-SIFIs ansehen.

Ausgewählten Indikatoren für G-SIIs sind:

1. Größe

EUS

(Simulation)

Zugangs-

system

Abgangs-

system

23

2. Globale Aktivität

3. Ausmaß der Verbindung (Vernetzungsgrad / -intensität / „Interconnectedness“) mit

anderen „Komponenten“ des Finanzsystems

4. Nicht-traditionelle und Nicht-Versicherungs-Aktivitäten (NTNI = Non-traditional/Non-

insurance), wie z. B. Handel mit Derivaten

5. Ersetzbarkeit durch andere „Komponenten“

Die Aufzählung lässt erkennen, dass die Verflechtung zwischen den Institutionen der Banken- und der Versicherungsbranche durchaus gesehen wird. Diese Interdependenz wurde spätestens als beachtlich erkannt, als im Zuge der Bankenkrise 2009 auch das sehr große US-amerikanische Versicherungsunternehmen AIG gerettet werden musste.

In Anbetracht der seit Erscheinen des Berichts in den Vordergrund getretenen und wo-

möglich lang andauernden Niedrigzinsphase sind nach Befunden der Deutschen Bun-desbank „hohe Risiken aufgebaut“ worden [DBEu14, S. 18], [Leit14a]. Daher wäre auch an den Anteil von hochverzinslichen Versicherungsverträgen als Risiko zu denken, wie die heftigen Diskussionen um die Bewertungsreserven bei deutschen Versicherern zei-gen [GKZs14].

Die Vernetzungsintensität geht im Detail über die Messung der systemischen Risiken im Bankensektor hinaus. Sie ist wie folgt untergliedert (Darstellung vereinfacht):

1. Anlagen bei anderen Finanzinstituten („intra-financial assets“)

2. Schulden bei anderen Finanzinstituten, z. B. über begebene Wertpapiere

3. Ausmaß der Rückversicherung

4. Verbindlichkeiten aus Derivaten

5. Große offene Positionen zu den 19 größten Partnern

6. Besondere Umsätze, u. a. durch Kauf von Aktivposten und Verkauf von Passiv-

posten der Bilanz

7. Verbindlichkeiten aus besonders risikoreichen Versicherungsverträgen; das sind

auch solche, mit denen man bislang noch wenig Erfahrungen hat

Die Kriterien erhalten unterschiedliche Gewichte. Die beiden wichtigsten sind der Ver-netzungsgrad und die NTNI. Das belegt die Bedeutung des Ausmaßes der Verbindun-gen im Sinne des TITF-Kriteriums.

In dem Bericht wird betont, dass ein Ansatz nur mit Momentaufnahmen der Indikatoren zu bestimmten Stichtagen nicht ausreicht. Die Daten, die in die Berechnung der Indika-toren eingehen, seien gewissenhaft zu interpretieren und außergewöhnliche, schwer quantifizierbare Umstände (Absorption von Schocks) zu berücksichtigen.

Der FSB hat im Juli 2013 unter Mitwirkung der IAIS eine Liste mit neun systemrelevan-ten Versicherern vorgelegt. Darunter befindet sich auch die Allianz SE [OV13c].

Zusammenfassend wurde und wird in der internationalen Versicherungswirtschaft an einem durchdachten und sehr differenzierten Katalog von Indikatoren gearbeitet, ohne dass man u. W. bisher die Dynamik simuliert. Wo im Zusammenhang mit Versicherun-gen von Simulationen die Rede ist, etwa beim Stresstest der BaFin, geht es mehr um relativ einfache Alternativrechnungen („what if?“). Ein Beispiel sind die Auswirkungen einer Abkehr der Notenbanken von einer extremen Niedrigzinspolitik auf Wertpapiere im

24

Anlagevermögen und auf die Höhe der Überschussbeteiligung [Leit14b]. Bei der Weiter-entwicklung in Richtung „Entwicklung über der Zeitachse“ liegt ähnlich wie bei den an-deren Netzen eine große Herausforderung an die WI.

4.10 Katastrophen

Begreift man Katastrophen als plötzliche, unerwartete Vorfälle mit schlimmen – teil-weise nicht vorstellbaren – Folgen, die in der gleichen Form in der gleichen Umgebung nur selten vorkommen, wie z. B. eine Explosion mit radioaktivem Niederschlag und /oder Großbrand, ein Flugzeugabsturz, ein schweres Zugunglück oder ein terroristi-scher Anschlag, so findet man in der Regel kein durchdachtes Netzwerk mit Knoten vor, welche genau definierte Funktionen haben. (Die Übergänge sind allerdings fließend, wie z. B. Hochwasserkatastrophen an der Donau oder Sturmfluten an der Nordsee zei-gen, wo Vergangenheitserfahrungen vorliegen und bedingt auch Vorkehrungen getrof-fen sind.)

Daher müssen sich die Netze situationsabhängig formieren und systemische Knoten ad hoc festgelegt werden, wie z. B. eine Autorität, die Hilfsmaßnahmen koordiniert und so Chaos verhindert oder mildert. Ein Beispiel ist die Koordinationstätigkeit des Hafenmeis-ters der Insel Giglio bei der Havarie der Costa Concordia, der diese Rolle übernommen hatte, nachdem der Kapitän sich vom Unfallort entfernt hatte.

Als Beispiel für die diesen Katastrophennetzen innewohnende Dynamik diene ein mit einer Katastrophe verbundener Stromausfall: In Krankenhäusern sind Dieselaggregate anzuwerfen, um den Operationsbetrieb (z. B. Herz-Lungen-Maschinen, Intensivpflege-Aggregate) aufrecht zu halten. Wird der Treibstoff in den Tanks der Krankenanstalten knapp, so muss nachbevorratet werden. Die Tankstellen funktionieren aber bei Strom-ausfall nicht (vgl. Abschnitt 4.6).

Im Zeitalter der mobilen IV empfiehlt es sich, Verzeichnisse von Kompetenzträgern (In-stitutionen und Personen) anzulegen und entsprechende Vernetzungen (etwa Hautärzte mit Spezialkenntnissen für Verätzungen durch Chemikalien -> Spezialkliniken) so vor-zuhalten, dass auch Laien, wie Polizisten und Rettungssanitäter an schwer zugängli-chen Orten, rasch Telefonkontakt herstellen können, um professionelle Ratschläge zu Sofortmaßnahmen einzuholen. Hilfreich mag in bestimmten Konstellationen auch sein, dass die mobile IV Helfern bzw. deren Fahrzeugen und Fluggeräten (z. B. Drohnen!) die Lokation von Opfern erleichtert.

Bei Katastrophen-Netzen geht es also nur bedingt um die frühzeitige Identifikation von systemischen Knoten als eher um deren Ad-hoc-Bestimmung, ggf. in Verbindung mit dynamischer Modellierung und Simulation von alternativen großflächigen Katastrophen-einsätzen. Dabei ist auch an unterschiedliche Annahmen zu Richtung, Geschwindigkeit, Reichweite und Stärke von Ausbreitungsbewegungen, etwa Bränden oder Flüchtlings-strömen, zu denken.

4.11 Daten und Kommunikation

Während es in der Frühzeit der elektronischen Datenübertragung ausgeprägte kritische Knoten vor allem in Gestalt von Übertragungsrechnern gab, hat die Sorge um die tech-nische Ausfallsicherheit in jüngerer Zeit dank Fortschritten in Informatik und Nachrich-tentechnik und der Bereitschaft zur Vorhaltung von Überkapazitäten an Bedeutung ver-loren. Ursächlich dafür sind:

25

1. Man hat gelernt, an den einzelnen Knoten mächtige Prozeduren zur Fehlererken-

nung und -behebung ebenso wie der dynamischen Umkonfiguration zu installieren,

sodass länger dauernde Leistungsausfälle selten sind.

2. Viele Netze sind auf rasche Datenübertragung auch in Zeiten der Spitzenlast ausge-

legt, vor allem seit dem rasanten Aufstieg der Mobilkommunikation. Daher steht über

große Teile der Tage Überkapazität bereit, um die Aufgaben ausgefallener Kompo-

nenten zu übernehmen. Aus ökonomischer Sicht kann aber auch dagegen gehalten

werden, dass Überkapazitäten, die deshalb zustande kommen, weil man Kapazität

und Kapazitätsbedarf sowie die Kapazitätsausnutzung zu verschiedenen Zeiten

nicht sorgfältig genug plant und steuert, unnötig Kapital binden.

Andererseits deuten aktuell diskutierte Konzepte von Diensteanbietern, einzelnen Kun-

den wie Finanzdienstleistern Prioritäten bei der Datenübermittlung einzuräumen, darauf hin, dass bei der Kapazitätspolitik noch Reserven zu heben sind. (Vgl. dazu die Bemer-kungen zum Hochfrequenzhandel in Abschnitt 4.8.)

Diese Überlegungen gelten freilich in erster Linie für sog. Statistische Ausfälle, wie sie z. B. durch Programmierfehler entstehen, nicht für länger dauernde Katastrophen.

Größere, höchst problematische Beeinträchtigungen können aber durch Attacken von Staaten (z. B. durch ihre Geheimdienste), Gruppen mit Betrugsabsichten und einzelne Kriminelle verursacht werden. Dieses Problem wird umso virulenter, je mehr Netze es gibt, so auch im Zuge der elektronischen Steuerung von Haushalten oder der überbe-trieblichen Vernetzung von Betriebsmitteln (Industrie 4.0, Abschnitt 4.4). Insgesamt wächst das Problem exponentiell.

Staaten haben erhebliche Kontrolle über Netze, auch weil sie teilweise mit Großanbie-tern, wie z. B. Netzwerk-Dienstleistern („Carriers“) oder Lieferanten von Netzwerk-Kop-pelelementen („Switches“), zusammenarbeiten. Sie können etwa Satelliten abschalten oder Teile des Internets blockieren. Manche Geheimdienste sammeln systematisch Ein-fallstore für gesellschaftsfeindliche Aktivitäten wie Mängel in neuen Betriebssystem-Ver-sionen und begründen damit ihre Macht. Im Zusammenhang mit Initiativen zum mög-lichst raschen Aufholen des technischen und technologischen Vorsprungs westlicher In-dustrieländer finden vor allem Taktiken der Volksrepublik China („Targeting-Strategie“) mediale Aufmerksamkeit, die auf die Manipulation von Netzknoten zielen [FlFu14].

Man unterscheidet zwei Gruppen von Problemen bzw. Gefahren, je nachdem ob sie öf-fentlich bekannt sind oder noch nicht:

1. One day exploits: Die Schwachstellen sind bekannt, sodass man je nach der Gefah-

renlage mehr oder weniger intensiv warnen und an der Beseitigung arbeiten kann.

2. Zero day exploits: Nur Eingeweihte kennen bisher die Schwachstelle, darunter die

Programmierer von Würmern, Viren usw. selbst. Diese Zero day exploits werden

zum Teil bereits auf Schwarzmärkten gehandelt. Solche Märkte sind sehr variabel,

auch weil immer wieder neue Varianten der ursprünglichen Störfaktoren entwickelt

werden.

Abgesehen von der üblichen Bekämpfung von Wirtschaftskriminalität, z. B. über ge-heimdienstliche Aktivitäten wie Einschleusung von verdeckten Agenten, von der War-nung der potenziell Betroffenen, verbunden mit der Aufforderung, sich jeweils der neu-esten technischen Fortschritte bei den sog. Brandmauern („Firewalls“) zu bedienen, und

26

automatischen Aufzeichnungen für die gerichtliche Beweissicherung sowie als Grund-lage für Verbesserungen der Abwehr („post-mortem-Analysen“), sind die gesellschaftli-chen Abwehrkräfte begrenzt. Dazu kommt, dass die Reaktionen ihrerseits wieder Zero day exploits werden können.

Zusammenfassend haben wir es mit einem großen Gegenwartsproblem und entspre-chenden Herausforderungen an die Informatik, Nachrichtentechnik, Kriminalistik, Politik und letztlich auch an die Wirtschaftsinformatik zu tun, die aber sehr schwer abzugren-zen und zu konkretisieren sind. Die genauere Bestimmung einer GC fällt schwer. Der bayerische Forschungsverbund FORSEC befasst sich unter der Leitung der Wirt-schaftsinformatiker Günther Pernul und Guido Schryen mit dem gesamten Komplex [OV14g].

5. Methoden

Methoden, die für die Untersuchung und Beherrschung der systemischen Risiken in Frage kommen, hat man zunächst in den Planungswissenschaften i. w. S. zu suchen, und damit auch im Operations Research.

Bei der Planung großer und komplexer Projekte wurde schon in der Frühzeit des OR er-kannt, dass man mit Priorität die kritischen Pfade berechnen musste, also jene Vor-gänge, deren Störung (hinsichtlich Dauer, Kapazitätsmangel, Kosten, Kapitalbindung, Management-Qualität und -Kapazität) den Gesamterfolg des Vorhabens beeinträchtigt, um den Fokus von Planung, Steuerung bzw. Umdisposition und Überwachung dorthin zu lenken. In der Folge wurden die verschiedensten diskreten und stochastischen Me-thoden wie z. B. die Critical Path Method (CPM), die Metra-Potential-Methode (MPM), die Graphical Evaluation and Review Technique (GERT) oder die Program Evaluation and Review Technique (PERT) entwickelt, in Software-Paketen standardisiert und um Kontroll-Module erweitert. Für die hier behandelte Thematik dürfte vor allem die GERT-Methode ein probater Ausgangspunkt sein, da mit Wahrscheinlichkeiten gearbeitet wird, dass eine Aktivität nicht nur verspätet ist, sondern kein brauchbares Ergebnis zeitigte und einmal oder gar mehrmals wiederholt werden muss. Jedoch ist die Modellierung und Simulation von Prozessen, bei denen eine Teilstrecke des Netzes ausfällt und eine andere benutzt werden muss, wie es zum Beispiel mit GERT gelingt, unseres Wissens bisher speziell für die Netze, die wir hier behandeln, z. B. SCM oder Banken, noch nicht näher erforscht worden.

Sowohl der Bedarfssog nach Verfahren, die die Behandlung sehr großer und kompli-

zierter Vorhaben gestatten, als auch der Technologiedruck durch Berechnung im Hauptspeicher, Agentenbasierte Simulationen und Simulationen mit zeitversetzten Rückkopplungsschleifen wie insbesondere System Dynamics zeigen in Richtung auf Analysen, die sich sehr stark der verfeinerten Simulation bedienen (vgl. Abschnitt 4.1).

Fink u. a. [Fink14] schreiben in einer Arbeit über „Modellbasierte Entscheidungsunter-stützung in Produktions- und Dienstleistungsnetzwerken“: “… erscheint es notwendig, zu untersuchen, wie Planungs- und Steuerungssysteme zu entwerfen sind, welche die Autonomie lokaler Entscheidungseinheiten wahren. Gleichzeitig haben diese Einheiten stärker globale Entscheidungen anderer Einheiten zu berücksichtigen, die auf anderen, möglicherweise besseren Informationen beruhen … Simulation kann zur Abbildung des stochastischen Verhaltens großer Netzwerke eingesetzt werden, wenn sie schnell ge-nug ist und die entsprechenden Modelle leicht zu entwickeln sind“. Die Autorinnen und Autoren kommen folgerichtig zu dem Befund, dass analytische Optimierungstechniken

27

unter Einbezug von Simulationen mit wissensbasierten Zugangs- und Abgangssyste-men eine Herausforderung für die WI sind [Bode81].

Eine Art Renaissance scheinen die KI-basierten Software-Agenten zu erleben [SAMi11]. Hierzu werden gegenwärtig auch eigene Konferenzen veranstaltet, z. B. „Agent-Directed Simulation“ im April 2014 in Tampa FL, USA [SCS14]. Die Agenten können sowohl Knoten als auch Kanten repräsentieren (vgl. auch Abschnitt 4.4).

Der Getriebehersteller SEW-EURODRIVE GmbH & Co. KG stellte auf dem Material-flusskongress der TU München 2014 ein Planungs- und Kontrollwerkzeug vor, das mit Hilfe verfeinerter mathematischer Dispositionsmethoden (APS = Advanced Planning Systems) und In-memory-Technik nicht nur Optima berechnet, sondern die aktuellen Detaildaten des gesamten Liefernetzes bereithält.

Sehr wichtige methodische Anregungen findet man in der Allgemeinen Systemfor-schung und dort im Zweig Netzwerkforschung. Für uns nützliche Arbeiten sind z. B. vom Lehrstuhl für Systemgestaltung an der ETH Zürich geleistet worden [VGBa11], [Batt12]. Hier hat man das Maß DebtRank entwickelt. Mit ihm misst man den Bruchteil des gesamten wirtschaftlichen Wertes in einem Netz, der von einem Knoten beeinflusst werden kann. Unterstellt wird, dass einem Defekt eines Knotens eine Kaskade von Schäden an anderen Knoten folgt. Eine Verwandtschaft zeigt sich zu physikalischen Phänomenen, wie z. B. den Folgen von Brüchen in Gerüsten („Bruchmechanik“) oder dem „Faserbündelproblem“. Selbst Analogien zum PageRank-Algorithmus, der durch Google sehr bekannt wurde, sind sichtbar. Bei der Methodenklasse befasst man sich zunächst mit Nachbarschaftsbeziehungen zwischen Knoten, dann mit Fernwirkungen, aber auch mit Rückkopplungen. DeptRank kann auch auf die Situation angewandt wer-den, dass gleichzeitig Störungen an mehreren Knoten eintreten. Das ist wichtig für sol-che, die einer Gruppe angehören, wie es in Abschnitt 4.8 zur deutschen Sparkassenor-ganisation angedeutet ist. Grundlagen und interessante Anwendungen dieser For-schung sind auch Rettungsaktionen der FED. Ein wichtiges Resultat sind Rangfolgen der „Gefährlichkeit“ und damit der Systemrelevanz von Institutionen.

Der Wirtschaftsinformatiker kann von Arbeiten im interdisziplinären Dreieck „Physik –Materialwissenschaften – Technische Mechanik“ profitieren. Dort werden auch von den Konstrukteuren der Energieversorgungsnetze „Ideen abgeholt“ (vgl. auch Abschnitt 4.6). Dies demonstrieren Schneider et al. eindrucksvoll [Schn11]. Sie gehen von einem Maß der Robustheit aus, das die Widerstandskraft des größten Knotens ausdrückt, der nach einer Phase der Störung noch funktionsfähig bleibt. Weil nach der Beeinträchti-gung dieses Knotens der nächstgrößte die Rolle übernimmt, usf. bis im Grenzfall das

gesamte Netz kollabiert, handelt es sich um ein dynamisches Modell; ferner kann man Zwischenstadien eines Zerstörungsprozesses in die EUS einbeziehen, vergleichbar mit der Zeitlupenvorführung eines Films vom Einsturz eines Bauwerkes nach einer Spren-gung.

Bei Uddin, Hossain und Wigand findet man eine Modifikation derartiger Netzmodelle da-hin, dass nicht nur das Vorhandensein oder die Abwesenheit einer Kante dargestellt wird, sondern die Beziehung im Lauf eines Zeitabschnitts variieren kann [UHWi14].

Zum anderen sind in diversen Fachgebieten Methoden entwickelt worden, deren Über-tragung in die WI bei der Beherrschung systemischer Risiken direkte Erfolge oder Anre-gungen verspricht.

Ein besonders wichtiges Beispiel ist die Epidemiologie in Verbindung mit der Epizootio-logie (wegen Ansteckung der Menschen mit Tierseuchen über die Nahrung, Abfälle

28

usw.). Die Epidemiologie hat ihren Ursprung schon in den Arbeiten von Lancini (1654 - 1720) und Snow (1854) sowie zum Ende des 19. Jahrhunderts Pettenkofer, die als („systemischen“) Ausgangsort diverser Erkrankungen, darunter Malaria und Cholera, städtische Wasserfassungen und Sümpfe erkannten. Daraus entstand als Vorgänger die „Seuchenkunde“ [Wiki14a]. Sie hat im Lauf der Jahrzehnte eine beachtliche Reife erreicht. Wichtige Maße sind die Inzidenz (Zahl der Neuerkrankungen pro Population und Zeitstrecke), die Prävalenz (Anzahl der erkrankten Individuen in der Population), At-tributionelles Risiko (Beitrag von Faktoren (z. B. Alter, Geschlecht, Genussgifte) zu ei-ner bestimmten Erkrankung) und Reproduktionsrate (Ansteckung mit und ohne Schutz-maßnahme wie z. B. Impfung). Vor allem sind die mathematischen Modelle zur Be-schreibung und Prognose der Krisenfolgen bzw. der Ausbreitung unter Verwendung der Kriterien von hohem Anregungswert für die WI. Soweit wir erkennen können, arbeitet man in der Epidemiologie auch an der Absorption von Schocks über der Zeitachse und

über zurückgelegten Entfernungen, wobei die Funktionen in der Regel nichtlinear sind. Analogien zu Krisen-Ausbreitungsprozessen, wie sie die WI erforschen sollte, drängen sich auf. Viele Institutionen in Netzen verbessern in kleinen, in der Öffentlichkeit wenig sichtbaren Schritten ihre Risikovorsorge (etwa finanzielle Reserven, erweiterte Kapazi-tätsquerschnitte), sodass Schocks sich weniger weit und weitverzweigt „fortpflanzen“.

Neuere Entwicklungen, wie sie zuweilen auch mit dem Begriff DSS 2.0 verbunden wer-den, zielen darauf ab, unter Nutzung der IT sehr frühzeitig Daten und Informationen aus sehr heterogenen Quellen zu sammeln und in EUS zu fusionieren. Beispiele im Zusam-menhang mit der Analyse der Ausbreitung von Viren nach Richtung, Stärke und Ge-schwindigkeit sind Abrufe von statistischen Daten über Telefonate bei Auskunftstellen, über Aufträge an Laboratorien, den Verkauf von Medikamenten bei Pharma-Herstellern, -Großhändlern und in Apotheken. Es bedarf aber auch der Prüfung von Hypothesen auf der Grundlage von Datenbanken, die man gegenwärtig noch personell von Fachleuten formuliert, in Zukunft jedoch wahrscheinlich im Wege des „Data Mining“ automatisch ge-neriert werden. So konnten Gog u. a. eindrucksvolle Zusammenhänge zwischen der durch Ansteckungen bedingten räumlichen Ausbreitung des H1N1-Virus (2009), der Luftfeuchtigkeit und den Terminen der lokalen Schulferien in den US-Bundesstaaten of-fenlegen [Gog14].

In der Krebsforschung und dort vor allem im Zusammenhang mit der Proteom-Theorie

analysiert man mit Hilfe des Hauptspeicher-Verfahrens HANA Zusammenhänge zwi-schen den Eiweißen (Proteinen) im Netz der Blutgefäße, vor allem der Veränderung ih-rer Konzentration als Funktion von Krankheiten und von natürlichen Abwehrreaktionen

des Körpers dagegen. Eine Besonderheit, die für die WI interessant werden könnte, liegt darin, dass man nicht länger auf relative grobe Clusteranalysen beschränkt ist, die z. B. individuellen und u. U. plötzlich auftretenden Mutationen nicht Rechnung tragen. Einen ersten Überblick über die derzeit in Deutschland unternommenen Anstrengungen gewinnt man bei Voelpel [Voel14].

Aus ihrem Wesen heraus können grundsätzliche Befunde der Allgemeinen Systemfor-schung und der zugehörigen Netz-orientierten Spezialuntersuchungen zu allen Netzen, wie sie in diesem Bericht unter dem Aspekt der Systemik behandelt werden, Erkennt-nisse liefern. Diese Erkenntnisse mögen nicht nur zur Analyse von vorhandenen Netzen dienen, sondern auch zum Entwurf neuer, in denen z. B. die Fehlerfortpflanzung gut be-herrschbar sein soll.

29

6. Zusammenfassung von Beiträgen der WI

Abbildung 7 enthält den Versuch, auf einer mittleren Abstraktionsebene die grundsätzli-chen Aufgaben der WI zu aggregieren und zu systematisieren.

Man kann zunächst solche abgrenzen (linker Teil der Abbildung), die eher den stati-schen Charakter der Aufbauorganisation haben:

Abbildung 7: Grundsätzliche Herausforderungen an die WI (unabhängig von der Netz-Domäne)

Funktionen sind entweder zentral zu halten oder in Netzen zu dezentralisieren. Beispiel-haft sei hier die Entstehung des Passagierflugzeuges Boeing 787 („Dreamliner“) ge-nannt. Die ursprüngliche Strategie des Konzerns sah vor, dass sowohl die Entwicklung als auch die Produktion von Komponenten in einem globalen Liefernetz an selbststän-dige Unternehmen ausgelagert wurden. Dabei überlappte sich die Entwicklung mit der materialwissenschaftlichen Grundlagenforschung, etwa um neue Verbindungen zwi-schen Leichtmetallen und CFK zu finden. Im Lauf des Projektes tauchten Qualitäts- und Koordinationsprobleme in großer Zahl auf, Symptome waren z. B. Risse in Cockpit-scheiben oder Haarrisse im Bereich der Tragflächen. Diese Schwierigkeiten bedingten Verzögerungen um mehr als drei Jahre bei der Markteinführung und Budgetüberschrei-tungen im Milliarden-Dollar-Bereich. Das Unternehmen reagierte mit einer weitgehen-den, aber differenzierten und die systemischen Partner besonders beachtenden Re-zentralisierung. Ähnliche Konsequenzen zog daraufhin der Konkurrent Airbus bei der Projektorganisation für das neue Modell A350.

Ziel = Quelle

Quellen

Identifikation / Lokation / Umgebungsbedingungen / Kennzahlen zur Schwäche / Stärke = Abwehrkräfte (Statik)

Ausbreitung (Dynamik)Stärke (Volumen)RichtungGeschwindigkeitDiffusionsverlusteAbwehrkräfte (z. B. Gesetze)

WI-Herausforderungen:Simulation von Szenarien

WI-Herausforderungen:Berechnungen, Simulationen zur Verteilung von Funktionen im Netz (Zentralisierung, Dezentralisierung, Netztopologie)

WI-Herausforderungen unabhängig vom Knotencharakter (Quelle, Zwischenziel, Ziel):Sammlung, Filterung, Berechnung von Daten mit den Eigenschaften„heterogen / weltweit / national / lokal verteilt“ und„heterogen nach Inhalt, Codierung, Datenorganisation, Schutz“

30

Im mittleren Bereich der Abbildung finden wir die mit den Knoten der Netze darstellba-ren Quellen. Die Aufgaben der WI liegen bei der Beschreibung der Quellen mit ihren Ei-genschaften, die man sich als Gesamtheit von Maßen und Kriterien („Deskriptoren“) vorstellen mag. Hier sind zahlreiche Teilgebiete moderner Datenwissenschaft („Data Science“) beteiligt. Analoges gilt für die Knoten, soweit sie als Ziele fungieren.

Auf einem niedrigeren Abstraktionsgrad sehen wir Einsatzmöglichkeiten der WI in den Abschnitten zu den einzelnen Netzen.

Aufgaben, die zu den Kernkompetenzen der WI rechnen und jeweils in der Mehrzahl der Netze Verwendung finden mögen, sind:

1. Geordnetes Zusammentragen von Informationen aus heterogenen Quellen, d. h.

von den verschiedensten Knoten und Kanten der Netze, einschließlich solcher, wie

v. a. Sozialen Netzwerken, die die Einschätzung von Stimmungen und die Prognose

von Verhaltensweisen erleichtern („Information sharing“).

2. Fusion der gesammelten Daten zu geordneten, integrierten Datenbeständen

3. Informationserschließung in den fusionierten Datenbeständen von klassischen Re-

cherchen („Information retrieval“) bis hin zur Verdachtsmomentgenerierung („Data

Mining“), wobei nicht gezielt nach Sachverhalten gesucht wird, sondern das IT-Sys-

tem selbst befindet, ob es i r g e n d e t w a s Auffälliges entdeckt.

4. Statt des Prozesses, der mit der Datensammlung beginnt, ist auch an ein zwischen

den Netzinstanzen vereinbartes, standardisiertes Berichtswesen zu denken (vgl. Ab-

schnitt 4.1): Beispielsweise wird über alle Versuche berichtet, Daten und Kommuni-

kationsnetze zu „hacken“. Zusätzlich zu der aktiven Information der Partner im Netz

könnte eine Zentralstelle, etwa eine mit dieser Rolle beauftragte Wirtschaftsprü-

fungsgesellschaft, den Berichtsfundus mit Hilfe von Mustererkennungs- und Sprach-

verarbeitungsalgorithmen auf Spuren von Verbrecherinnen- und Verbrecherbanden

bringen.

5. Methodenbanken mit statistischen Verfahren, v. a. Clusteranalysen zur Zusammen-

führung von Daten verschiedener Knoten und Kanten, Schrittweise Regression und

Adaptive Einflussgrößen-Kombination, Prognoserechnungen, v. a. unter Verwen-

dung von Daten und Methoden aus unterschiedlichen Instanzen der Netze, wie „Col-

laborative Planning, Forecasting and Replenishment“.

6. Leistungsfähige Verfahren zu besonders umfangreichen und komplexen Simulatio-

nen mit zeitversetzten Rückkopplungen, z. B. System Dynamics, verbunden mit Zu-

gangs- und Abgangssystemen, die die (Re-)Parametrierung der Modelle und v. a.

ihrer Varianten („Variantenkonstruktion der Modelle“) sowie die Interpretation

(„Knowledge Discovery from Databases“) und die situationsgerechte, rollenorien-

tierte und personalisierte Visualisierung übernehmen. Trotz der Komplexität müssen

die Programmpakete sehr schnell gerechnet werden können.

7. Softwareagenten, die die einzelnen Knoten und Kanten mit ihren ggf. divergierenden

Zielen repräsentieren.

8. Neue Konzepte der optimalen Normung der Kommunikation und Informationsverar-

beitung in Netzen, wobei Mittelwege aus einer starren Normung einerseits und fle-

xiblen, menschenähnlichen Kommunikationsprozessen zwischen Instanzen anderer-

31

seits gesucht werden. Denkbar ist z. B. die Ausarbeitung von betriebswirtschaftli-

chen, auf Branchen bezogenen Ontologien [Horr08]; dies wäre allerdings eine äu-

ßerst anspruchsvolle und wohl nur durch einen lang dauernden Versuch- und Irrtum-

Prozess zu erreichen.

Abstrakter formuliert geht es darum, einen „Instrumentenkasten“ der Wirtschaftsinfor-matik zu schaffen und zu füllen, der es erlaubt, einzelne Werkzeuge zur Beherrschung systemischer Risiken in speziellen Netzen auszuwählen und EUS zu kombinieren.

Allgemeiner ausgedrückt kann man die verschiedensten Erkenntnisse der zwischenbe-trieblichen Informationsverarbeitung zu neuen Hilfsmitteln der Prozesse in Netzen und zur zugehörigen Entscheidungsvorbereitung bis hin zur Vollautomation aufbereiten. Diese Entwicklung lässt sich auf der historischen Zeitachse wie in Abb. 8 darstellen.

Abbildung 8: Entwicklung der WI hin zu Netzen

Durch vermehrte Betrachtung der Netze in der Gesamtwirtschaft, z. B. der Vernetzung im Finanzsektor, findet auch der seinerzeit umstrittene Namenswechsel von "Betriebsin-formatik" zu "Wirtschaftsinformatik" eher Berechtigung.

In dem Glossar am Ende dieses Berichts sind die für die Beherrschung von unseres Er-messens in Betracht kommenden Methoden zu systemischen Risiken in Netzen knapp skizziert. Mit Tabelle 3 versuchen wir – naturgemäß ohne Anspruch auf Vollständigkeit – in Frage kommende Methoden den Netzen zuzuordnen.

Tab. 3: Zuordnung der Methoden zu den Netzen

Netze

Phy-

si-

sche

Güter

Nah-

rung

Arz-

nei

Be-

triebs

mittel

Ver-

kehr

Ener-

gie

Trink-

was-

ser

Ban-

ken

Versi-

che-

run-

gen

Katas

tro-

phen

Daten

und

Kom-

muni-

kation

Daten- und Wis-

sensfusion

X X X X X X X

Wissensextrak-

tion aus Daten-

speichern und

X X X X X

Nicht-integrierte innerbe-

triebliche IV

Integrierte innerbe-

triebliche IV

Zwischen-betrieblich integrierte

IV

Integration in Netzen

32

Sozialen Netz-

werken, Data

Mining

Standardisierung

Berichtswesen

X X X X

Investitionsrech-

nung mit Risiko-

bewertung

X X X X X X X X

Netzplantechnik

(NPT)

X

SCM-Module X X X X

Methodenban-

ken

X X X X X X

Dispositions-

systeme

X X X X X

Multi-Agenten-

Systeme (MAS)

X X X

Simulatoren X X X X X X

Menschenähn-

liche IV

X X X X X

Optimale

Normung

X X X X X X

Allgemeine Sys-

temforschung /

Netzwerkfor-

schung

X X X X X X X X X X X

33

7. Literatur

[AIS99] AIS Policy Statements, Draft: The Role of IS in American Business Schools, Mai 1999, o.O.

[BaSc13] Barth, A. und Schnabel, I., Why banks are not too big to fail: evidence from the CDS market, Economic Policy 28 (2013) 74, S. 335-369.

[Batt12] Battiston, S. u. a., DebtRank: Too Central to Fail? Financial Networks, The Federal and Systemic Risk, Sci. Rep. 2, 541 (2012).

[Berk14] Berke, J., Geheime Mission, Wirtschaftswoche vom 28.07.2014, S. 40-45.

[Bers13] Berschens, R., EU-Parlament will die neue Aufsicht zügig durchwinken, Handels-blatt vom 08.01.2013, S. 1.

[Bode81] Bodendorf, F., Unterstützung der Anwender von Statistiksoftware, Dissertation, Nürnberg 1981.

[Boha14] Bohanec, M. u. a., A Hierarchical Multi-Attribute Model for Bank Reputational Risk Assessment, in: Phillips-Wren, G. u. a. (Hrsg.), DSS 2.0 – Supporting Decision Making with New Technologies, Amsterdam u. a. 2014, S. 92-103.

[Buch o.J.] Buch, C. M., Banken reguliert = Makroöonomische Risiken gebannt?, http://www.kas.de/wf/doc/kas_5431-1442-1-30.pdf?111219150348; Abruf am 28.08.2014.

[BuGn14] Bulczak, L. und Gneuss, M., Die schlechtere Hälfte, Welt am Sonntag vom 19.01.2014, S. 34; dieselben, Das geht an keiner Branche vorbei, ebenda.

[BNet07] Bundesnetzagentur für Elektrizität, Gas, Telekommunikation, Post und Eisenbah-nen, Bericht über die Systemstörung im deutschen und europäischen Verbundsys-tem am 4. November 2006, Bonn 2007.

[BNet14] Bundesnetzagentur für Elektrizität, Gas, Telekommunikation, Post und Eisenbah-nen, Jahresbericht 2013, Bonn 2014.

[CQRA09] Center for Quantitative Risk Analysis der LMU München und FidesTrust Vermö-genstreuhand GmbH (Hrsg.), Gering korrelierte Anlageklassen, Diversifikationsmo-dell der Vergangenheit?, München 2009.

[CFSt14] Center for Financial Studies, Financial industry pushes for regulation of the shadow banking sector, Press Release, 21.07.2014, Frankfurt.

[DSVo12] Dadfar, D., Schwartz, F. und Voß, S., Risk management in global supply chains - Hedging for the big bang?, in: Mak, H.-Y. und Lo, H. K. (Hrsg.), Transportation & Logistics Management, Proceedings of the 17th International HKSTS Conference, HKSTS, Hong Kong 2012, S. 159-166.

[Delh14] Delhaes, D., Je unwichtiger, desto schneller gebaut, Handelsblatt vom 03.04.2014, S. 8.

[DBEu14] Deutsche Bundesbank Eurosystem, Monatsbericht Juli 2014, Frankfurt am Main 2014.

[Dowi14] Dowideit, A., Enthält Spuren von China, Welt am Sonntag vom 16.03.2014, S. 29-30.

[Eder14] Eder, F., Der Machtlose, Welt am Sonntag vom 06.07.2014, S. 30.

[Elsb12] Elsberg, M., Blackout – Morgen ist es zu spät, München 2012.

34

[EtFr14] Ettel, A. und Fründt, S., Ausgepickst, Welt am Sonntag vom 02.02.2014, S. 29-30.

[Eule11] Euler, C., 20 Jahre zu spät, Welt am Sonntag vom 17.06.2011, S. 48.

[Falk95] Falk, J., Ein Multi-Agentensystem zur Transportplanung und –steuerung bei Spedi-tionen mit Trampverkehr – Entwicklung und Vergleich mit zentralisierten Methoden und menschlichen Disponenten, Dissertation, Nürnberg 1995.

[Fehr14] Fehr, M., Lautloser Jäger, Wirtschaftswoche vom 21.07.2014, S. 25-27.

[FSBo12] Financial Stability Board, Update of group of global systemically important banks (G-SIBs), Presseveröffentlichung vom 01.11.2012.

[Fink14] Fink, A. u. a., Modellbasierte Entscheidungsunterstützung in Produktions- und Dienstleistungsnetzwerken, Wirtschaftsinformatik 56 (2014) 1, S. 21 -29.

[FlFu14] Flade, F. und Fuest, B., 100.000 Cyber-Soldaten, Welt am Sonntag vom 06.07.2014, S. 9.

[FGSV14] Forschungsgesellschaft für Straßen- und Verkehrswesen (FGSV), Richtlinien für integrierte Netzgestaltung, Köln 2008; http://www.fgsv-verlag.de/catalog/_pdf-files/121.i.pdf, Abruf am 28.08.2014.

[Gog14] Gog, J. R. u. a., Spatial Transmission of 2009 Pandemic Influenza in the US, PLOS Computational Biology 10 (2014) 6, S. 1-11.

[GoRi14] Gordon, J. N. und Ringe, W.-G., Wie ist die Bankenunion zu retten?, FAZ vom 09.07.2014, S. 12.

[GKZs14] Gotthold, K., Kunz, A. und Zschäpitz, H., Durchgefallen, Welt am Sonntag vom 01.06.2014, S. 37.

[Gräb11] Gräbner, M., Standhaftere Netzwerke, Telepolis vom 23.02.2011, http://www.heise.de/tp/artikel/34/34248/1.html, Abruf am 17.08.2014.

[Hein06] Heinemann, J., Du bist, was du isst, IT Director vom 13.01.2006.

[HeFi14] Hennersdorf, A. und Fischer, M., „Wir haben das System sicherer gemacht“, Inter-view mit Bundesbank-Vorstand Andreas Dombret, Wirtschaftswoche vom 14.07.2014, S. 34-35.

[HFWe14] Hennersdorf, A., Fehr, M. und Wettach, S., Neue Angst vor Zombie-Banken, Wirt-schaftswoche Nr. 30/2014, S. 20-24.

[HePa13] Hesse, M. und Pauly, C., Stress beim Stresstest, DER SPIEGEL Nr. 48/2013, S. 76-77.

[Heym14] Heymann, T. v., Neue Systeme bannen Gefahr von Blackouts, Welt am Sonntag vom 30.03.2014, S. 37.

[Horr08] Horrocks, I., Ontologies and the Semantic Web, Communications oft he ACM 61 (2012) 12, S. 58-67.

[HBHu08] Huang, C.D., Behara, R.S. und Hu, Q., Managing Risk Propagation in Extended Enterprise Networks, ITPro Juli/August 2008, S. 14-19.

[IAIS13] IAIS (Hrsg.), Global Systemically Important Insurers: Initial Assessment Methodo-logy, Basel 2013.

[Knol09] Knolmayer, G. u. a., Supply Chain Management Based on SAP Systems, Berlin Heidelberg 2009, insb. Abschnitt 2.2.2.

35

[Knop14] Knop, C., Deutschlands Chefs entdecken das Neuland, FAZ vom 17.06.2014, S. 24.

[Krall14] Krall, M., Der EZB fehlt offenbar ein Konzept, Handelsblatt vom 03.07.2014, S. 5.

[Kuls14] Kuls, N., Hochfrequenzhändler im Zwielicht, FAZ vom 05.04.2014, S. 19.

[LZSc13] Lehnert, F., Zentes, J. und Schramm-Klein, H., Supply-Chain-Flexibilität in einem dynamischen Geschäftsumfeld – Performancetreiber oder Kostenblock?, Betriebs-wirtschaftliche Forschung und Praxis 65 (2013) 6, S. 603-625, insb. S. 606ff.

[Leit14a] Leitel, K., Bundesbank warnt Lebensversicherer, Handelsblatt vom 22.07.2014, S. 29.

[Leit14b] Leitel, K., Unerwartete Patzer beim Stresstest, Handelsblatt vom 04.07.2014, S. 26.

[LuBe14] Lutz, M. und Bewarder, M., Regierung plant TÜV für die IT-Sicherheit, Die Welt vom 19.08.2014, S. 1 und S. 4.

[Matt05] Matt, G., Adaptive Einflussgrößenkombination (AEK) – Prognosen mit schrittweiser Regression und adaptiven Gewichten, in: Mertens, P. und Rässler, S. (Hrsg.), Prognoserechnung, 6. Aufl., Heidelberg 2005, S. 125-168.

[Mert66] Mertens, P., Die zwischenbetriebliche Kooperation und Integration bei der automa-tisierten Datenverarbeitung, Meisenheim 1966.

[Mert09] Mertens, P., Führungsinformationssysteme für Kontrollorgane - Neue Paradigmen für die Managementinformation?, Arbeitsbericht Nr. 3/2009, 2. Aufl. 2009, Nürn-berg 2009.

[Mert13] Mertens, P., Integrierte Informationsverarbeitung Bd. 1, 18. Aufl., Wiesbaden 2013, S. 275.

[MeBa14] Mertens, P. und Barbian, D., Forschung über „Grand Challenges“ – Eine „Grand Challenge“, Arbeitsbericht Nr. 1/2014, 2. Aufl. 2014, Nürnberg 2014.

[MeMe09] Mertens, P. und Meier, M. C., Integrierte Informationsverarbeitung 2 – Planungs- und Kontrollsysteme in der Industrie, 10. Aufl., Wiesbaden 2009.

[MWHa91] Mertens, P., Wedel, T. und Hartinger, M., Management by Parameters?, Zeitschrift für Betriebswirtschaft 61 (1991) 5/6, S. 569 ff.

[MZGW11] Mertens, P., Zeller, A. J. und Große-Wilde, J., Kooperative Vorhersage in Unter-nehmensnetzwerken, in: Mertens, P. und Rässler, S. (Hrsg.), Prognoserechnung, 7. Aufl., Heidelberg 2011, S. 621-635.

[MWDa09] Morrow, D., Wilkerson, T. und Davey, M., Managing Risk in Your Organization with the SCOR Methodology, Arbeitspapier des Supply-Chain Council vom 20.02.2009.

[Naga08] Nagali, V. u. a., Procurement Risk Management (PRM) at Hewlett-Packard Com-pany, Interfaces 38 (2008) 1, S. 51-60.

[OAWK14] Osman, Y., Atzler, E., Wiebe, F. und Kort, K., Das Billionen-Risiko, Handelsblatt vom 02.06.2014, S. 1.

[OHAK14] Osman, Y., Heß, D., Afhüppe, S. und Köhler, P., Angst vor dem schwarzen Mon-tag, Handelsblatt vom 11.07.2014, S. 26.

[OV09] Ohne Verfasser, Perspectives on risk management in supply chains, Journal of Operations Management 27 (2009), S. 114-118, insb. S. 116.

36

[OV11] Ohne Verfasser, Bankenstresstests werden aufgeweicht, FAZ vom 05.03.2011, S. 11.

[OV13a] Ohne Verfasser, HVB-Chef Weimer warnt vor „Bombe der Zinswende“, FAZ vom 20.04.2013, S. 22.

[OV13b] Ohne Verfasser, Streit über Zypern-Hilfe: EZB-Chef Draghi kanzelt Schäuble ab, SPIEGEL ONLINE vom 27.01.2013; http://www.spiegel.de/wirtschaft/unternehmen/ finanzhilfen-fuer-zypern-ezb-chef-draghi-geht-schaeuble-an-a-879884.html, Abruf am 17.07.2014.

[OV13c] Ohne Verfasser, Schärfere Regeln für Versicherer, FAZ vom 20.07.2013, S. 21-22.

[OV14a] Ohne Verfasser, Deutschland droht den Anschluss zu verlieren, FAZ vom 26.06.2014, S. 25.

[OV14b] Ohne Verfasser, Europas Finanzmärkte schalten wieder auf Krise um, FAZ vom 11.07.2014, S. 32.

[OV14c] Ohne Verfasser, Deutschlands Förderbank Nr. 1 verplempert Millionen, Handels-blatt online vom 05.08.2014, S. 2.

[OV14d] Ohne Verfasser, Kleine Institute fürchten Lasten der Bankenunion, FAZ vom 14.05.2014, S. 17.

[OV14e] Ohne Verfasser, EZB-Aufsicht kostet 260 Millionen Euro im Jahr, FAZ vom 28.05.2014, S. 20.

[OV14f] Ohne Verfasser, Stresstest simuliert Währungsschock, Handelsblatt vom 29.04.2014, S. 29.

[OV14g] Ohne Verfasser, FORSEC: IT-Sicherheit in Zeiten von PRISM & Co., BayFor News vom Mai 2014, S. 14.

[OV14h] Ohne Verfasser, EZB reagiert auf Kritik, Handelsblatt vom 28.03.2014, S. 28.

[OV14i] Ohne Verfasser, Banken erwarten harten Stresstest, FAZ vom 28.03.2014, S. 22.

[OV14k] Ohne Verfasser, „In Europa gehen die Lichter aus“, FAZ vom 04.06.2014, S. 17.

[OV14m] Ohne Verfasser, Scholle und Smartphone, FAZ vom 21.6.2014, S. 29.

[OV14n] Ohne Verfasser, Skandalöser Missstand, DER SPIEGEL Nr. 10/2014, S. 94.

[OV14o] Ohne Verfasser, Schäuble will Sparkassen schonen, FAZ vom 21.6.2014, S. 24.

[OV14p] Ohne Verfasser, Bedingt abwicklungsbereit, Handelsblatt vom 07.08.2014, S. 27.

[OV14q] Ohne Verfasser, Merkel: Es droht eine Schattenbank-Krise, FAZ vom 21.08.2014, S. 17-18.

[OV14r] Ohne Verfasser, Banken-Testamente, Notfallpläne von Banken in der Kritik, Wirt-schaftswoche vom 06.08.2014; http://www.wiwo.de/finanzen/geldanlage/banken-testamente-notfallplaene-von-banken-in-der-kritik-/10298092.html, Abruf am 21.08.2014.

[Rein14] Reinema, R., Starker Nachholbedarf, Handelsblatt vom 26.02.2014, S. 21.

[Rolf14] Rolf, A., Die BWL läuft der Vernetzung hinterher, FAZ vom 07.07.2014, S. 16.

[Rudo14] Rudolph, B., Bankregulierung zur Lösung des „too big to fail“-Problems, Die Unter-nehmung 68 (2014) 2, S. 71-74.

37

[Sche14] Scherff, D., Das Smartphone hat das ganze Haus im Griff, Frankfurter Allgemeine Sonntagszeitung vom 29.06.1014, S. 29.

[Schn11] Schneider, C. M. u. a., Mitigation of malicious attacks on networks, Proceedings of the National Academy of Sciences 108 (2011) 10, S. 3838-3841.

[Schu14] Schultz, S., Draghis Drahtseilakt, SPIEGEL ONLINE vom 17.07.2014; http://www.spiegel.de/wirtschaft/soziales/ezb-will-mit-stresstest-vertrauen-schaffen-a-981494.html, Abruf am 30.07.2014.

[Schw12] Schwab, A. J., Elektroenergiesysteme: Erzeugung, Transport, Übertragung und Verteilung elektrischer Energie, 3. Aufl., Berlin Heidelberg 2012.

[ScBa11] Schweizerische Bankiervereinigung (Hrsg.), Makroprudentielle Politik, Basel 2011.

[Semb14] Sembritzki, K., Erst fällt der Strom aus, und dann? – Blackout legt Europa lahm, n-tv.de vom 28.05.2014; http://www.n-tv.de/leute/buecher/Blackout-legt-Europa-lahm-article6249461.html, Abruf am 21.08.2014.

[SAMi11] Singhal, P., Agarwal, G. und Mittal, M. L., Supply chain risk management: review, classification and future research directions, International Journal of Business Science and Applied Management 6 (2011) 3, S. 15-42, hier S. 17.

[SCS14] Society for Modeling & Simulation (SCS), Spring Simulation Multi-Conference (SpringSim 2014), April 2014, Tampa, FL, USA, http://www.scs.org/documents/SpringSim14/ADS2014_formatted.pdf, Abruf am 05.08.2014.

[Spey12] Speyer, B., Makro-prudentielle Aufsicht und das ESRB: Unterschätzt, Arbeitspa-pier DB Research, 29.03.2012.

[SCCo o.J.] Supply Chain Council (Hrsg.), Hedging against Supply Risk: Predictive Intelligence and Informed Actions Prevent Crisis, o.O. o.J.

[UCTE07] UCTE (Union for the co-ordination of transmission of electricity), Final Report - System Disturbance on 4 November 2006, 2007.

[UHWi14] Uddin, S., Hossain, L. und Wigand, R. T., New Direction in Degree Centrality Measure: Towards a Time-Variant Approach, International Journal of Information Technology & Decision Making 13 (2014) 4, S. 865-878.

[VGBa11] Vitali, S., Glattfelder, J. B. und Battiston, S., The network of global corporate con-trol, Zürich 2011.

[Voel14] Voelpel, S. C., Die neue Welt der Medizin, FAZ vom 04.06.2014, S. 19.

[Weig94] Weigelt, M., Dezentrale Produktionssteuerungen mit Agenten-Systemen – Ent-wicklung neuer Verfahren und Vergleich mit zentraler Lenkung, Wiesbaden 1994.

[Weis12] Weistroffer, C., Makroprudenzielle Aufsicht, Arbeitspapier DB Research, 16.07.2012.

[Wiki14a] Wikipedia, Stichwort „Epidemiologie“, Abruf am 24.02.2014.

[Wiki14b] Wikipedia, Stichwort „Stromausfall“, Abruf am 17.08.2014.

[Zieg07] Ziegenbein, A., Supply-Chain-Risiken, Zürich 2007.

38

GLOSSAR

Daten- und Wissensfusion

Vereinigung von Daten aus unterschiedlichen Datenspeichern, auch verschiedener Unterneh-

men im Netz, die unterschiedlich organisiert und kodiert sind, sodass die die Daten nutzenden

Methoden sicherer und schneller gerechnet werden können.

Wissensextraktion

Gewinnung von Wissen aus Datenspeichern oder Sozialen Netzwerken, entweder durch ge-

zielte Suche oder Verdachtsmomentgenerierung (Data Mining).

Investitionsrechnung mit Risikobewertung

Berechnung der Vorteilhaftigkeit von Investitionen (in neue Netze oder zusätzliche Knoten und

Kanten) mit Kombinationen aus klassischen Methoden wie z. B. Kapitalwert- oder Interne-Zins-

fuß-Verfahren einerseits und Korrektur der Ergebnisse mit Hilfe von Quantifizierung der Risiken

(z. B. Portfolio-Techniken) andererseits.

Netzplantechniken

Darstellung von Neu- und Ergänzungsprojekten als Netz von Aktivitäten / Prozessen mit dem

Ziel, kritische Pfade zu berechnen.

SCM-Module

Verfahren zur Ermittlung und Beschreibung von Kriterien zur Vorbereitung von (Um-) Dispositio-

nen in Liefernetzen, z. B. CTM (Capable-to-Match) oder ATP (Available-to-Promise), zum Kapa-

zitätsausgleich oder zur Routenplanung.

Methodenbanken

Systematische Sammlung von Methoden mit Hinweisen zu Verwendung, Voraussetzungen,

Vorteilen / Nachteilen / Grenzen / Gefahren und Auswahlhilfen. Die Methoden liegen in pro-

grammierten Modulen vor, die möglichst nahtlos und schnell untereinander kombiniert und in

größere Systeme wie Simulatoren integriert werden können. Beispiele: Statistische Verfahren

zur Stichprobentechnik, Zufallszahlengeneratoren, Prognoserechnungen.

Dispositionssysteme

Vielfalt von Heuristiken und exakten mathematischen Methoden, vor allem aus der Disziplin

Operations Research, um günstige Dispositionen und Umdispositionen zu ermitteln. Einsatz zur

Entscheidungsvorbereitung oder für automatische Dispositionen, z. B. Suche nach Umgebun-

gen von gestörten Knoten und Kanten in Industrie-4.0-Produktionsprozessen.

Dispositionssysteme überschneiden sich mit anderen Hilfsmitteln wie Methodenbanken, SCM-

Modulen, Multi-Agenten-Systemen oder Simulatoren.

39

Multi-Agenten-System (MAS)

Teilgebiet der Künstlichen Intelligenz. Kleinere Expertensysteme oder ähnliche Konstrukte neh-

men die „Interessen“ von Aktoren im betrieblichen Geschehen wahr, z. B. Betriebsmitteln, La-

gern, Materialien, Einzelteilen, Baugruppen und Endprodukten, Kunden, Lieferanten, Verkehrs-

mitteln. Sie sollen in Verhandlungen untereinander, z. B. über Prioritäten oder Zuordnungen von

Teilprozessen zu Betriebsmitteln oder von Ladungen zu Fahrzeugen, günstige Lösungen errei-

chen.

MAS können Teil von Dispositionssystemen oder Simulatoren sein.

Simulatoren

Hierunter wollen wir hier ein EUS verstehen, bei dem im Kern ein schnelles Simulationssystem

arbeitet, wobei die Geschwindigkeit in der Regel durch Hauptspeicher-interne Algorithmen er-

reicht wird. Ergänzt wird dieser Kern durch ein Zugangssystem, das es erlaubt, die Netze in ei-

ner Art Hochsprache zu modellieren, zu konfigurieren und zu programmieren sowie nach dem

Vorbild der Variantenkonstruktion ad hoc umzukonfigurieren. Nach dem Simulationslauf oder

einer Gruppe von Läufen gilt es, die Resultate zu interpretieren und zu präsentieren. Oft sind

die Gremien, deren Entscheidungen mit dem Simulator vorbereitet werden, aus Personen ver-

schiedener Fachrichtungen mit entsprechend unterschiedlicher Ausbildung rekrutiert. Sie mö-

gen auch diverse Institutionen vertreten und entsprechende Interessen bzw. Ziele verfolgen, bei

der Kontrolle von Banken z. B. EU-Behörden, Regierungen, nationale Aufsichtsbehörden, Ver-

bände oder die Banken selbst. Daher sind auf die Adressaten zugeschnittene, jedoch adaptive

bzw. sachgerechte Interpretationen und Visualisierungen anzustreben.

Menschenähnliche Informationsverarbeitung

Diese ist eine generelle große Herausforderung an die WI. Im Zusammenhang mit der Beherr-

schung systemischer Risiken spielt sie überall dort eine Rolle, wo man von stark oder voll auto-

matisierten Funktionen und Prozessen noch entfernt ist und daher Mensch-Computer-Dialoge

vorherrschen. Ein Beispiel ist die Eingabe alternativer Prämissen und Parameter zu Unsicher-

heiten und Risiken in Netzen.

Allgemeine Systemforschung / Netzwerkforschung

Man analysiert zunächst auf höherer Abstraktionsebene, d. h. ohne Bezug zu speziellen Netzen

wie z. B. solchen zur Energieversorgung, welche Auswirkungen Störungen eines Knotens oder

gleichzeitig mehrerer auf benachbarte Knoten haben und welche Fernwirkungen Zwischenfälle

entfalten.