Komplexität und Entropie -...

24
1 Komplexität und Entropie Den Wettlauf mit Komplexität können wir nicht gewinnen, müssen ihn aber trotzdem annehmen! Conny Dethloff, Philosophische Cafe, 23. Januar 2012

Transcript of Komplexität und Entropie -...

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

1

Komplexität und Entropie

Den Wettlauf mit Komplexität können wir nicht gewinnen, müssen ihn aber trotzdem annehmen!

Conny Dethloff, Philosophische Cafe, 23. Januar 2012

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

2

Wende in der Himmelsmechanik (1543): Die Sonne steht im Mittelpunkt, nicht die Erde.

Wende in der Erkenntnistheorie (1781): Der Mensch steht im Mittelpunkt, nicht die Umwelt, die beobachtet wird.

Kopernikus

Immanuel Kant

Ist eine Wende im Management und Führen von Unternehmen notwendig? Welche Rolle spielen dabei die Themen Komplexität und Entropie? Und wird sie ähnlich einschneidend sein, wie …?

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

3

Conny Dethloff Kurze Vita -  37 Jahre -  Verheiratet, 2 Kinder -  Beratungserfahrung in den Bereich Business

Intelligence und Master Data Management seit 2002.

-  Interesse an den Themen Systemtheorie, Chaostheorie, Kybernetik und System Dynamics inkl. Verbindung zur Wirtschaft und Ökonomie seit 2006 (Start meiner Reise des Verstehens).

OTTO GmbH & Co KG Mobil: +49 151 17153115 Mail: [email protected] Page: http://www.conny-dethloff.de/ Reise des Verstehens: http://blog-conny-dethloff.de

Buch „The Race – Change Management mit dem

ChangeModeler“

ISBN: 978-3-940543-06-6

© 2008 Conny Dethloff

Agenda

Entropie und Komplexität 25.01.12

4

1 Was ist Komplexität?

2 Was ist Entropie?

3 Was hat Komplexität mit Entropie zu tun?

4 Was sind die Erkenntnisse für Unternehmensführung?

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

5

Verschiedene Definitionen und Sichtweisen zu Komplexität „Ideas on complexity in systems – twenty views“

Link: http://blog-conny-dethloff.de/wp-content/uploads/2011/12/Ideas-on-complexity-in-systems-20-views.pdf

-  Joseph M. Sussman “A system is complex when it is composed of a group of related units (subsystems), for which the degree and nature of the relationships is imperfectly known.”

-  Flood and Carson “Complex situations are often partly or wholly unobservable, that is, measurement is noisy or unachievable (e.g., any attempt may destroy the integrity of the system).”

-  Coveney and Highfield “Complexity is the study of the behavior of macroscopic collections of such units that they are endowed with the potential to evolve in time.”

-  Charles Perrow “He uses the word linear to contrast with complex when he describes interactions among subsystems (or components). By linear he means interactions occur in an expected sequence. By complex he means they occur in an unexpected sequence.“

Auszüge

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

6

Verschiedene Definitionen und Sichtweisen zu Komplexität Cynefin Modell

Link: http://www.wandelweb.de/blog/?p=962

-  Das Cynefin Modell wurde von Dave Snowden erfunden und stellt einen Rahmen für den Umgang mit komplexen Situationen dar.

-  Anhand des Modells kann man Systeme unterscheiden in einfache, komplizierte, komplexe und chaotische Systeme.

-  Die fünfte innere Domäne ist die Unordnung. Systeme, die noch nicht in eine der 4 Klassifizierungen gesteckt werden können, fallen in diese Domäne.

Details

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

7

Verschiedene Definitionen und Sichtweisen zu Komplexität Heinz von Förster in „Wissen und Gewissen“

•  L(A): Länge der Anzahl der Elemente innerhalb einer Anordnung A, die mit einer Berechnungsvorschrift beschrieben werden sollen. Beispiel: Alle geraden Zahlen 0, 2, 4, …

•  L(B): Länge der Beschreibung B von A, die benötigt wird um die Anordnung der Elemente A vollständig explizit zu beschreiben. Beispiel für alle geraden Zahlen: Dn+1 = 2 * Dn für n = 0, 1, 2 mit D0 = 0.

•  N: Anzahl der Zyklen, die benötigt werden um die Anordnung der Elemente A aus ihrer Beschreibung B zu berechnen.

⇒  Ordnung, wenn gilt L(A) > L(B) ⇒  Unordnung, wenn gilt L(A) ≈ L(B)

⇒  N ist ein Maß für Komplexität. Je größer N ist, desto größer ist die Komplexität.

Details

Link: http://www.amazon.de/Wissen-Gewissen-suhrkamp-taschenbuch-wissenschaft/dp/3518284762/ref=sr_1_1?ie=UTF8&qid=1326884224&sr=8-1

© 2008 Conny Dethloff 25.01.12

8

Komplexität – ein Begriffsparadoxon

Begriffsparadoxon: Es gibt keine einheitlich umfassende Definition, da Komplexität für eine begriffliche Wiedergabe zu komplex ist. Explikation über Eigenschaften ist notwendig.

1

2

Ich tendiere am ehesten zu der Definition von Heinz von Förster: Eine Situation ist je komplexer, desto größer die Anzahl der Zustände sind, die diese in der Zukunft einnehmen könnte.

© 2008 Conny Dethloff

Agenda

Entropie und Komplexität 25.01.12

9

1 Was ist Komplexität?

2 Was ist Entropie?

3 Was hat Komplexität mit Entropie zu tun?

4 Was sind die Erkenntnisse für Unternehmensführung?

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

10

Der 2. Hauptsatz der Thermodynamik musste erweitert werden um energetisch offene Systeme

§  In einem Topf mit Wasser wird Salz gegeben. Nach einer gewissen Zeit löst sich das Salz auf.

§  Der Topf stellt bzgl. seiner Umwelt ein energetisch geschlossenes System dar.

Topf mit Wasser §  In isolierten von der Umwelt abgeschlosse-

nen, also energetisch abgeschlossenen, Systemen nimmt die Entropie zu.

§  Entropie wird oft als Maß für Unordnung bezeichnet. Mit steigender Entropie nimmt die Unordnung zu.

2. HS der Thermodynamik

§  Das Salz wird vom Wasser getrennt. Entropie sinkt. „Unordnung nimmt ab und nicht zu.“

§  Der Topf mit dem Wasser ist nun aber kein energetisch geschlossenes System mehr.

Topf mit Wasser wird erhitzt §  Entropie kann erzeugt aber niemals vernich-

tet werden. §  Entropie kann nur zusammen mit Energie

übertragen werden. Dabei gilt, dass sich Energie und Entropie bei konstanter Tempe-ratur umgekehrt proportional verhalten.

§  Energetisch offene Systeme sind in der Lage Entropie zu verringern. Wichtig für den Erhalt der Lebensfähigkeit.

2. HS der TD (Erweiterung)

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

11

Entropie ist ein Maß für die Unordnung. Aber was bedeutet Unordnung eigentlich?

-  „Die Entropie misst die Unordnung der Moleküle, definiert als der Logarithmus des ihnen verfüg-baren Phasenvolumens. Das ist nicht dasselbe wie das, was bei uns im Alltag den Eindruck von Un-ordnung entstehen lässt.

-  Ist die Entropie (Unordnung) im Schaum oder in der glatten Bierflüssigkeit größer?

Auszug

Link: http://blog-conny-dethloff.de/wp-content/uploads/2011/12/Nico-G-van-Kampen_Entropie.pdf

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

12

Entropie ist ein Maß für die Unordnung. Aber was bedeutet Unordnung eigentlich?

-  „Die Entropie misst die Unordnung der Moleküle, definiert als der Logarithmus des ihnen verfüg-baren Phasenvolumens. Das ist nicht dasselbe wie das, was bei uns im Alltag den Eindruck von Un-ordnung entstehen lässt.

-  Der Bierschaum besitzt mehr Ordnung als die glatte Flüssigkeit. Bierschaum hat also eine geringere Entropie als die Bierflüssigkeit, da die Moleküle in der Flüssigkeit eine größere Bewegungs-freiheit haben.

Auszug

Link: http://blog-conny-dethloff.de/wp-content/uploads/2011/12/Nico-G-van-Kampen_Entropie.pdf

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

13

Wie können wir also Entropie besser definieren oder beschreiben?

Entropie ist das Maß für d ie Zahl der Mikrozustände, durch die der beobachtete Makrozustand eines Systems realisiert werden kann. „“ „“Nico G. van Kampen, emeritierter Professor für theoretische Physik an der

Universität Utrecht (Niederlande)

Ein System ist je kleiner von Entropie (größer von Ordnung), desto kleiner die Beschreibung von ihm ist. „“ „“Heinz von Förster, österreichischer Physiker und Professor für Biophysik und

langjähriger Direktor des Biological Computer Laboratory in Illinois

Im oberen Bild ist das Gas nur in dem linken Abschnitt. Das Gas besitzt in dem Beispiel also eine geringere Entropie (höhere Ordnung) als im unteren Bild.

© 2008 Conny Dethloff

Agenda

Entropie und Komplexität 25.01.12

14

1 Was ist Komplexität?

2 Was ist Entropie?

3 Was hat Komplexität mit Entropie zu tun?

4 Was sind die Erkenntnisse für Unternehmensführung?

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

15

Was wissen wir von Komplexität und Entropie?

Entropie

Komplexität

Details unter: http://blog-conny-dethloff.de/?p=1004

-  Thematiken, die als hoch komplex anzusehen sind, besitzen eine hohe Entropie. -  Beim Problemlösungsprozess verringert der Mensch seine innere Entropie

durch Transformation von Daten in Informationen. Unsicherheit wird absorbiert, also kleiner. -  Allerdings wird die Entropie an die Umwelt abgegeben. Die Komplexität der

Umwelt also größer. Zitat von Einstein: „Die Lösungen von heute sind die Probleme von morgen.“

© 2008 Conny Dethloff

Agenda

Entropie und Komplexität 25.01.12

16

1 Was ist Komplexität?

2 Was ist Entropie?

3 Was hat Komplexität mit Entropie zu tun?

4 Was sind die Erkenntnisse für Unternehmensführung?

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

17

Das Gesetz der erforderlichen Varietät von Ashby

Je größer die Varietät eines Systems ist, desto mehr kann es die Varietät seiner Umwelt durch Steuerung vermindern. „“ „“William Ross Ashby (1903 – 1972), britischer Psychiater und Pionier in der Kybernetik

-  Wir müssen unterscheiden zwischen Eigen- und Fremdkomplexität von Unternehmen. Bei Simplifizierungsinitiativen in Unternehmen ist man sich dieser Erkenntnis meines Erachtens zu wenig bewusst.

-  Komplexität wird von Menschen erzeugt, sie ist nicht per se vorhanden.

-  Komplexität kann nicht gesteuert oder kontrolliert werden. Ein guter Mix zwischen Reduzierung und Produktion von Komplexität ist notwendig.

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

18

Die Problem-Lösungs-Spirale: die Lösungen von heute sind die Probleme von morgen → Indem wir unsere Lebensfähigkeit erhalten erhöhen wir automatisch die Komplexität unserer Umwelt

Consideo Modell Erkenntnismatrix von „Überlebensfähigkeit der Unternehmen“

Erkenntnismatrix von „Unternehmensumwelt wird komplexer“

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

19

Den Wettlauf mit der Komplexität können wir nicht gewinnen, müssen ihn aber trotzdem annehmen

Unternehmen müssen -  auf der einen Seite ihre Komplexität stetig

erhöhen, um der steigenden Komplexität der Umwelt Rechnung zu tragen (Gesetz der erfoderlichen Varietät von Ashby)

-  und auf der anderen Seite in gewissen Abständen ihre Komplexität erniedrigen, um lebensfähig zu sein (Erweiterung des 2. HS der TD).

Schmaler Grad zwischen -  Prozesse und Strukturen, die

Freiheitsgrade im Handeln nicht einschränken

-  und Prozesse und Strukturen, die einheitlich konsistentes Agieren erlauben.

⇒  Das geht nur über Selbstorganisation. Steuern über Direktive von außen führt nicht zum Ziel.

Fazit

Zeit

Komplexität

Entscheiden

Agieren

Komplexität Unternehmen Komplexität Umwelt

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

20

Wachstum ohne Begrenzung ist unmöglich. Entweder ein Unternehmen stirbt oder es erfindet sich regelmäßig neu

-  Unternehmen müssen dafür sorgen, dass auch ihre Umwelt Entropie entsorgen kann, dass also die Komplexität verringert wird. Das passiert durch Change Initiativen.

-  Durch Change Initiativen schaffen Unternehmen eine energetisch offene Umwelt.

-  Change Initiativen müssen also selbstver-ständlich für Unternehmen sein. Sie müssen sich stetig neu erfinden, um nicht in einer energetisch abgeschlossenen Umwelt zu ersticken.

-  Damit senken sie aber unweigerlich auch ihre Eigenkomplexität. Ein Unternehmen wird durch Changes durchgeschüttelt

Fazit

Zeit

Komplexität

Komplexität Unternehmen Komplexität Umwelt

Entscheiden

Agieren Change Initiativen

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

21

Herausforderung für Unternehmen besteht darin, die Differenz zwischen Eigen- und Fremdkomplexität nicht zu groß werden zu lassen.

-  Grundsätzlich ist, so glaube ich, die Kom-plexität des Unternehmens stets kleiner als die der Umwelt.

-  Deshalb kann man Komplexität, gemeint ist stets die der Umwelt, auch nicht managen, sondern maximal und bestenfalls handhaben.

-  Die oben beschriebene Herausforderung muss beim Führen von Unternehmen angenommen werden.

Fazit

Zeit

Komplexität

Komplexität Unternehmen Komplexität Umwelt

Entscheiden

Agieren Change Initiativen

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

22

Wende in der Himmelsmechanik (1543): Die Sonne steht im Mittelpunkt, nicht die Erde.

Wende in Erkenntnistheorie (1781): Der Mensch steht im Mittelpunkt, nicht die Umwelt, die beobachtet wird.

Kopernikus

Wende im Management und Führen von Unternehmen (hoffentlich bald): Komplexität ist „Dein Freund“ und nicht „Dein Feind“.

Immanuel Kant

Wenn man Komplexität und Dynamik als das größte Problem der Wirtschaft ansieht, ist es so als würde man die Lebendigkeit als das größte Problem der Medizin betrachten.

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

23

Einige Fragen, die mich umtreiben

Energetisch offene System, wie Menschen oder Unternehmen senken ihre Entropie (≈ Unordnung), um leben zu können, geben aber die Entropie an ihre Umwelt ab. 1. Wird dadurch die Umwelt immer „unordentlicher“? Wo ist die Grenze? Wenn die Umwelt auch energetisch offen, kann sie ihre Entropie ebenfalls „entsorgen“. Es muss doch aber ein letztes energetisch abgeschlossenes System geben, wo das Entsorgen nicht klappt. 2. Welches System kann das sein? 3. Kollabiert dieses System irgendwann, aufgrund der stetig anwachsenden Entropie? Und damit auch alle Teilsysteme?

© 2008 Conny Dethloff Entropie und Komplexität 25.01.12

24

Vielen Dank