Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger...

85
1 . Optimierung 1 Peter Gritzmann Zentrum Mathematik, Technische Universit¨ at M¨ unchen D-80290 M¨ unchen, Germany [email protected] Kurzskript, Technische Universit¨ at M¨ unchen Sommersemester 2008

Transcript of Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger...

Page 1: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

1

.

Optimierung 1

Peter Gritzmann

Zentrum Mathematik, Technische Universitat MunchenD-80290 Munchen, Germany

[email protected]

Kurzskript, Technische Universitat Munchen

Sommersemester 2008

Page 2: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

2

Inhaltsverzeichnis

Inhaltsverzeichnis 2

1 Einleitung 3

1.1 Optimierungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Einige Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.3 Fourier-Motzkin-Elimination . . . . . . . . . . . . . . . . . . . . . . . 9

2 Konvexitatstheorie 15

2.1 Konvexe Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.2 Trennungssatze, Kegel und linear-konvexe Optimierung . . . . . . . . 212.3 Darstellungssatze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3 Der Simplex-Algorithmus 41

3.1 Grundstruktur des Algorithmus . . . . . . . . . . . . . . . . . . . . . . 413.2 Finden einer Verbesserungskante . . . . . . . . . . . . . . . . . . . . . 473.3 Uber Zykel und ihre Vermeidung . . . . . . . . . . . . . . . . . . . . . 553.4 Uber die Laufzeit des Simplex-Algorithmus . . . . . . . . . . . . . . . 66

4 LP-Dualitat 72

4.1 Dualitat linearer Programme . . . . . . . . . . . . . . . . . . . . . . . 724.2 Dualitat in okonomischen Modellen . . . . . . . . . . . . . . . . . . . 79

Literaturverzeichnis 80

Index 83

Page 3: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3

1 Einleitung

1.1 Optimierungsaufgaben

1.1.1 Definition. (a) Eine allgemeine Optimierungsaufgabe [engl.: instance of anoptimization problem] (uber R) ist durch folgende Daten spezifiziert.

n ∈ N, F ⊂ G ⊂ Rn, ϕ : G→ R, opt ∈ {min,max}.

Jeder Punkt x∗ ∈ F mit

x ∈ F ⇒ ϕ(x∗) ≤ ϕ(x)

fur opt = min bzw.x ∈ F ⇒ ϕ(x∗) ≥ ϕ(x)

fur opt = max heißt Optimalpunkt. Die Aufgabe besteht darin, ϕ uber F zu opti-mieren (minimieren oder maximieren), d.h. zu entscheiden, ob F leer ist, ob ϕnach unten (fur opt = min) bzw. nach oben (fur opt = max) beschrankt ist, ob einOptimalpunkt existiert und, falls das der Fall ist, einen solchen zu bestimmen.

(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zulassiger Bereich[engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x ∈ F heißt zulassig[engl.: feasible point] Ist der zulassige Bereich leer, so heißt die Aufgabe unzulassig[engl.: infeasible]. Ist opt = min, so spricht man von einer Minimierungsaufga-be; fur opt = max von einer Maximierungsaufgabe.

(c) Ist F = Rn so spricht man von einer Aufgabe der unrestringierten Optimie-rung [engl.: unconstrained optimization], fur F 6= Rn von einer Aufgabe der re-stringierten Optimierung.

(d) Die Menge aller Optimierungsaufgaben heißt Optimierungsproblem, die Teil-mengen mit opt = min bzw. opt = max heißen Minimierungsproblem bzw.Maximierungsproblem.

(e) Besteht das Ziel nur darin, festzustellen, ob der zulassige Bereich einer gegebenenAufgabe nicht leer ist1, so spricht man von einer Zulassigkeitsaufgabe. Entspre-chend ist auch das Zulassigkeitsproblem definiert.

1.1.2 Definition. (a) Eine lineare Optimierungsaufgabe (in naturlicher Form)[engl.: instance of a linear programming problem oder linear program] (uber R) istdurch folgende Daten spezifiziert. Seien

m,n ∈ N,a1, . . . ,am ∈ Rn,β1, . . . ,βm ∈ R,γ1, . . . ,γn ∈ R,

1 Das entspricht ϕ ≡ 0.

Page 4: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

4 1 Einleitung

Ferner sei das lineare Funktional ϕ : Rn → R fur x := (ξ1, . . . ,ξn)T ∈ Rn durchϕ(x) =

∑ni=1 γiξi definiert, und es sei F die Menge aller x ∈ Rn mit

aTi x ≤ βi (i = 1 . . . ,m).

Ziel ist es, ϕ uber F zu maximieren.

(b) Ist zusatzlich eine TeilmengeG ⊂ {1, . . . ,n}

spezifiziert und die Bedingung

ξj ∈ Z (j ∈ G)

zu erfullen, so spricht man von einer gemischt-ganzzahligen (linearen) Op-timierungsaufgabe (in naturlicher Form) [engl.: instance of a mixed-integer(linear) programming problem]. Fur G = {1, . . . ,n} heißt die Aufgabe ganzzahlige(lineare) Optimierungsaufgabe.

(c) Die Menge aller linearen Optimierungsaufgaben (in naturlicher Form) heißt linea-res Optimierungsproblem (in naturlicher Form); die Menge aller gemischt-ganzzahligen (linearen) Optimierungsaufgaben (in naturlicher Form) heißt gemischt-ganzzahliges (lineares) Optimierungsproblem (in naturlicher Form); dieMenge aller ganzzahligen (linearen) Optimierungsaufgaben heißt ganzzahliges (li-neares) Optimierungsproblem. Kurzer werden auch die Bezeichnungen LP-Problem, von MILP-Problem (mixed-integer linear programming problem) bzw.ILP-Problem (integer linear programming problem) verwendet.

1.1.3 Definition. Sei P ⊂ Rn. P heißt Polyeder [engl.: polyhedron], wenn es

n,m ∈ N0, A ∈ Rm×n, b ∈ Rm

gibt mitP = {x ∈ Rn : Ax ≤ b}.

P heißt Polytop [engl.: polytope] genau dann, wenn P beschrankt und ein Polyeder ist.Ist P ein Polyeder bzw. Polytop, und n,m ∈ N0, A ∈ Rm×n, b ∈ Rm mit P = {x ∈

Rn : Ax ≤ b}, so heißt das Tupel (m,n;A,b) H-Darstellung2 [engl.: H-presentatation]von P . Man spricht dann von P auch als H-Polyeder [engl.: H-polyhedron] bzw. H-Polytop [engl.: H-polytope].

1.2 Einige Beispiele

Produktionsplanung:

2 Diese Bezeichnung resultiert von der Interpretation der einzelnen, P darstellenden Ungleichungen alsHalbraume; vgl. Definition 2.2.3.

Page 5: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

1.2 Einige Beispiele 5

1.1 Abbildung Zwei Polyeder; das links abgebildete ist ein Polytop

1.2.1 Bezeichnung. Eine (lineare) Produktionsaufgabe [engl.: instance of the pro-duction problem] ist spezifiziert durch folgende Daten

m,n ∈ N,b := (β1, . . . ,βm)T ∈ [0,∞[m,c := (γ1, . . . ,γn)T ∈ [0,∞[n,A := (αi,j) i=1,...,m

j=1,...,n∈ Rm×n.

Der Vektor b quantifiziert die verfugbare Ressourcen, c ist der Preisvektor, und Aheißt Technologiematrix.

Ferner sei das Zielfunktional ϕ : Rn → [0,∞[ definiert durch ϕ(x) := cTx. EinVektor x ∈ Rn heißt (zulassiger) Produktionsplan [engl.: production plan], wenn

x ≥ 0 ∧ Ax ≤ b

gilt. Seien F die Menge aller zulassigen Produktionsplane und x∗ ∈ F . Dann heißt x∗

optimaler Produktionsplan [engl.: optimal production plan], wenn gilt

x ∈ F =⇒ ϕ(x∗) ≥ ϕ(x).

Ziel der Produktionsaufgabe ist es zu entscheiden, ob ein optimaler Produktionsplan exi-stiert, und falls dem so ist, einen zu finden.

Die Menge aller Produktionsaufgaben heißt (lineares) Produktionsproblem [engl.:production problem].

1.2.2 Beispiel. Die Produktionsaufgabe sei gegeben durch

max ξ1 + ξ2 + ξ3

ξ1 + 2ξ2 + ξ3 ≤ 3−2ξ1 + ξ2 ≤ 0ξ1 ≤ 1

ξ2 ≤ 1ξ3 ≤ 1

ξ1, ξ2, ξ3 ≥ 0

Page 6: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

6 1 Einleitung

1.2 Abbildung Geometrische Darstellung des Polytops der zulassigen Produktionsplane inBeispiel 1.2.2

Standortprobleme: Ein Großhandelskonzern plant den Aufbau eines Vertriebssy-stems. Vertrage mit Großkunden G1, . . . ,Gn sind bereits geschlossen, mogliche StandorteS1, . . . ,Sm fur Versandgroßlager sind in der Beurteilung. Es soll eine optimale Auswahlder Standorte getroffen werden. Dabei treten naturlich Fixkosten κj fur die Errichtung ei-nes Versandlagers in Standort Sj auf. Andererseits sind fur i = 1, . . . ,n und j = 1, . . . ,mdie Transportkosten γij bekannt, die auftreten, wenn man den Großkunden Gi vomStandort Sj aus beliefert, ferner ist die Gesamtliefermenge αi an Gi vertraglich festge-legt sowie die Kapazitat βj des moglichen Lagers im Standort Sj gegeben.

Wir fuhren Variable ξi,j ein, die angeben sollen, wieviel von Standort Sj aus anden Kunden Gi geliefert werden soll. Da der Bedarf aller Kunden gedeckt werden muss,ergeben sich die Bedingungen

m∑

j=1

ξi,j = αi (i = 1, . . . ,n)

ξi,j ≥ 0 (i = 1, . . . ,n; j = 1, . . . ,m)

Ferner modellieren wir die Entscheidung, ein Versandgroßlager am Standort Sj zuerrichten, mit Hilfe einer 0-1-Variable ηj , d.h.

ηj ∈ {0,1} (j = 1, . . . ,m).

Die Kapazitatsbeschrankungen des moglichen Lagers in Sj fuhren dann auf die Bedingung

n∑

i=1

ξi,j ≤ βjηj (j = 1, . . . ,m).

Wahrend die Variablen ξi,j die potentiellen Liefermengen angeben, modellieren die ‘Ent-scheidungsvariablen’ ηj , dass nur dann eine Lieferung von Sj aus erfolgen kann, wenn andiesem Standort tatsachlich ein Lager errichtet wird. Als Zielfunktion wird die Minimie-rung der Kosten uber den Planungshorizont angesetzt, d.h.

min

n∑

i=1

m∑

j=1

γi,jξi,j +

m∑

j=1

κjηj

Page 7: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

1.2 Einige Beispiele 7

Das Zuordnungsproblem: Formal ist fur n1,n2 ∈ N eine Teilmenge

Z ⊂ {1, . . . ,n1} × {1, . . . ,n2}

gesucht, fur die einerseits

(i,j1) ∈ Z ∧ (i,j2) ∈ Z =⇒ j1 = j2(i1,j) ∈ Z ∧ (i2,j) ∈ Z =⇒ i1 = i2

gilt, und die andererseits∑

(i,j)∈Z

γi,j

maximiert, wobei γi,j fur i = 1, . . . ,n1 und j = 1, . . . ,n2 den Nutzen der Zuordnung von(i,j) angibt. Die Aufgabe, eine optimale Zuordnung zu finden, laßt sich so mit Hilfe derfolgenden ILP-Aufgabe beschreiben.

maxn1∑

i=1

n2∑

j=1

γi,jξi,j

n2∑

j=1

ξi,j ≤ 1 (i = 1, . . . ,n1)

n1∑

i=1

ξi,j ≤ 1 (j = 1, . . . ,n2)

ξi,j ∈ {0,1} (i = 1, . . . ,n1; j = 1, . . . ,n2).

Das Problem des Handlungsreisenden: Das als Traveling Salesman Problemoder kurzer als TSP bekannte Rundreiseproblem ist ein Standardproblem der kombi-natorischen Optimierung. Hierbei ist eine kurzeste Rundreise (Tour) zu finden, die allevorgegebenen Stadte genau einmal besucht.

1.2.3 Bemerkung. Fur n ∈ N \ {1} sei τn die Anzahl aller verschiedenen Rundreisendurch n Stadte. Dann gilt

τn =1

2(n− 1)! >

π/2(n− 1)n− 12 e−n+1.

Rekonstruktion kristalliner Strukturen: Im Bereich der Nanotechnologie vonSilizium-Chips sollen neue bildgebende Verfahren zur Qualitatskontrolle eingesetzt wer-den. Mit Hilfe moderner Methoden der hochauflosenden Transmissionselektronenmikro-skopie (HRTEM) kann man fur bestimmte Materialien (wie etwa Silizium; vgl. Abbil-dung ??) in geeigneten Richtungen bestimmen, wieviele Atome in den entsprechendenAtomsaulen enthalten sind.

Nehmen wir (der Einfachheit der Darstellung halber) an, dass die zugrunde liegen-de kristalline Gitterstruktur der von Z3 entspricht und die zu untersuchende Probe imBereich [1,q]3 liegt mit q ∈ N. Ferner seien die Richtungen der Aufnahmen parallel zuden drei Koordinatenachsen im R3. Dann erhalt man (bis auf gewisse Messfehler) dieInformationen, wieviele Atome jeweils auf jeder Geraden parallel zu einer der Koordina-tenachsen liegen.

Page 8: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

8 1 Einleitung

q∑

i=1

ξi,j,k = αj,k (j,k = 1, . . . ,q)

q∑

j=1

ξi,j,k = βi,k (i,k = 1, . . . ,q)

q∑

k=1

ξi,j,k = γi,j (i,j = 1, . . . ,q).

Zusammen mit 0-1-Bedingungen an die Variablen beschreibt dieses System alle kri-stallinen Strukturen, die mit den gegebenen Messdaten vertraglich sind.

Wire Spacing: In einem Halbleiterchip sollen die ‘Streukapazitaten’ zwischen be-nachbarten Drahten minimiert werden. Die physikalisch-mathematische Modellierungfuhrt somit (unter den entsprechenden Modellannahmen) zu folgendem Optimierungs-problem

1.2.4 Bezeichnung. Eine Wire Spacing Aufgabe ist spezifiziert durch folgende Da-ten

n ∈ N,s1, . . . ,sn ∈ [0,∞[,r ∈]0,∞[,d ∈]0,∞[.

Die Aufgabe besteht dann darin, zu entscheiden, ob die Aufgabe

minn∑

i=1

si

(1ξi

+ 1ξi+1

)

n+1∑

i=1

ξi ≤ r

ξ1, . . . ,ξn+1 ≥ d

einen Optimalpunkt x∗ besitzt und, falls das der Fall ist, einen solchen zu bestimmen.Die Menge aller Wire Spacing Aufgabe heißt Wire Spacing Problem.

Eine ‘klassische Optimierungsaufgabe’: Fur n ∈ N sei das folgende Optimie-rungsproblem im R3 gegeben

min (ξn1 − ξn

2 + ξn3 )

2

ξ1,ξ2,ξ3 ≥ 1ξ1,ξ2,ξ3 ∈ Z.

Offenbar ist ζ∗(n) = 0 genau dann, wenn die Gleichung

ξn1 + ξn

3 = ξn2

eine positive ganzzahlige Losung besitzt. Dass dieses fur kein n ≥ 3 der Fall ist, hatim 17. Jahrhundert bereits Pierre de Fermat behauptet; der Satz von Fermat konnteaber bekanntlich erst 1995 von Andrew Wiles bzw. Andrew Wiles und Richard Taylorbewiesen werden.

Page 9: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

1.3 Fourier-Motzkin-Elimination 9

1.3 Fourier-Motzkin-Elimination

1.3.1 Wiederholung. Das Gleichungssystem Ax = b ist genau dann losbar, wenn

rang (A) = rang (A,b)

gilt.

1.3.2 Beispiel. (a) Seien

A =

(1

−1

)

, b =

(11

)

.

Dann gilt

rang (A) = 1 6= 2 = rang

(1 1

−1 1

)

.

Trotzdem ist das Ungleichungssystem Ax ≤ b losbar; es gilt

{x ∈ R1 : Ax ≤ b} = [−1,1].

(b) Fur

A =

(1

−1

)

, b =

(−1−1

)

gilt ebenfalls

rang (A) = 1 6= 2 = rang

(1 −1

−1 −1

)

,

aber diesmal ist Ax ≤ b unlosbar.

1.3.3 Beispiel. (a) SeienA = (1,1) b = 1.

Dann gilt

{x ∈ R2 : Ax = b ∧ x ≥ 0} =

(10

)

+ [0,1]

(−1

1

)

.

(b) FurA = (1,1), b = −1

ist das Ungleichungssystem Ax = b ∧ x ≥ 0 hingegen unlosbar; vgl. Abbildung ??.

1.3.4 Beispiel. Gegeben sei das Ungleichungssystem

ξ1 + ξ2 ≤ α ∧ ξ1 ≥ 0 ∧ ξ2 ≥ 0,

wobei der Parameter α spater festgesetzt wird. Es ist offenbar aquivalent zu

1 1−1 0

0 −1

(ξ1ξ2

)

α00

.

Addition der ersten Ungleichung zur zweiten und dritten liefert das neue System

Page 10: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

10 1 Einleitung

1 10 11 0

(ξ1ξ2

)

ααα

.

Naturlich ist jede Losung des ursprunglichen Problems auch Losung des durch ‘elementa-re Zeilenoperationen’ entstandenen neuen Systems. Die Skizzen in Abbildung 1.3 veran-schaulichen jeweils den zulassigen Bereich des ursprunglichen sowie des neuen Systemsfur die Parameterwerte α = 1,0,− 1.

α = 0α = 1 α = −1

1.3 Abbildung Losungsmengen des ursprunglichen und (darunter) des neuen Systems furα = 1,0,− 1 (jeweils von links)

Gegeben sei zunachst das lineare Gleichungssystem

Ax = b.

Es seiA := (αi,j) i=1,...,m

j=1,...,n∧ b := (β1, . . . ,βm)T ,

und wir nehmen o.B.d.A. an, dass die Gleichungen so nummeriert sind, dass

αi,n

< 0 fur i = 1, . . . ,k= 0 fur i = k + 1, . . . ,l> 0 fur i = l+ 1, . . . ,m

fur k ∈ N0 und l− k ∈ N0 gilt. Durch Division der i-ten Zeile durch |αi,n| fur i = 1, . . . ,kbzw. durch αi,n fur i = l + 1, . . . ,m erhalten wir das aquivalente System

Page 11: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

1.3 Fourier-Motzkin-Elimination 11

n−1∑

j=1

αi,jξj − ξn = βi (i = 1, . . . ,k)

n−1∑

j=1

αi,jξj = βi (i = k + 1, . . . ,l)

n−1∑

j=1

αi,jξj + ξn = βi (i = l+ 1, . . . ,m),

wobei

αi,j :=

αi,j/|αi,n| fur i = 1, . . . ,kαi,j fur i = k + 1, . . . ,lαi,j/αin fur i = l+ 1, . . . ,m

und j = 1, . . . ,n− 1 sowie

βi :=

βi/|αi,n| fur i = 1, . . . ,kβi fur i = k + 1, . . . ,lβi/αi,n fur i = l + 1, . . . ,m

gilt. Auflosen nach −ξn bzw. ξn liefert somit

−ξn = βi −n−1∑

j=1

αi,jξj (i = 1, . . . ,k)

n−1∑

j=1

αi,jξj = βi (i = k + 1, . . . ,l)

ξn = βi −n−1∑

j=1

αi,jξj (i = l + 1, . . . ,m).

In diesem ersten Teil sind nur Operationen durchgefuhrt worden, die auch auf Un-gleichungssysteme Ax ≤ b ubertragbar sind.

Im Gauß-Algorithmus eliminiert man nun die Variable ξn und gelangt zu folgendenlinearen Gleichungssystem mit m− 1 Ungleichungen in n− 1 Variablen.

n−1∑

j=1

(αi,j − α1,j)ξj = βi − β1 (i = 2, . . . ,k)

n−1∑

j=1

αi,jξj = βi (i = k + 1, . . . ,l)

n−1∑

j=1

(αi,j + α1,j)ξj = βi + β1 (i = l + 1, . . . ,m).

1.3.5 Bemerkung. Das System Ax ≤ b ist genau dann losbar, wenn

n−1∑

j=1

(αi,j + αt,j)ξj ≤ βt + βi (i = 1, . . . ,k; t = l + 1, . . . ,m)

n−1∑

j=1

αi,jξj ≤ βi (i = k + 1, . . . ,l).

losbar ist. Ferner ist ξ∗1 , . . . ,ξ∗n−1 genau dann eine Losung des reduzierten Systems, wenn

es ein ξ∗n gibt, so dass ξ∗1 , . . . ξ∗n−1,ξ

∗n eine Losung des Ausgangssystems ist. Fur n ≥

2 ist die Losungsmenge des reduzierten Systems somit die orthogonale Projektion desursprunglichen auf den Rn−1 der ersten n− 1 Koordinaten.

Page 12: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

12 1 Einleitung

Beweis: Ist ξ∗1 , . . . ξ∗n eine Losung des Ausgangssystems, so gilt

−ξn ≤ βi −n−1∑

j=1

αi,jξj (i = 1, . . . ,k)

n−1∑

j=1

αi,jξj ≤ βi (i = k + 1, . . . ,l)

ξn ≤ βi −n−1∑

j=1

αi,jξj (i = l + 1, . . . ,m),

also insbesondere

n−1∑

j=1

αi,jξ∗j − βi ≤ βt −

n−1∑

j=1

αt,jξ∗j (i = 1, . . . ,k; t = l + 1, . . . ,m)

n−1∑

j=1

αi,jξ∗j ≤ βi (i = k + 1, . . . ,l),

d.h. ξ∗1 , . . . ξ∗n−1 ist eine Losung des reduzierten Systems. Ist umgekehrt ξ∗1 , . . . ξ

∗n−1 eine

Losung des reduzierten Systems, so kann ξ∗n so gewahlt werden, dass gilt

n−1∑

j=1

αi,jξ∗j − βi ≤ ξ∗n ≤ βt −

n−1∑

j=1

αt,jξ∗j (i = 1, . . . ,k; t = l + 1, . . . ,m);

ξ∗1 , . . . ξ∗n erfullt dann alle Bedingungen des Ausgangssystems, und es folgt die Behaup-

tung.

1.3.6 Bezeichnung. Das beschriebene Verfahren heißt Fourier-Motzkin-Elimination[engl.: Fourier-Motzkin elimination] zur Losung von linearen Ungleichungssystemen.

1.3.7 Prozedur: Fourier-Motzkin-Elimination

INPUT: Matrix A ∈ Rm×n, Vektor b ∈ Rm

OUTPUT: Vektor x∗ ∈ Rn mit Ax∗ ≤ b, falls ein solcher existiert;Meldung ‘Ungleichungssystem unlosbar’ sonst

BEGIN eliminiere sukzessive alle VariablenIF die entstehende variablenfreie Ungleichung ist unlosbar

THEN Meldung ‘Ungleichungssystem unlosbar’ELSE Bestimme sukzessive Komponenten ξ∗1 , . . . ,ξ∗n eines Losungsvektors

END

1.3.8 Beispiel. Wir wenden das Fourier-Motzkin-Eliminationsverfahren auf Beispiel1.3.4 an

ξ1 + ξ2 ≤ αξ1 ≥ 0

ξ2 ≥ 0

ξ2 ≤ α− ξ1ξ1 ≥ 0

ξ2 ≥ 0

{0 ≤ α− ξ1ξ1 ≥ 0

}

{ξ1 ≤ αξ1 ≥ 0

}

.→ {0 ≤ α}

1.3.9 Satz. Das Verfahren der Fourier-Motzkin-Elimination lost ein lineares Unglei-chungssystem Ax ≤ b in n Variablen und mit m Ungleichungsrestriktionen in n Elimi-nationsschritten.

Page 13: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

1.3 Fourier-Motzkin-Elimination 13

Beweis: In jedem Schritt des Verfahrens wird eine Variable eliminiert. Somit erhaltman nach n Eliminationsschritten eine variablenfreie Ungleichung.

1.3.10 Bemerkung. Seien A ∈ Rm×n, b ∈ Rm, c ∈ Rn und P := {x ∈ Rn : Ax ≤ b} 6=∅. Ferner sei ν ∈ R ∪ {∞}. Durch Fourier-Motzkin-Elimination der Variablen ξ1, . . . ,ξngehe das Ungleichungssystem

ξ0 − cTx ≤ 0Ax ≤ b

uber inξ0 ≤ ν,

wobei ν = ∞ bedeutet, dass ξ0 keiner reellen oberen Schranke genugen muss. Dann gilt

max{cTx : Ax ≤ b} = ν.

Beweis: Fur einen gegebenen Punkt x∗ ∈ P ist die Ungleichung cTx∗ ≥ ξ0 equivalentzu ξ0 ∈] −∞,cTx∗]. Nach Bemerkung 1.3.5 gibt es genau zu jedem ξ0 ∈] −∞,ν] Werteξ1, . . . ,ξn, so dass das System

ξ0 − cTx ≤ 0Ax ≤ b

losbar ist. Hieraus folgt die Behauptung.

1.3.11 Beispiel. Gegeben sei die folgende lineare Optimierungsaufgabe.

max ξ1 + ξ2

3ξ1 + ξ3 ≤ 3−3ξ1 + ξ3 ≤ 0

ξ2 + ξ3 ≤ 12ξ2 + ξ3 ≥ 1

ξ3 ≥ 0

Der zulassige Bereich ist in Abbildung 1.4 (links) skizziert. Gemaß Bemerkung 1.3.10fugen wir die ‘Zielfunktionungleichung’

ξ0 − ξ1 − ξ2 ≤ 0

hinzu und fuhren anschließend die Elimination nach ξ3 durch. Wir erhalten

ξ0 − ξ1 − ξ2 ≤ 03ξ1 − 2ξ2 ≤ 23ξ1 + 2ξ2 ≥ 1

ξ2 ≥ 0ξ1 ≤ 1ξ1 ≥ 0

ξ2 ≤ 1.

Elimination von ξ2 liefert

Page 14: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

14 1 Einleitung

ξ0 − 1 ≤ ξ1ξ1 ≤ 4

3

− 13 ≤ ξ1

0 ≤ ξ1ξ1 ≤ 1.

Durch Elimination nach ξ1 (und Weglassen der redundanten Bedingungen) erhalten wir

ξ0 ≤ 2.

Das Maximum der Zielfunktion ist somit 2. Durch Ruckeinsetzen erhalt man sukzessivedie Koordinaten des (in diesem Beispiel eindeutig bestimmten) Optimalpunktes ξ∗1 = 1,ξ∗2 = 1 sowie ξ∗3 = 0.

1.3.12 Beispiel. Im zulassigen Bereich aus Beispiel 1.3.11 bestand das Ausgangssystemaus funf Bedingungen; das durch Elimination von ξ3 entstandene aber aus sechs Unglei-chungen, die samtlich irredundant sind.

ξ3

ξ2ξ1

ξ2

ξ1

1.4 Abbildung Die Losungsmengen des Ausgangssystems (links) und des durch Eliminationvon ξ3 entstandenen Systems (rechts).

1.3.13 Bezeichnung. u1, . . . ,un bezeichnen die Standardeinheitsvektoren des Rn.

1.3.14 Korollar. Seien P ein Polyeder des Rn, L ein linearer Teilraum des Rn und Qentstehe durch orthogonale Projektion von P auf L. Dann ist Q ein Polyeder.

Beweis: Sei k := dim(L). Die Aussage ist trivial fur k = 0; sei also im folgen-den k ∈ N. Wir nutzen aus, dass nach Bemerkung 1.3.5 das nach einem Schritt derFourier-Motzkin Elimination gefundene Ungleichungssystem die orthogonale Projektionder Losungsmenge auf den entsprechenden Koordinatenraum beschreibt, und dabei je-weils nur endlich viele Ungleichungen auftreten. Der allgemeine Fall ergibt sich durchAnwendung einer geeigneten orthogonalen Transformation.

Page 15: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

15

2 Konvexitatstheorie

2.1 Konvexe Mengen

Zur Fixierung der verwendeten Notation beginnen wir mit einigen Standardbezeichnun-gen der Linearen Algebra endlich-dimensionaler reeller Vektorraume Rn.

2.1.1 Bezeichnung. (a) Seien X,Y ⊂ Rn. Dann heißt die durch

X + Y := {x+ y : x ∈ X ∧ y ∈ Y }

definierte Menge Minkowski-Summe [engl.: Minkowski-sum] von X und Y . Istλ ∈ R so sei

λ ·X := {λx : x ∈ X}.

Ferner wird 0 · ∅ = {0} gesetzt. λ ·X heißt Dilatat [engl.: dilate] von X um λ.

(b) Seien v,v1, . . . ,vk ∈ Rn. Dann heißt v Affinkombination [engl.: affine combina-tion] der v1, . . . ,vk, falls λ1, . . . ,λk ∈ R existieren mit

k∑

i=1

λi = 1 ∧ v =k∑

i=1

λivi.

(c) Sei T ⊂ Rn. T heißt affiner Unterraum von Rn, wenn T bezuglich Affinkombi-nationen abgeschlossen ist.

(d) Seien v1, . . . ,vk ∈ Rn. Die Vektoren v1, . . . ,vk heißen affin unabhangig [engl.:affinely independent], wenn gilt

λ1, . . . ,λk ∈ R ∧k∑

i=1

λi = 0 ∧k∑

i=1

λivi = 0 =⇒ λ1 = . . . = λk = 0,

andernfalls affin abhangig [engl.: affinely dependent]. Eine Teilmenge X von Rn

heißt affin abhangig, wenn es ein k ∈ N und v1, . . . ,vk ∈ X gibt, so dass v1, . . . ,vk

affin abhangig sind.

(e) Ist T ein affiner Teilraum von Rn und gibt es ein k ∈ N0, so dass T k + 1 aberkeine k+2 affin unabhangigen Vektoren enthalt, so heißt k die Dimension [engl.:dimension] von T und wird mit dim(T ) bezeichnet. Affine Teilraume von Rn derDimension 0, 1, 2 bzw. n − 1, heißen Punkt [engl.: point], Gerade [engl.: line],Ebene [engl.: plane] bzw. Hyperebene [engl.: hyperplane].

Page 16: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

16 2 Konvexitatstheorie

(f) Ist X ⊂ Rn, so heißt der bez. Inklusion kleinste lineare (affine) Unterraum von Rn,der X enthalt, die lineare (affine) Hulle [engl.: linear (affine) hull] von X undwird mit lin (X) bzw. aff (X) bezeichnet. Alternativ ergibt sich lin (X) bzw. aff (X)als Menge aller Linear- (Affin-) Kombinationen von Elementen aus X (wobei 0 alsLinearkombination der Elemente der leeren Menge aufgefasst wird).1

(g) Sei τ : Rn → Rk. τ heißt affine Abbildung [engl.: affine mapping], wenn τ mitAffinkombinationen von Elementen aus Rn vertraglich ist, d.h. wenn

v1, . . . ,vk ∈ Rn ∧ λ1, . . . ,λk ∈ R ∧k∑

i=1

λi = 1 =⇒ τ( k∑

i=1

λivi

)

=

k∑

i=1

λiτ(vi).

Ist τ : Rn → Rn eine bijektive affine Abbildung, so heißt τ affine Transformation[engl.: affine transformation].2

2.1.2 Definition. Sei X ⊂ Rn. X heißt konvex [engl.: convex] genau dann, wenn

x,y ∈ X ∧ λ ∈ [0,1] =⇒ λx+ (1 − λ)y ∈ X

gilt.

2.1.3 Lemma. Seien C eine Familie konvexer Mengen des Rn, C,C1,C2 ∈ C, A ∈ Rm×n,b ∈ Rn, P := {x : Ax ≤ b}, µ ∈ R sowie τ : Rn → Rk eine affine Abbildung. Dann sinddie folgenden Mengen konvex:

C∈C

C, P, C1 + C2, µ · C, τ(C).

2.1.4 Definition. Sei X ⊂ Rn.

(a) Die konvexe Hulle [engl.: convex hull] conv (X) von X ist definiert durch

conv (X) :=⋂

{K : X ⊂ K ⊂ Rn ∧K ist konvex}.

(b) Seien x,x1, . . . ,xk ∈ Rn. Dann heißt x Konvexkombination [engl.: convex com-bination] von x1, . . . ,xk, falls λ1, . . . ,λk aus R existieren mit

λ1, . . . ,λk ≥ 0 ∧k∑

i=1

λi = 1 ∧k∑

i=1

λixi = x.

(c) Sei P ⊂ Rn. P heißt V-Polytop [engl.: V-polytope], falls es k ∈ N0 und v1, . . . ,vk ∈Rn gibt mit

P = conv {v1, . . . ,vk}.

2.1.5 Lemma. (a) Die konvexe Hulle einer Menge ist konvex.

1 Eine nicht leere Teilmenge X eines Vektorraums Rn ist also genau dann affin unabhangig, wenn sichjeder Vektor v aus aff (X) auf genau eine Weise als Affinkombination von Vektoren aus X darstellenlasst.

2 Insbesondere ist also τ : Rn → Rk eine affine Abbildung, wenn es eine lineare Abbildung ψ : Rn → Rk

und einen Vektor w ∈ Rk gibt, so dass τ(v) = w + ψ(v) fur alle v ∈ Rn gilt.

Page 17: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

2.1 Konvexe Mengen 17

(b) Konvexkombinationen von Konvexkombinationen sind Konvexkombinationen.

Beweis: (a) Die Behauptung folgt mit Lemma 2.1.3 (a) unmittelbar aus der Defini-tion.

(b) Da Konvexkombinationen nur endlich viele Terme betreffen, konnen wir mit Hilfevon Koeffizienten 0 stets erreichen, dass in jeder der betrachteten Konvexkombinationenalle Vektoren auftreten. Seien also k,l ∈ N und

xj ∈ Rn (j = 1, . . . ,l)λi,j ≥ 0 (i = 1, . . . ,k; j = 1, . . . ,l) mit

∑lj=1 λi,j = 1 (i = 1, . . . ,k)

µi ≥ 0 (i = 1, . . . ,k) mit∑k

i=1 µi = 1.

Dann giltk∑

i=1

µi

l∑

j=1

λi,jxj

=

l∑

j=1

(k∑

i=1

µiλi,j

)

xj .

Mit

ηj =

k∑

i=1

µiλi,j (j = 1, . . . ,l)

ergibt sich ηj ≥ 0 sowie

l∑

j=1

ηj =

k∑

i=1

µi

l∑

j=1

λi,j

=

k∑

i=1

µi = 1,

und es folgt die Behauptung.

2.1.6 Lemma. Sei X ⊂ Rn. Dann ist conv (X) die Menge aller Konvexkombinationenvon Elementen aus X.

Beweis: Sei C die Menge aller Konvexkombinationen von Elementen aus X . Dannist C nach Lemma 2.1.5 konvex. Wegen X ⊂ C folgt also conv (X) ⊂ C.

Die Umkehrung ergibt sich mittels vollstandiger Induktion uber die ‘Lange’ derKonvexkombinationen, d.h. uber die Anzahl k der involvierten Punkte von X . Sei Ck dieMenge der Konvexkombinationen der Lange k. Dann gilt C1 = X und C2 ⊂ conv (X).Die Induktionsannahme ist nun, dass Ck ⊂ conv (X) gilt fur ein k ∈ N.

Seien x1, . . . ,xk+1 ∈ X , λ1, . . . ,λk+1 ≥ 0 mit∑k+1

i=1 λi = 1, setze x =∑k+1

i=1 λixi so-

wie λ =∑k

i=1 λi. O.B.d.A. gelte λ 6= 0 (da sonst λk+1 = 1 ware, die Konvexkombinationalso nur die Lange 1 hatte). Aus der Induktionsvoraussetzung folgt

k∑

i=1

λi

λxi ∈ Ck ⊂ conv (X),

somit

x =

k+1∑

i=1

λixi = λ

( k∑

i=1

λi

λxi

)

+ (1 − λ)xk+1 ∈ conv (X),

und damit die Behauptung.

Page 18: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

18 2 Konvexitatstheorie

2.1.7 Bezeichnung. (a) [−1,1]n heißt (n-dimensionaler) Einheitswurfel; [0,1]n heißtStandardwurfel [engl.: unit (standard) cube]. Jedes Bild von [−1,1]n unter ei-ner Ahnlichkeitstransformation (Translation, Dilatation, Drehung) heißt Wurfel[engl.: cube]. Jedes Bild eines Wurfels unter einer affinen Transformation heißtParallelotop [engl.: parallelotope].

(b) Sei S ⊂ Rn. S heißt (n-dimensionales) Standardssimplex [engl.: standard sim-plex], wenn S = conv

({0,u1, . . . ,un} gilt. S heißt Simplex [engl.: simplex], wenn

es n+ 1 affin unabhangige Punkte s0, . . . ,sn gibt mit S = conv({s0, . . . ,sn}

).

(c) Sei Qn := conv ({±u1, . . . , ± un}). Dann heißt Qn (n-dimensionales) Einheits-Kreuzpolytop bzw. Standard-Kreuzpolytop [engl.: unit (standard) cross-polytope].Jedes Bild von Qn unter einer Ahnlichkeitstransformation heißt regulares Kreuz-polytop [engl.: regular cross-polytope], jedes Bild eines Standardkreuzpolytops untereiner affinen Transformation heißt Kreuzpolytop [engl.: cross-polytope].

2.1 Abbildung von links: Der Wurfel [0,1]3 , ein Parallelotop, ein Simplex

������������

������������

������������

������������

������������

������������

2.2 Abbildung Das Oktaeder Q3 = conv`

{±u1,± u2,,± u3}´

.

2.1.8 Lemma. Seien a ∈ Rn, A = (a1, . . . ,an)T ∈ Rn×n regular, s0, . . . ,sn affin un-abhangig, sowie B := (s1 − s0, . . . ,sn − s0). Dann gilt

(a) a+A[−1,1]n = {x ∈ Rn : A−1a− 1 ≤ A−1x ≤ A−1a+ 1}

= a+

n∑

i=1

[−1,1]ai = conv

({

a+

n∑

i=1

δiai : δ1, . . . ,δn ∈ {−1,1}})

.

Page 19: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

2.1 Konvexe Mengen 19

(b) conv({s0, . . . ,sn}

)={x ∈ Rn : B−1x ≥ B−1s0 ∧ 1

TB−1x ≤ 1 + 1TB−1s0

}.

(c) a+AQn ={x ∈ Rn : y ∈ {−1,1}n ⇒ yTA−1x ≤ 1 + yTA−1a

}.

2.1.9 Satz. (Satz von Caratheodory)Sei X ⊂ Rn. Dann ist jedes Element x aus conv (X) Konvexkombination von hochstensn+ 1 Punkten von X.

Beweis: Sei x ∈ conv (X). Nach Lemma 2.1.6 ist x Konvexkombination von Punktenvon X . Sei k ∈ N minimal, so dass es x1, . . . ,xk ∈ X und λ1, . . . ,λk aus R gibt mit

λ1, . . . ,λk ≥ 0 ∧k∑

i=1

λi = 1 ∧ x =

k∑

i=1

λixi.

Ist k ≤ n + 1, so ist nichts zu zeigen. Sei also k ≥ n + 2. Dann sind x1, . . . ,xk affinabhangig, d.h. es gibt η1, . . . ,ηk aus R, nicht alle gleich 0, mit

∑ki=1 ηi = 0, so dass

∑ki=1 ηixi = 0 gilt. Seien O.B.d.A. l ∈ N0 mit l < k und η1, . . . ,ηl ≤ 0, ηl+1, . . . ,ηk > 0,

und es gelteλi

ηi

≥λk

ηk

(i = l+ 1, . . . ,k).

Dann gilt

λk −λk

ηk

ηk = 0 ∧ λi −λk

ηk

ηi ≥ 0 (i = 1, . . . ,k − 1)

∧k−1∑

i=1

(

λi −λk

ηk

ηi

)

=

k∑

i=1

λi −λk

ηk

k∑

i=1

ηi = 1

sowiek−1∑

i=1

(

λi −λk

ηk

ηi

)

xi =

k∑

i=1

λixi −λk

ηk

k∑

i=1

ηixi = x.

Der Punkt x ist also bereits Konvexkombination von k − 1 Vektoren aus X , im Wider-spruch zur Wahl von k. Hieraus folgt die Behauptung.

2.1.10 Bezeichnung. (Analysis)

(a) Die euklidische Norm im Rn wird mit ‖ ‖, die (euklidische) Einheitskugelund Einheitssphare werden mit Bn bzw. Sn−1 bezeichnet, d.h.

Bn := {x ∈ Rn : ‖x‖ ≤ 1} und Sn−1 := {x ∈ Rn : ‖x‖ = 1}.

Fur ∅ 6= X,Y ⊂ Rn sei

d(X,Y ) := inf{‖x− y‖ : x ∈ X ∧ y ∈ Y }

der Abstand von X und Y . Ist X einelementig, etwa X = {x}, so schreibt manauch kurzer d(x,Y ) statt d({x},Y ).

(b) Sei X ⊂ Rn. Dann bezeichnen int (X), cl (X) und bd (X) das Innere, den Ab-schluß bzw. den Rand von X.

Page 20: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

20 2 Konvexitatstheorie

(c) Fur X ⊂ Rn bezeichne relint (X) bzw. relbd (X) das relative Innere bzw. denrelativen Rand von X; das ist das Innere bzw. der Rand von X bezuglich aff (M),d.h. bezuglich der in aff (X) induzierten Topologie (die durch die Schnitte offenereuklidischer Kugeln des Rn mit aff (X) erzeugt wird).

2.1.11 Lemma. Ist C ⊂ Rn nicht leer und konvex, so gilt relint (C) 6= ∅.

Beweis: Seien k := dim(aff (C)

), s0, . . . sk ∈ C affin unabhangig und S := conv

({s0, . . . sk}

).

Ferner seien Q := (q1, . . . ,qn)T ∈ Rn×n orthogonal mit

lin({q1, . . . ,qk}

)= lin

({s1 − s0, . . . ,sk − s0}

)

und t0 := −Qs0. Dann gilt t0 +Qs0 = 0 sowie

t0 +Qsi = Q(si − s0) ∈ lin({u1, . . . ,uk}

)(i = 1, . . . ,k).

Die durch τ(x) := t0 +Qx definierte affine Transformation uberfuhrt somit aff (S) in denKoordinatenraum Rk × {0}n−k. Da Bilder und Urbilder relativ offener Mengen unter τrelativ offen sind, reicht es, den Fall k = n zu betrachten und zu zeigen, das S innerePunkte besitzt. Seien

c :=1

n+ 1

n∑

i=0

si ∧ B := (s1 − s0, . . . ,sn − s0).

nach Lemma 2.1.8 gilt dann

S ={x ∈ Rn : B−1x ≥ B−1s0 ∧ 1

TB−1x ≤ 1 + 1TB−1s0

}.

Da B regular ist, kann keine der n+ 1 Gleichungen

1TB−1si = 1 + 1

TB−1s0 ∧ uTj B

−1si = uTj B

−1s0 (j = 1, . . . ,n)

fur alle i ∈ {1, . . . ,n} erfullt sein. Es folgt

B−1c =1

n+ 1

n∑

i=0

B−1si > B−1s0 ∧ 1TB−1c =

1

n+ 1

n∑

i=0

1TB−1si < 1 + 1

TB−1s0.

Somit gibt es ein ρ ∈]0,∞[, so dass fur alle y ∈ Bn gilt

B−1(c+ ρy

)> B−1s0 ∧ 1

TB−1(c+ ρy

)< 1 + 1

TB−1s0,

d.h. c+ ρBn ⊂ S ⊂ C.

2.1.12 Definition. Sei C ⊂ Rn nicht leer und konvex. Dann heißt

dim(aff (C)

)

Dimension von C und wird mit dim(C) bezeichnet. Ferner wird dim(∅) = −1 gesetzt.

2.1.13 Satz. Die konvexe Hulle kompakter Mengen ist kompakt.

Page 21: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

2.2 Trennungssatze, Kegel und linear-konvexe Optimierung 21

Beweis: Sei X ⊂ Rn kompakt. Ferner sei

S =

{

(λ1, . . . , λn+1)T ∈ Rn+1 : 0 ≤ λ1, . . . ,λn+1 ∈ R ∧

n+1∑

i=1

λi = 1

}

,

und die Funktion Ψ : Rn+1 × Rn(n+1) → Rn sei definiert durch

Ψ(λ1, . . . ,λn+1,x1, . . . ,xn+1) =

n+1∑

i=1

λixi.

Offenbar sind S kompakt und Ψ stetig. Aus Lemma 2.1.6 und Satz 2.1.9 (Caratheodory)folgt

Ψ(S ×X × · · · ×X︸ ︷︷ ︸

n+1

) = conv (X).

Nach dem Satz von Tychonoff ist das kartesische Produkt der Kompakta S und X (n+1mal) kompakt. Da das Bild eines Kompaktums unter einer stetigen Abbildung kompaktist, folgt die Behauptung.

2.2 Trennungssatze, Kegel und linear-konvexe Optimierung

2.2.1 Definition. Eine linear-konvexe Optimierungsaufgabe [engl.: instance of alinear-convex optimization problem] ist durch folgende Daten spezifiziert:

n ∈ N, C ⊂ Rn abgeschlossen, konvex, ϕ : Rn → R linear, opt ∈ {min,max}.

Die Aufgabe besteht darin, ϕ uber C zu optimieren. Fur opt=max spricht man auchvon einer linear-konvexen Maximierungsaufgabe [engl.: instance of a linear-convexmaximization problem], fur opt=min von einer linear-konvexen Minimierungsauf-gabe [engl.: instance of a linear-convex minimization problem]. Die Menge aller linear-konvexen Optimierungsaufgaben heißt linear-konvexes Optimierungsproblem [engl.:linear-convex optimization problem] oder kurzer linear-konvexes Programm [engl.:linear-convex problem].

2.2.2 Bezeichnung. Seien H eine Hyperebene des Rn, a ∈ Rn \{0} und β ∈ R, so dass

H = {x : aTx = β}.

Dann wird die Notation H(a,β) fur H verwendet und a als Normalenvektor oder Nor-male [engl.: normal] von H bezeichnet.

2.2.3 Definition. (a) Eine Teilmenge H≤ des Rn heißt (abgeschlossener) Halbraum[engl.: (closed) halfspace] des Rn, wenn es a ∈ Rn \ {0} und β ∈ R gibt mit H≤ ={x : aTx ≤ β}. Entsprechend heißt a außerer Normalenvektor oder außereNormale [engl.: outer normal] von H≤.

(b) Ist H = H(a,β) eine Hyperebene, so heißen H≤(a,β) = {x : aTx ≤ β} bzw. H≥

(a,β) =

{x : aTx ≥ β} (abgeschlossene) Halbraume [engl.: positive (negative) halfspace]zur Hyperebene H; H<

(a,β) = {x : aTx < β} bzw. H<(a,β) = {x : aTx < β} (offene)

Halbraume. Bisweilen werden abgeschlossene Halbraume auch einfacher mit H+

und H− bezeichnet.

Page 22: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

22 2 Konvexitatstheorie

(c) Seien S ∈ Rn und k ∈ {1, . . . ,n}. S heißt (relativ offener bzw. abgeschlossener) k-dimensionaler Halbunterraum, wenn es einen k-dimensionalen affinen TeilraumF und einen (offenen bzw. abgeschlossenen) Halbraum H+ des Rn gibt mit

∅ 6= F ∩H+ 6= F ∧ S = F ∩H+.

Ein 1-dimensionaler Halbunterraum wird auch Halbgerade oder Strahl [engl.:half-line, ray] genannt.

aa

H(a,β) H≤(a,β)

H≥(a,β)

2.3 Abbildung Hyperebene und zugehorige Halbraume im R2.

2.2.4 Definition. Seien X,Y ⊂ Rn, H eine Hyperebene. Dann trennt [engl.: separates]H die Mengen X und Y genau dann, wenn es a ∈ Rn\{0} und β ∈ R gibt mit H = H(a,β)

undX ⊂ H≤

(a,β) ∧ Y ⊂ H≥(a,β).

Die Hyperebene H trennt X und Y strikt [engl.: strictly separates], genau dann, wennes a ∈ Rn \ {0} und β ∈ R gibt mit

X ⊂ H<(a,β) ∧ Y ⊂ H>

(a,β).

H trennt X und Y streng [engl.: strongly separates], genau dann, wenn es a ∈ Rn \{0}und β,β1,β2 ∈ R gibt mit β1 < β < β2, H = H(a,β) und

X ⊂ H≤(a,β1)

∧ Y ⊂ H≥(a,β2)

.

Trennt die Hyperebene H die Mengen X und Y (strikt, streng), so wird H als X und Y(strikt, streng) trennende Hyperebene [engl.: (strictly, strongly) separating hyper-plane] bezeichnet.

2.2.5 Satz. Seien K,C ⊂ Rn konvex, K beschrankt, und es gelte cl (K) ∩ cl (C) = ∅.Dann gibt es eine K und C streng trennende Hyperebene.

Beweis: Wir konnen o.B.d.A. annehmen, dass K und C nicht leer und abgeschlossensind. Sei x ∈ K. Da man sich zur Berechnung von d(x,C) auf ein Kompaktum in Cbeschranken kann, gibt es stets ein y aus C mit d(x,C) = ‖x− y‖. Da C konvex ist (undSn−1 keine Strecke positiver Lange enthalt), ist y eindeutig bestimmt, d.h. y kann alsFunktion y(x) von x aufgefasst werden. Als solche ist d(x,C) stetig; also gibt es ein x0,so dass mit y0 = y(x0) gilt

Page 23: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

2.2 Trennungssatze, Kegel und linear-konvexe Optimierung 23

H(a,β) H(a,β1)

H(a,β2)

2.4 Abbildung Trennung (links), strenge Trennung (rechts)

‖x0 − y0‖ = min{d(x,C) : x ∈ K}.

Seien nuna := y0 − x0 ∧ β1 := aTx0 ∧ β2 := aT y0.

Dann gilt nach Voraussetzung 0 < ‖y0 − x0‖2 = (y0 − x0)

T (y0 − x0) und somit

β1 = aTx0 < aT y0 = β2.

Mittels Widerspruchsbeweises zeigen wir K ⊂ H≤(a,β1)

. Der Beweis fur C ⊂ H≥(a,β2)

folgt

analog.3 Sei also x ∈ K ∩H>(a,β1)

. Fur λ ∈]0,1[ gilt

∥∥∥y0 −

(λx+ (1 − λ)x0

)∥∥∥

2

=(λ(y0 − x) + (1 − λ)a

)T (λ(y0 − x) + (1 − λ)a

)

= λ2((y0 − x) − a

)T ((y0 − x) − a

)+ 2λ

((y0 − x) − a

)Ta+ aTa

= λ2‖x0 − x‖2 + 2λ(x0 − x)T a+ ‖a‖2.

Da nach Voraussetzung aT (x0 − x) < 0 ist, gibt es ein δ ∈]0,1[, so dass fur alle λ ∈]0,δ[

λ‖x0 − x‖2 + 2(x0 − x)T a < 0

gilt. Somit folgt fur jedes solche λ

∥∥∥y0 −

(λx+ (1 − λ)x0

)∥∥∥ <

∥∥y0 − x0

∥∥,

im Widerspruch zur Wahl von x0 und y0.

2.2.6 Bezeichnung. Die im Beweis von Satz 2.2.5 konstruierte Abbildung x 7→ y(x)heißt nearest-point-map von C, und wird mit πC bezeichnet.

2.2.7 Beispiel. Seien a1, . . . ,ak,b ∈ Rn, A = (a1, . . . ,ak) und Q = conv {a1, . . . ,ak}.Genau dann ist b 6∈ Q, wenn sich b nicht als Konvexkombination der Vektoren a1, . . . ,ak

darstellen lasst, d.h.

3 Alternativ konnte man rein elementargeometrisch argumentieren.

Page 24: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

24 2 Konvexitatstheorie

¬∃x = (ξ1, . . . ,ξk)T ∈ [0,∞[k:

k∑

i=1

ξi = 1 ∧ Ax = b.

Nach Satz 2.2.5 ist hingegen b 6∈ Q genau dann, wenn es eine b und Q streng trennendeHyperebene gibt, d.h. wenn

∃(y ∈ Rn ∧ η ∈ R) : yT b < η ∧ yTA > η1.

Somit istAx = b1

Tx = 1x ≥ 0

genau dann unzulassig, wenn

yT b − η < 0−yTA + η1 < 0

zulassig ist. Der Trennungssatz hat hier also die Gestalt eines Alternativsatzes. Es gibtviele Varianten solcher Satze, die im Bereich der linearen Optimierung in der Regel unterdem Namen Lemma von Farkas firmieren. Satz 2.2.29 enthalt eine Optimierungsver-sion.

2.2.8 Satz. Seien K,C ⊂ Rn nicht leer und konvex. Ist relint (K) ∩ relint (C) = ∅, soexistiert eine K und C trennende Hyperebene.

Existiert umgekehrt eine K und C trennende Hyperebene, und ist aff (K ∪C) = Rn,so gilt relint (K) ∩ relint (C) = ∅.

2.2.9 Korollar. Seien K,C ⊂ Rn nicht leer und konvex, S := aff (K ∪ C), s ∈ S, undes gelte relint (K) ∩ relint (C) = ∅. Dann existieren a ∈ (−s + S) \ {0} und β ∈ R, sodass H(a,β) die Mengen K und C trennt.

2.2.10 Satz. Jede abgeschlossene konvexe Menge des Rn ist Durchschnitt aller abge-schlossenen (oder aller offenen) Halbraume, die sie enthalten.

2.2.11 Definition. Seien X ⊂ Rn, x ∈ cl (X) und H eine Hyperebene. Dann heißtH Stutzhyperebene [engl.: supporting hyperplane] an X im Punkt x, wenn H dieMengen X und {x} trennt. Man sagt dann auch ‘H stutzt X in x’ und bezeichnet x alsStutzpunkt [engl.: support point] von X. Eine Hyperebene H heißt Stutzhyperebene anX, wenn ein Punkt x ∈ cl (X) existiert, so dass H die Menge X im Punkt x stutzt. EineStutzhyperebene an X heißt eigentlich, wenn X 6⊂ H ist; andernfalls uneigentlich. IstH eine Stutzhyperebene an X und H+ der von H berandete abgeschlossene Halbraum, derX enthalt, dann heißt H+ zu H gehoriger Stutzhalbraum [engl.: supporting halfspace].

2.2.12 Bemerkung. Seien X ⊂ Rn beschrankt, H eine Hyperebene und H+, H− diebeiden zugehorigen abgeschlossenen Halbraume. H stutzt X genau dann, wenn gilt

d(X,H) = 0 ∧(

x,y ∈ X ∧ x ∈ int (H+) ⇒ y ∈ H+)

.

2.2.13 Satz. Seien C ⊂ Rn und K ⊂ relbd (C) beide konvex und K 6= ∅. Dann gibt eseine eigentliche Stutzhyperebene H an C mit K ⊂ H.

Page 25: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

2.2 Trennungssatze, Kegel und linear-konvexe Optimierung 25

Beweis: Sei s ∈ C. Nach Korollar 2.2.9 gibt es eine C und K trennende Hyper-ebene H := H(a,β) mit a + s ∈ aff (C), und es folgt C 6⊂ H . Seien H± die zugehorigenabgeschlossenen Halbraume mit C ⊂ H+ und K ⊂ H−. Aus K ⊂ C ⊂ H+ folgtK ⊂ H+ ∩H− = H und damit die Behauptung.

2.2.14 Korollar. Seien C ⊂ Rn abgeschlossen und konvex sowie x∗ ∈ C.

(a) Seien c ∈ Rn \ {0} und β ∈ R. Der Vektor x∗ ist genau dann ein Optimalpunkt der

linear-konvexen Maximierungsaufgabe maxx∈C cTx, wenn H≤

(c,β) Stutzhalbraum an

C in x∗ ist. In diesem Fall gilt β = maxx∈C cTx.

(b) Ist x∗ ∈ bd (C), so existiert ein Vektor c ∈ Rn \ {0}, so dass x∗ Optimalpunktder linear-konvexen Maximierungsaufgabe maxx∈C c

Tx ist.4 Ist x∗ ∈ relbd (C), sokann noch verlangt werden, dass die durch x 7→ cTx definierte Zielfunktion auf Cnicht konstant ist.

2.2.15 Bemerkung. Seien X ⊂ Rn, x∗ ∈ X und

K :={c ∈ Rn : max

x∈XcTx = cTx∗

}.

Dann gilt:λ1,λ2 ∈ [0,∞[ ∧ c1,c2 ∈ K ⇒ λ1c1 + λ2c2 ∈ K.

2.2.16 Definition. (a) Sei K ⊂ Rn. K heißt Kegel [engl.: cone], wenn gilt

[0,∞[K ⊂ K ∧ K +K ⊂ K.

(b) Ist K ein Kegel und ein Polyeder, so wird K auch polyederischer Kegel [engl.:polyhedral cone] genannt.

(c) Sei X ⊂ Rn. Die Menge

{K : X ⊂ K ∧ K ist Kegel}

heißt positive (oder konische) Hulle [engl.: positive hull] von X und wird mitpos (X) bezeichnet.

(d) Seien x,x1, . . . ,xk ∈ Rn. Dann heißt x Nichtnegativkombination oder Koni-sche Kombination [engl.: conic combination] von x1, . . . ,xk, falls λ1, . . . ,λk ausR existieren mit

λ1, . . . ,λk ≥ 0 ∧k∑

i=1

λixi = x.

2.2.17 Beispiel. Seien

A ⊂ Rn \ {0} ∧ K :=⋂

a∈A

H≤(a,0).

Fur a ∈ A, x,y ∈ K und λ ∈ [0,∞[ gilt

aT (λx) = λaTx ≤ 0 ∧ aT (x + y) = aTx+ aT y ≤ 0.

Page 26: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

26 2 Konvexitatstheorie

2.5 Abbildung Verschiedene Kegel des R3.

Also ist K ein Kegel.Die drei in Abbildung 2.5 skizzierten Kegel geben verschiedene Beispiele an. Links

ist A uberabzahlbar, in der Mitte und rechts kommt man mit nur zwei Elementen aus.

2.2.18 Bemerkung. (a) Sei K ein Kegel im Rn. Dann ist K konvex, und es gilt0 ∈ K.

(b) Sei X ⊂ Rn. Dann ist pos (X) ein Kegel.

2.2.19 Bemerkung. Seien K ein abgeschlossener Kegel im Rn und A die Menge deraußeren Normalen aller Stutzhyperebenen an K in 0. Dann gilt K =

a∈AH≤(a,0).

Beweis: Nach Satz 2.2.10 ist K Durchschnitt aller abgeschlossenen Halbraume, dieK enthalten. Seien nun a ∈ Rn \ {0} und β ∈ R mit K ⊂ H≤

(a,β). Nach Bemerkung 2.2.18

ist 0 ∈ K, und es folgt β ≥ 0. Sei nun x ∈ K. Fur jedes λ ∈ [0,∞[ gilt dann aT (λx) =

λaTx ≤ β, und somit aTx ≤ 0. Es folgt K ⊂ H≤(a,0) und damit die Behauptung.

2.2.20 Lemma. Sei X ⊂ Rn. Dann gilt

pos (X) = [0,∞[ conv (X) = conv([0,∞[X

),

d.h. pos (X) ist die Menge aller Nichtnegativkombinationen von Elementen von X.

2.2.21 Bezeichnung. Seien C ⊂ Rn konvex und x∗ ∈ C. Ferner seien

NC(x∗) :={

c ∈ Rn : maxx∈C

cTx = cTx∗}

sowieSC(x∗) :=

c∈NC(x∗)

H≤(c,0).

Dann heißen NC(x∗) Kegel der außeren Normalen [engl.: normal cone] und SC(x∗)Stutzkegel [engl.: support cone] an C in x∗. Bisweilen wird SC(x∗) auch Tangentialke-gel [engl.: tangential cone] oder (fur Polyeder) Innenkegel [engl.: inner cone] genannt.

4 Korollar 2.2.14 (b) lasst sich in der Sprache der Aktivitatsanalyse linear-konvexer okonomischerModelle so formulieren, dass zu jedem effizienten Produktionsprogramm x∗ ein Effizienzpreissystem

c ∈ Rn \{0} existiert. Wir werden auf dieses dort ‘Koopmans Effizienzpreissystem’ genannte Ergebnisin Kapitel ?? noch etwas genauer eingehen.

Page 27: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

2.2 Trennungssatze, Kegel und linear-konvexe Optimierung 27

2.2.22 Bemerkung. Seien C ⊂ Rn konvex, c ∈ Rn sowie x∗ ∈ C. Dann ist x∗ genaudann ein Optimalpunkt der linear-konvexen Maximierungsaufgabe maxx∈C c

Tx, wenn c ∈NC(x∗) gilt.

2.2.23 Bemerkung. Seien C ⊂ Rn konvex und x∗ ∈ C. Dann sind NC(x∗) und SC(x∗)abgeschlossene Kegel.

Beweis: Dass NC(x∗) und SC(x∗) tatsachlich Kegel sind, wurde bereits in Bemer-kung 2.2.15 bzw. Beispiel 2.2.17 gezeigt. SC(x∗) ist als Durchschnitt abgeschlossenerHalbraume abgeschlossen. Seien nun (ci)i∈N eine Folge in NC(x∗) und c ∈ Rn mit ci → cfur i → ∞. Fur x ∈ C und i ∈ N gilt cTi x ≤ cTi x

∗, und aus der Stetigkeit linearerFunktionen folgt dann auch cTx ≤ cTx∗.

������������

������������

��������������������������������������������

��������������������������������������������

��������������������������������������������������������

����������������������������������������������������������������������������������������������������������

��������������������������������������������������

��������������������������������������������

������������������������������������������������������������

����������������

��������������������������������������������������������

��������������������������������������������������������

��������������������������������������������

��������������������������������������������

��������������������������������������������������������

����������������������������������������������������������������������������������������������������������

��������������������������������������������������

��������������������������������������������

������������������������������������������������������������

����������������

����������������

�������������������

������������

���������������

��������������������������������������������������������

��������������������������������������������������������

��������������������������������������������������

��������������������������������������������������

��������������������������������������������������������

��������������������������������������������������������

���������������

���������������

��������������������������������������������������������

��������������������������������������������������������

���������������

���������������

����������������

����������������

��������������������������������������������������������

��������������������������������������������������������

��������������������������������������������������

��������������������������������������������������

��������������������������������������������������������

��������������������������������������������������������

���������������

���������������

2.6 Abbildung Stutzkegel SP (x∗) an zwei verschiedenen Randpunkten x∗ des Standard-kreuzpolytops.

2.2.24 Lemma. Seien C ⊂ Rn konvex und x∗ ∈ C. Dann gilt

SC(x∗) = cl([0,∞[(C − x∗)

).

Beweis: Sei Q := cl([0,∞[(C − x∗)

). Da SC(x∗) ein abgeschlossener Kegel ist, der

C − x∗ enthalt, gilt Q ⊂ SC(x∗).Sei nun y ∈ relint

(SC(x∗)

), und es gelte

]0,∞[y ∩ (C − x∗) = ∅.

Nach Korollar 2.2.9 gibt es a ∈ lin(SC(x∗)

)\ {0} und β ∈ R, so dass

]0,∞[y ⊂ H≥(a,β) ∧ C − x∗ ⊂ H≤

(a,β).

Wegen 0 ∈ [0,∞[y ∩ (C − x∗) gilt β = 0, d.h. H≤(a,aT x∗) ist ein Stutzhalbraum an C in

x∗. Nach Definition von SC(x∗) gilt somit y 6∈ SC(x∗), im Widerspruch zur Wahl von y.Somit ist relint

(SC(x∗)

)⊂ Q, und da Q abgeschlossen ist, folgt die Behauptung.

Page 28: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

28 2 Konvexitatstheorie

2.2.25 Lemma. Seien C konvex, c ∈ Rn und x∗ ∈ C. Der Punkt x∗ ist genau dannOptimalpunkt der linear-konvexen Optimierungsaufgabe

max cTx

x ∈ C,

wenn er Optimalpunkt vonmax cTx

x ∈ x∗ + SC(x∗)

ist.

Beweis: Wegen x∗ ∈ C ⊂ x∗ + SC(x∗) gilt naturlich

maxx∈C

cTx ≤ maxx∈x∗+SC(x∗)

cTx.

Ist also x∗ Maximalpunkt bez. x∗ + SC(x∗), so ist x∗ erst recht Maximalpunkt bez. C.Seien nun x∗ Maximalpunkt bez. C, aber y ∈ x∗ + SC(x∗) mit cTx∗ < cT y. Nach

Lemma 2.2.24 gilty − x∗ ∈ cl

([0,∞[(C − x∗)

).

Seien entsprechend (λi)i∈N und (xi)i∈N Folgen mit λi ≥ 0 und xi ∈ C−x∗ fur alle i ∈ N,so dass

x∗ + λixi → y (i→ ∞).

Dann giltcT (x∗ + λixi) → cT y > cTx∗,

also gibt es ein i0 ∈ N mit cT (x∗ + λixi0 ) > cTx∗. Es folgt cTxi0 > 0, also

x∗ + xi0 ∈ C ∧ cT (x∗ + xi0 ) > cTx∗,

im Widerspruch zur Optimalitat von x∗.

2.2.26 Korollar. Seien C konvex, c ∈ Rn, x∗ ∈ C und S := SC(x∗). Dann gilt

NC(x∗) = NS(0).

2.2.27 Bezeichnung. Seien n,m ∈ N, M := {1, . . . ,m}, a1, . . . ,am ∈ Rn \ {0}, A :=(a1, . . . ,am)T , b := (β1, . . . ,βm)T ∈ Rm, P := {x ∈ Rn : Ax ≤ b} und x ∈ P . SeiI(x) ⊂M , so dass

aTi x = βi

(i ∈ I(x)

)

aTi x < βi

(i ∈M \ I(x)

).

Dann heißt genau jede Nebenbedingung aTi x ≤ βi mit i ∈ I(x) in x aktiv [engl.: acti-

ve constraints]. I(x) wird Menge der Indizes aller aktiven Nebenbedingungen genannt.Ferner sei

S=(x) :={y ∈ Rn : i ∈ I(x) ⇒ aT

i y = βi

}.

2.2.28 Lemma. Seien n,m ∈ N, M := {1, . . . ,m}, a1, . . . ,am ∈ Rn\{0}, A := (a1, . . . ,am)T ,b := (β1, . . . ,βm)T ∈ Rm, P := {x ∈ Rn : Ax ≤ b} und x∗ ∈ P . Dann gilt

NP (x∗) = pos({ai : i ∈ I(x∗)

})

∧ SP (x∗) =⋂

i∈I(x∗)

{x ∈ Rn : aT

i x ≤ 0}.

Page 29: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

2.2 Trennungssatze, Kegel und linear-konvexe Optimierung 29

Beweis: Sei Q := pos({ai : i ∈ I(x∗)

})

. Fur i ∈ I(x∗) gilt

maxx∈P

aTi x ≤ βi = aT

i x∗,

d.h. Q ⊂ NP (x∗).Sei nun c ∈ NP (x∗) \ Q. Nach Satz 2.2.5 gibt es eine c und Q streng trennende

Hyperebene. Seien also q ∈ Rn \ {0} und κ1,κ2 ∈ R mit κ1 < κ2 und

Q ⊂ H≤(q,κ1)

∧ cT q ≥ κ2.

Wegen 0 ∈ Q gilt 0 ≤ κ1 < κ2. Nach Lemma 2.2.20 ist die linke Inklusion aquivalent zu

λ1, . . . ,λm ∈ [0,∞[ =⇒( ∑

i∈I(x∗)

λiai

)T

q =∑

i∈I(x∗)

λiaTi q ≤ κ1,

und das gilt genau dann, wennaT1 q, . . . ,a

Tmq ≤ 0

sind. Es folgt

i ∈ I(x∗) ∧ µ ∈ [0,∞[ ⇒ aTi (x∗ + µq) = βi + µaT

i q ≤ βi.

Somit gibt es ein µ0 ∈]0,∞[, so dass

x∗ + µ0q ∈ P ∧ cT (x∗ + µ0q) = cTx∗ + µ0cT q ≥ cTx∗ + µ0κ2 > cTx∗,

im Widerspruch zu c ∈ NP (x∗). Somit folgt auch NP (x∗) ⊂ Q, und damit die ersteIdentitat.

Nach Definition gilt dann auch

SP (x∗) =⋂

c∈pos({

ai:i∈I(x∗)})H≤

(c,0) ⊂⋂

i∈I(x∗)

{x ∈ Rn : aT

i x∗ ≤ 0

}.

Fur i ∈ I(x∗) seien nun λi ∈ [0,∞[ und a :=∑

i∈I(x∗) λiai. Ferner sei x ∈ Rn mit aTi x ≤ 0

fur alle i ∈ I(x∗). Dann gilt

aTx =( ∑

i∈I(x∗)

λiai

)T

x =∑

i∈I(x∗)

λiaTi x ≤ 0.

Hiermit folgt auch die zweite Behauptung.

2.2.29 Korollar. (Lemma von Farkas)Seien n,m ∈ N, a1, . . . ,am ∈ Rn, A := (a1, . . . ,am)T ∈ Rm×n und c ∈ Rn. Dann gilt

(Ax ≤ 0 ⇒ cTx ≤ 0

)⇐⇒

(∃y ∈ Rm : y ≥ 0 ∧AT y = c

).

Page 30: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

30 2 Konvexitatstheorie

2.3 Darstellungssatze

2.3.1 Bemerkung. Seien C ⊂ Rn abgeschlossen und konvex und s ∈ Rn \ {0}. Danngilt

x,y ∈ C ∧ x+ [0,∞[s ⊂ C =⇒ y + [0,∞[s ⊂ C.

2.3.2 Satz. Sei C ⊂ Rn abgeschlossen und konvex. Dann gilt

C = conv(relbd (C)

)

genau dann, wenn C kein nicht-leerer affiner Unterraum oder Halbunterraum des Rn ist.

Beweis: Ist C ein affiner Unterraum, so gilt relbd (C) = ∅. Ist C hingegen ein Halb-unterraum, und H+ ein zugehoriger Halbraum, so gilt relbd (C) = aff (C)∩bd (H+) 6= C.

Sei nun K := conv(relbd (C)

). Da C abgeschlossen ist, gilt relbd (C) ⊂ C; aus der

Konvexitat folgt daher K ⊂ C. Wir nehmen an, dass die umgekehrte Inklusion nichtgelte. Da relbd (C) ⊂ K ist, sei

y ∈ relint (C) \K.

Nach Korollar 2.2.9 gibt es eine {y} und K trennende Hyperebene mit Normale in (−y)+

aff (C). Sei also H≤(a,β) ein abgeschlossener Halbraum mit

y ∈ H≤(a,β) ∧ K ⊂ H≥

(a,β).

Ist z ∈ H<(a,β) ∩ aff (C), so folgt

conv({y,z}

)∩ relbd (C) ⊂ conv

({y,z}

)∩K = ∅,

d.h. z ∈ relint (C). Somit gilt

H<(a,β) ∩ aff (C) ⊂ C.

Da C abgeschlossen und konvex ist, gilt nach Bemerkung 2.3.1 fur jeden Punkt c ∈relbd (C)

c+(H≤

(a,0) ∩ aff (C))⊂ C.

Somit ist C ein (nicht-leerer) affiner Unterraum oder Halbunterraum des Rn.

2.3.3 Definition. Seien C ⊂ Rn konvex, x ∈ C und

F (x) :=⋃{

conv({y,z}

): y,z ∈ C ∧ x ∈ relint

(

conv({y,z}

))}

.

Dann heißt F (x) Seite von x in C [engl.: face]. Ist k ∈ N0 und dim(

aff(F (x)

))

= k,

so wird F (x) auch k-Seite von C genannt. Zur besonderen Kennzeichnung von C wirdbisweilen auch FC(x) geschrieben.

Gilt F (x) = {x}, so heißt x Extremalpunkt [engl.: extreme point] von C. DieMenge der Extremalpunkte von C wird mit ext (C) bezeichnet.

Ist F (x) ein Strahl, so heißt F (x) Extremalstrahl [engl.: extreme ray] von C.Eine Menge F ⊂ C heißt Seite von C, wenn F = ∅ ist, oder wenn es einen Punkt

x ∈ C gibt mit F = F (x). ∅ und C werden auch uneigentliche Seiten von C genannt,alle ubrigen eigentliche Seiten von C.

Page 31: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

2.3 Darstellungssatze 31

2.3.4 Beispiel. Wir bestimmen die eigentlichen Seiten von Bn. Seien x ∈ Sn−1 undy,z ∈ Bn, λ ∈]0,1[ mit x = λy + (1 − λ)z. Nach der Cauchy-Schwarzschen Ungleichunggilt

1 = xTx = xT(λy + (1 − λ)z

)≤ λ‖y‖ + (1 − λ)‖z‖ ≤ 1

mit Gleichheit genau dann, wenn y,z ∈ Sn−1 ∩ Rx gilt. Es folgt y = z = x. Jeder Rand-punkt von Bn ist also Extremalpunkt; Bn besitzt daher nur k-Seiten fur k ∈ {−1,0,n}.

2.7 Abbildung Fett hervorgehoben sind (links) die Menge der Extremalpunkte (zweiKreisbogen und zwei Eckpunkte) und (rechts) die vier 1-dimensionalen Seiten der abgebildeten2-dimensionalen Menge C. Die vier eingekreisten Extremalpunkte (links) sind nicht Durchschnittvon C mit einer Stutzgeraden.

Fur jeden Extremalpunkt x von Bn gilt {x} = Bn∩H(x,1), d.h. jede eigentliche Seitenvon Bn ist Durchschnitt mit einer Stutzhyperebene. Abbildung 2.9 zeigt eine andere 2-dimensionale kompakte konvexe Menge und ihre eigentlichen Seiten, die Extremalpunkteenthalt, fur die das nicht der Fall ist.5

2.3.5 Bemerkung. Seien C ⊂ Rn konvex und x ∈ Rn. x ist Extremalpunkt von Cgenau dann, wenn x ∈ C ist und

x 6∈ conv(C \ {x}

)

gilt, d.h. wenn

y1,y2 ∈ C ∧ λ ∈ ]0,1[ ∧ x = λy1 + (1 − λ)y2 =⇒ x = y1 = y2

Ist C nicht einpunktig, so liegen insbesondere die Extremalpunkte von C in relbd (C).

2.3.6 Lemma. Sei C ⊂ Rn konvex. Dann gelten die folgenden Aussagen:

(a) Ist H eine Stutzhyperebene an C, so ist C ∩H eine Seite von C.

(b) Seien S eine Seite von C und T eine Seite von S. Dann ist T eine Seite von C.

Beweis: (a) Seien H = H(a,β), H+ der zugehorige Stutzhalbraum, x ∈ relint (C∩H)

und y,z ∈ C, λ ∈]0,1[ mit x = λy + (1 − λ)z. Aus β = aTx = λaT y + (1 − λ)aT z ≤ βfolgt y,z ∈ H . Es folgt C ∩ H ⊂ F (x). Sei umgekehrt y ∈ C ∩ H . Dann gilt x ∈

relint(

C ∩ aff({y,x}

))

, und es folgt y ∈ F (x). Insgesamt gilt also C ∩H = F (x).

5 Hier zeigt sich der Unterschied zwischen Seiten und so genannten ‘exponierten’ Seiten.

Page 32: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

32 2 Konvexitatstheorie

(b) Seien s ∈ C und t ∈ S mit S = FC(s) und T = FS(t). Ferner seien y,z ∈ C mit

t ∈ relint(

conv({y,z}

))

. Da t ∈ S ist, gibt es ein v ∈ S mit s ∈ relint(

conv({t,v}

))

. Sei

D := conv({v,y,z}

). Da t ∈ relint

(

conv({y,z}

))

ist, die Gerade aff({t,v}

)die Punkte

y und z in aff (D) also streng trennt, gilt s ∈ relint (D). Der Punkt s ist daher jeweilsrelativ innerer Punkt der Intervalle D ∩ aff

{s,y}

)und D ∩ aff

{s,z}

), und es gibt somit

Punkte y,z ∈ C mit s ∈ relint(

conv({y,y}

))

und s ∈ relint(

conv({z,z}

))

. Somit gilt

y,z ∈ S, und es folgt die Behauptung.

2.3.7 Korollar. Seien C ⊂ Rn konvex und p+ [0,∞[q ein Extremalstrahl von C. Dannist p ein Extremalpunkt von C.

2.3.8 Lemma. Seien C ⊂ Rn konvex und x ∈ C. Dann ist F (x) konvex, und es giltx ∈ relint

(F (x)

). Ist C abgeschlossen, so ist auch F (x) abgeschlossen.

Beweis: Fur Extremalpunkte ist die Aussage trivial. Sei daher x kein Extremalpunktvon C. Sei S := conv

(F (x)

). Da C konvex ist, gilt S ⊂ C. Angenommen, x 6∈ relint (S),

d.h. x ∈ relbd (S). Nach Satz 2.2.13 gibt es eine eigentliche Stutzhyperebene H an S inx. Aus der Definition von F (x) folgt aber dann F (x) ⊂ H , also S ⊂ H , im Widerspruchdazu, dass H eigentlich ist. Somit gilt x ∈ relint (S), und insbesondere schneidet jedeGerade G mit G ⊂ aff

(F (x)

)und x ∈ G die Menge S in einem Intervall positiver Lange,

und es gilt x ∈ relint (C ∩G). Hieraus folgt F (x) = S sowie x ∈ relint(F (x)

).

Zum Beweis der letzten Behauptung sei y ∈ cl(F (x)

). Da C abgeschlossen ist, folgt

y ∈ C. Ferner ist x relativ innerer Punkt von(x+ R(y − x)

)∩ C, d.h. es gibt ein z ∈ C

mit x ∈ relint(

conv({y,z}

))

. Insgesamt folgt damit die Behauptung.

2.3.9 Korollar. Seien C ⊂ Rn konvex und x ∈ C. Dann gelten die folgenden Aussagen:

(a) F (x) = C ∩ aff(F (x)

);

(b) x ∈ relint(F (x)

)⇒ F (x) = F (x).

Beweis: (a) Naturlich gilt F (x) ⊂ C∩aff(F (x)

). Sei andererseits y ∈ C∩aff

(F (x)

).

Nach Lemma 2.3.8 ist x ∈ relint(F (x)

). Somit ist x relativ innerer Punkt des Intervalls

C ∩ aff{x,y}

), und es folgt y ∈ F (x).

(b) Sei y ∈ F (x). Dann gilt x ∈ relint(

C∩aff{x,y}

))

, und es folgt y ∈ F (x). Damit

gilt F (x) ⊂ F (x).Die umgekehrte Inklusion folgt durch Vertauschung der Rollen von x und x, wenn

noch x ∈ relint(F (x)

)gezeigt wird. Ware aber x ∈ relbd

(F (x)

), so gabe es nach Korollar

2.2.13 eine Hyperebene H mit zugehorigem abgeschlossenen Halbraum H+, so dass

F (x) ⊂ H+ ∧ F (x) 6⊂ H ∧ F (x) ⊂ H.

Das ist aber ein Widerspruch, denn zu keinem Punkt y ∈ F (x) ∩ int (H+) kann es einen

Punkt z ∈ F (x) geben mit x ∈ relint(

C ∩ aff{y,z}

))

.

2.3.10 Definition. Seien C ⊂ Rn abgeschlossen und konvex.

Page 33: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

2.3 Darstellungssatze 33

(a) Ist c ∈ C, so heißt der (bez. Inklusion) großte in (−c) + C enthaltene lineare Teil-raum bzw. Kegel Linealitatsraum [engl.: lineality space] bzw. Rezessionskegel[engl.: recession cone] von C; er wird mit ls (C) bzw. rec (C) bezeichnet.

(b) Gilt C = ∅ oder (C 6= ∅ ∧ ls (C) = {0}), so heißt C geradenfrei [engl.: line free].

2.8 Abbildung Rezessionskegel rec (P ) (rechts) eines Polyeders P (links). In der Mitte istrec (P ) an jedem Extremalpunkt von P abgetragen.

2.3.11 Bemerkung. Sei C ⊂ Rn abgeschlossen, konvex und nicht leer. Dann gilt

ls (C) = ls(rec (C)

).

2.3.12 Bemerkung. Seien A ∈ Rm×n, b ∈ Rm und P := {x : Ax ≤ b} 6= ∅. Danngilt ls (P ) = ker(A) und rec (P ) = {x ∈ Rn : Ax ≤ 0}. Insbesondere ist P genau danngeradenfrei, wenn rang (A) = n ist.

2.3.13 Lemma. Seien C ⊂ Rn nicht leer, abgeschlossen und konvex und K := C ∩(ls (C)

)⊥. Dann ist K geradenfrei, abgeschlossen und konvex, und es gilt

C = K + ls (C).

Beweis: Als Durchschnitt von zwei abgeschlossenen, konvexen Mengen ist K abge-schlossen und konvex. Enthielte K eine Gerade G, so ware nach Bemerkung 2.3.1

ls (C) $ ls (G) + ls (C) ⊂ ls (C),

im Widerspruch zur Definition des Linealitatsraums. K ist also geradenfrei.Nach Bemerkung 2.3.1 gilt fur jeden Punkt x ∈ C auch x+ ls (C) ⊂ C; es folgt

K + ls (C) ⊂ C.

Sei andererseits x ∈ C. Das orthogonale Komplement(ls (C)

)⊥schneidet x + ls (C) in

genau einem Punkt; sei y ∈ K mit

(x+ ls (C)

)∩(ls (C)

)⊥= {y}.

Page 34: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

34 2 Konvexitatstheorie

Dann gilt x ∈ y + ls (C). Somit ist auch

C ⊂ K + ls (C)

und es folgt die Behauptung.

2.3.14 Satz. Seien C ⊂ Rn abgeschlossen, konvex und geradenfrei, und R bezeichne dieVereinigung aller Extremalstrahlen von C. Dann gilt

C = conv(ext (C) ∪R

).

Beweis: Naturlich gilt conv(ext (C) ∪R

)⊂ C.

Wir beweisen die umgekehrte Inklusion durch vollstandige Induktion nach der Di-mension k von C. Offenbar sind die Falle k ∈ {−1,0,1} trivial. Wir nehmen also an,die Behauptung sei fur alle k ∈ N mit k ≤ k0 ∈ N bereits bewiesen, und es sei C eineabgeschlossene, konvexe Teilmenge des Rn der Dimension k0 + 1.

Nach Satz 2.3.2 gilt C = conv (relbd (C)). Sei also x ∈ relbd (C). Nach Satz 2.2.13existiert eine eine Stutzhyperebene an C in x, die C nicht ganz enthalt; H sei eine solche.Seien EH die Menge der Extremalpunkte sowie RH die Vereinigung aller Extremalstrah-len von C ∩H . Aus Lemma 2.3.6 und der Induktionsvoraussetzung folgt somit

x ∈ C ∩H = conv(EH ∪RH

)⊂ conv

(ext (C) ∪R

),

und damit die Behauptung.

2.3.15 Korollar. Sei C ⊂ Rn abgeschlossen und konvex. C besitzt genau dann einenExtremalpunkt, wenn C geradenfrei und nicht leer ist.

Beweis: ‘⇒’ Da C einen Extremalpunkt besitzt, ist C 6= ∅. Aus Bemerkung 2.3.1folgt ferner, dass C geradenfrei ist.

‘⇐’ Nach Satz 2.3.14 ist C die konvexe Hulle seiner Extremalpunkte und Extre-malstrahlen, und nach Korollar 2.3.7 gilt ext (C) 6= ∅.

2.3.16 Korollar. Seien C ⊂ Rn nicht leer, abgeschlossen und konvex, K := C∩(ls (C)

)⊥,

und Y ⊂ Rn \{0}, so dass fur jeden Extremalstrahl S von rec (K) ein y ∈ Y existiert mitS = [0,∞[y. (Y enthalt also fur jeden Extremalstrahl von rec (K) einen Richtungsvektor.)Ferner sei Z eine Basis von ls (C). Dann gilt

C = conv(ext (K)

)+ rec (C) = conv

(ext (K)

)+ rec (K) + ls (C)

= conv(ext (K)

)+ pos (Y ) + lin (Z).

Beweis: Sei R die Vereinigung aller Extremalstrahlen von K. Nach Lemma 2.3.13ist C = K + ls (C), und nach Satz 2.3.14 gilt K = conv

(ext (K) ∪ R

)sowie rec (K) =

conv([0,∞[Y

)= pos (Y ).

Durch Anwendung von Lemma 2.3.13 auf rec (C) und Bemerkung 2.3.11 erhaltenwir

rec (C) =

(

rec (C) ∩(

ls(rec (C)

))⊥)

+ ls(rec (C)

)=(

rec (C) ∩(ls (C)

)⊥)

+ ls (C)

= rec (K) + ls (C).

Page 35: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

2.3 Darstellungssatze 35

Es bleibt somit nur noch zu zeigen, dass

conv(ext (K) ∪R

)= conv

(ext (K)

)+ rec (K)

gilt. Die Inklusion ‘⊃’ folgt mit Satz 2.3.14 und Bemerkung 2.3.1 aus ext (K)+rec (K) ⊂K. Ist umgekehrt S := x+ [0,∞[y ein Extremalstrahl von K, so folgt mit Korollar 2.3.7S ⊂ ext (K) + rec (K), und damit auch die Inklusion ‘⊂’.

Insgesamt ist damit die Behauptung bewiesen.

2.3.17 Korollar. (Minkowski)Jede kompakte konvexe Teilmenge des Rn ist die konvexe Hulle ihrer Extremalpunkte.

2.3.18 Korollar. Ist der zulassige Bereich einer linear-konvexen Maximierungsaufgabegeradenfrei und existiert ein Maximalpunkt, so gibt es einen Extremalpunkt, der optimalist.

Beweis: Seien C der zulassige Bereich, c der Zielfunktionsvektor der gegebenen Auf-gabe, x∗ Maximalpunkt und γ∗ = cTx∗. Gilt c = 0, so sei H := Rn; andernfalls seiH := H(c,γ∗). In jedem Fall ist die Menge C ∩ H der Maximalpunkte nicht leer undgeradenfrei. Mit Korollar 2.3.15 folgt die Behauptung.

2.3.19 Beispiel. Sei

C := {x = (ξ1,ξ2)T ∈ R2 : ξ1 ≥ 1 ∧ 0 ≤ ξ1ξ2 ≤ ξ1 − 1}.

Ferner sei ϕ : R2 → R fur x = (ξ1,ξ2)T ∈ R2 gegeben durch ϕ(x) := ξ2. Dann gilt

maxx∈C

ϕ(x) = 1 ∧ ξ2 < 1.

Das Maximum 1 der Zielfunktion wird also nicht angenommen.

2.3.20 Satz. Seien n,m ∈ N, a1, . . . ,am ∈ Rn\{0},A := (a1, . . . ,am)T , b := (β1, . . . ,βm)T ∈Rm und P := {x ∈ Rn : Ax ≤ b}. Sei x ∈ P . Dann gilt

aff(F (x)

)= S=(x) ∧ F (x) = P ∩ S=(x).

Beweis: Es reicht zu zeigen, dass aff(F (x)

)= S=(x) gilt. Die zweite Behauptung

folgt dann aus Korollar 2.3.9 (a).Nach Lemma 2.3.8 ist x relativ innerer Punkt von F (x). Seien dim

(F (x)

)= k,

y1, . . . ,yk ∈ Rn linear unabhangig und µ ∈]0,∞[ mit

j ∈ {1, . . . ,k} ⇒ x+ [−µ,µ]yj ⊂ F (x).

Dann gilt fur alle i ∈ I(x) und j ∈ {1, . . . ,k}

aTi (x± µyj) = βi ± µaT

i yj ≤ βi

also aTi y1 = . . . = aT

i yk = 0, und es folgt

aff(F (x)

)⊂ S=(x).

Page 36: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

36 2 Konvexitatstheorie

Seien umgekehrt y ∈ S=(x), z := y − x und µ ∈]0,∞[. Dann gilt fur jedes i ∈ I(x)

aTi (x± µz) = βi

(i ∈ I(x)

)

aTi (x± µz) < βi ± µaT

i z(i 6∈ I(x)

).

Fur hinreichend kleines positives µ ist somit x ± µz ∈ P , und es folgt y ∈ aff(F (x)

).

Insgesamt ist damit S=(x) = aff(F (x)

)bewiesen.

2.3.21 Korollar. Polyeder besitzen hochstens endlich viele Seiten.

2.3.22 Bemerkung. Seien n,m ∈ N, a1, . . . ,am ∈ Rn \ {0}, A := (a1, . . . ,am)T , b :=(β1, . . . ,βm)T ∈ Rm und P := {x ∈ Rn : Ax ≤ b}. Ferner seien x ∈ relbd (P ) unda ∈ relint

(NP (x)

). Dann gilt

F (x) = P ∩H(a,aT x).

Beweis: Nach Satz 2.3.20 gilt F (x) = P∩S=(x); wir zeigen P∩S=(x) = P∩H(a,aT x).Gemaß Lemma 2.2.28 seien λi ∈ [0,∞[ fur i ∈ I(x) mit a =

i∈I(x) λiai. Dann gilt fur

y ∈ S=(x)

aT y =∑

i∈I(x)

λiaTi y =

i∈I(x)

λiaTi x = aTx,

d.h. y ∈ H(a,aT x), und es folgt P ∩ S=(x) ⊂ P ∩H(a,aT x).

Sei nun umgekehrt y ∈ P ∩H(a,aT x). Angenommen es gabe ein i0 ∈ I(x) mit aTi0y <

βi0 = aTi0x. Da a ∈ relint

(NP (x)

)ist, gibt es z ∈ NP (x) und λ ∈]0,1[ mit a = λai0 +

(1 − λ)z, und es folgt

aT y = λaTi0y + (1 − λ)zT y < λaT

i0x+ (1 − λ)zTx = aTx.

Somit gilt y 6∈ H(a,aT x), im Widerspruch zur Wahl von y. Insgesamt folgt damit dieBehauptung.

2.3.23 Korollar. Seien P ⊂ Rn ein Polyeder und F ⊂ P . F ist genau dann eineeigentliche Seite von P , wenn es eine eigentliche Stutzhyperbene H an P gibt mit P∩H =F .

2.3.24 Bezeichnung. Sei P ⊂ Rn ein Polyeder. Jede 0-Seite von P heißt Ecke [engl.:vertex], jede 1-Seite Kante [engl.: edge] und jede dim(P )− 1-Seite Facette [engl.: edge]von P .

2.3.25 Bemerkung. Sei P ein Polyeder des Rn. P besitzt genau dann eine Ecke, wennP 6= ∅ und rang (A) = n gilt.

Beweis: Die Behauptung folgt aus Bemerkung 2.3.12 und Korollar 2.3.15.

2.3.26 Beispiel. Wir betrachten noch einmal das Polytop (in der H-Darstellung) ausBeispiel 1.2.2.

Page 37: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

2.3 Darstellungssatze 37

max ξ1 + ξ2 + ξ3

ξ1 + 2ξ2 + ξ3 ≤ 3 (1)−2ξ1 + ξ2 ≤ 0 (2)ξ1 ≤ 1 (3)

ξ2 ≤ 1 (4)ξ3 ≤ 1 (5)

−ξ1 ≤ 0 (6)−ξ2 ≤ 0 (7)

−ξ3 ≤ 0 (8)

Sei

x∗ :=

(

1,3

4,1

2

)T

.

Dann gilt x∗ ∈ P , I(x∗) = {1,3}, und S=(x∗) ist durch die beiden Gleichungen

ξ1 + 2ξ2 + ξ3 = 3ξ1 = 1

beschrieben. Als Losung dieses Teilsystems erhalt man

S=(x∗) = aff(F (x∗)

)=

102

+ R

01

−2

.

Bezeichnen wir den reellen Parameter mit λ, so ergeben sich aus den Bedingungen (2),(4), (5), (7) und (8) die folgenden Restriktionen:

λ ≤ 2 ∧ λ ≤ 1 ∧ λ ≥ 1/2 ∧ λ ≥ 0 ∧ λ ≤ 1;

Ungleichung (6) ist keine Einschrankung. Es folgt

F (x∗) = conv

11/21

,

110

.

Die Ecke v := (1,1,0)T ist Durchschnitt der vier Hyperebenen

ξ1 + 2ξ2 + ξ3 = 3ξ1 = 1

ξ2 = 1ξ3 = 0,

d.h. es gilt I(v) = {1,3,4,8}. Jeweils drei dieser Gleichungen bestimmen v aber bereitseindeutig; die gegebene Darstellung von S=(v) ist also redundant.

2.3.27 Korollar. Sei P ein Polyeder im Rn. Dann existieren endliche Teilmengen V ,Y und Z des Rn, so dass

P = conv (V ) + pos (Y ) + lin (Z).

Page 38: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

38 2 Konvexitatstheorie

(1, 34 ,

12

)T

(1,1,0)T

2.9 Abbildung Seiten, relativ innere Punkte und affinen Hullen.

Seien P 6= ∅ und k := n − rang (A). Ist k = n, so folgt Z = {0}. Andernfalls seienz1, . . . ,zk eine Basis des Losungsraums des homogenen Gleichungssystems Ax = 0, undZ kann gleich {z1, . . . ,zk} gwahlt werden. Ferner seien A := A und b := b fur k = 0

und A := (AT ,z1, . . . ,zk)T ∈ R(m+k)×n und b := (bT ,0, . . . ,0)T ∈ Rm+k fur k ≥ 1. Dann

konnen die Elemente von V und Y als Losungen von n × n Teilsystemen von Ax = bvom Rang n bzw. n− 1 Teilsystemen von Ax = 0 vom Rang n− 1 gewahlt werden.

Beweis: Die Behauptung ist trivial fur P = ∅. Seien daher P 6= ∅, Z := {0} fur

ls (P ) = {0} bzw. eine Basis von ls (P ) und Q := P ∩(lin (Z)

)⊥. Dann sind Q ein

geradenfreies Polyeder und rec (P ) ein polyederischer Kegel. Seien V die Menge der Eckenvon Q und Y := {0} fur rec (Q) = {0}. Gilt rec (Q) 6= {0}, so sei Y ⊂ Rn \ {0} undenthalte fur jede Kante von rec (Q) einen Richtungsvektor. Dann gilt nach Korollar 2.3.16

P = conv (V ) + pos (Y ) + lin (Z).

Nach Bemerkung 2.3.12 ist ls (P ) = ker(A). Mit k = dim(ls (P )

)folgt, dass die Wahl

Z = {0} bzw. Z = {z1, . . . ,zk} zulassig ist. Nach Satz 2.3.20 ist jede Ecke von Q Losung

eines n× n Teilsystems von Ax = b mit einer Teilmatrix vom Rang n. Nach Bemerkung2.3.12 gilt ferner rec (Q) = {x : Ax ≤ b}. Die affine Hulle jeder Kante von rec (Q) istsomit, wieder nach Satz 2.3.20, die Losungsmenge eines (n − 1) × n Teilsystems vonAx = 0 mit einer Teilmatrix vom Rang n−1. Insgesamt folgt damit die Behauptung.

2.3.28 Bezeichnung. Seien P ⊂ Rn und V , S endliche Teilmengen des Rn. Gilt

P = conv (V ) + pos (S),

so heißt P V-Polyeder [engl.: V-polyhedron]. Sind P ein Polyeder und V , S endlicheTeilmengen des Rn mit

P = conv (V ) + pos (S),

so heißt (n;V,S) eine V-Darstellung [engl.: V-presentation] von P .Ist (n;V,S) eine V-Darstellung von P und existiert keine V-Darstellung (n;V ′,S′)

von P mit V ′ ( V oder S′ ( S, so heißt (n;V,S) irredundant [engl.: irredundant].

Page 39: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

2.3 Darstellungssatze 39

2.3.29 Satz. Sei P ⊂ Rn. P ist genau dann ein H-Polyeder, wenn P ein V-Polyederist.

Beweis: Fur P = ∅ ist die Aussage trivial. Sei also im folgenden P 6= ∅.‘⇒’ folgt aus Korollar 2.3.27.‘⇐’ Seien V := {v1, . . . ,vp} und S := {s1, . . . ,sq} endliche Teilmengen des Rn mit

P = conv (V ) + pos (S). Ferner seien A1 := (v1, . . . ,vp), A2 := (s1, . . . ,sq) sowie

Q =

xyz

: x ∈ Rn ∧ y ∈ Rp ∧ z ∈ Rq ∧ x = A1y +A2z ∧ y,z ≥ 0 ∧ 1T y = 1

.

Da Q durch die linearen Bedingungen

x − A1y − A2z = 01

T y = 1y ≥ 0

z ≥ 0

gegeben ist, ist Q ein H-Polyeder, und P ist die Orthogonalprojektion von Q auf denRn der Koordinaten x. Nach Korollar 1.3.14 ist P ein H-Polyeder, und es folgt dieBehauptung.

2.3.30 Korollar. Die Anzahl der in der Fourier-Motzkin-Elimination auftretenden Ope-rationen kann exponentiell mit der Anzahl der Ungleichungen des Ausgangssystems wach-sen, selbst dann, wenn die Koeffizientenmatrix nur Komponenten aus {−1,0,1} besitzt.

Beweis: Wir wenden die Konstruktion des Beweises von Satz 2.3.29 auf P :=conv

({±u1, . . . , ± un}

), d.h. auf das Standard-Kreuzpolytop Qn des Rn an. Gemaß

Bemerkung 1.3.5 uberfuhrt die Fourier-Motzkin-Elimination das lineare System

x − (En,− En)y = 01

T y = 1y ≥ 0

durch Elimination von y in 2n Schritten in eine H-Darstellung von Qn. Nach Lemma2.1.8 gilt

Qn ={x ∈ Rn : y ∈ {−1,1}n ⇒ yTx ≤ 1

}.

Keine dieser Ungleichungen ist redundant, d.h. Qn hat 2n Facetten. Das Ausgangssy-stem besteht aus n + 1 Gleichungen und 2n Ungleichungen (oder, wenn man mochte,4n + 2 Ungleichungen) in 3n Variablen. Von den hieraus in 2n Schritten entstehendenUngleichungen sind aber 2n irredundant.

2.3.31 Satz. Durch (n,m,A,b,c) sei eine lineare Optimierungsaufgabe in naturlicher Formspezifiziert; seien P := {x ∈ Rn : Ax ≤ b} 6= ∅ und ϕ die durch ϕ(x) := cTx fur x ∈ Rn

definierte Zielfunktion. Sind P geradenfrei und ϕ auf P nach oben beschrankt, so enthaltP eine Ecke, die maximal ist.

Page 40: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

40 2 Konvexitatstheorie

Beweis: Fur c = 0 ist jeder Punkt von P optimal. Mit Korollar 2.3.15 folgt danndie Behauptung.

Im folgenden sei c 6= 0. Ferner sei γ∗ = supx∈P cTx. Nach den Korollaren 2.3.18 und

Korollar 2.3.23 reicht es zu zeigen, dass P ∩H(c,γ∗) 6= ∅ ist.Entsprechend Korollar 2.3.27 seien V := {v1, . . . ,vp} und S := {s1, . . . ,sq} endliche

Teilmengen des Rn mit P = conv (V )+pos (S). Ferner seien λ1, . . . ,λp, µ1, . . . ,µq ∈ [0,∞[mit

∑pi=1 λi = 1. Dann gilt6

cT

p∑

i=1

λivi +

q∑

j=1

µjsj

=

p∑

i=1

λicT vi +

q∑

j=1

µjcT sj ≤ γ∗,

und es folgtx ∈ pos (S) ⇒ cTx ≤ 0.

Nach Korollar 2.3.7 ist V 6= ∅; somit gilt

supx∈P

cTx = supx∈conv (V )

cTx.

Nach Satz 2.1.13 ist conv (V ) kompakt, d.h. ϕ nimmt sein Maximum uber P an.

6 mit der ublichen SetzungP

x∈∅ α(x) = 0

Page 41: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

41

3 Der Simplex-Algorithmus

3.1 Grundstruktur des Algorithmus

3.1.1 Bemerkung. Durch (n,m,A,b,c) sei eine lineare Optimierungsaufgabe in naturli-cher Form spezifiziert; seien

P := {x ∈ Rn : Ax ≤ b} ∧ T := {x ∈ Rn : Ax = 0}⊥ ∧ Q := P ∩ T.

Dann gelten die folgenden Aussagen:

(a) Q ist geradenfrei;

(b) P = ∅ ⇔ Q = ∅;

(c) Q 6= ∅ ⇔ ext (Q) 6= ∅;

(d) Q 6= ∅ ∧ c 6∈ T ⇒ maxx∈P cTx = ∞;

(e) c ∈ T ⇒ maxx∈P cTx = maxx∈Q c

Tx.

3.1.2 Lemma. Durch (n,m,A,b,c) sei eine lineare Optimierungsaufgabe in naturlicherForm spezifiziert, v sei eine Ecke des zulassigen Bereichs P . v ist genau dann nichtbereits Maximalpunkt, wenn es eine Kante K von P gibt mit v ∈ K und cTx > cT v furalle x ∈ K \ {v}.

Beweis: Da ‘⇐’ klar ist, bleibt nur ‘⇒’ zu zeigen.Sei ϕ die durch ϕ(x) := cTx fur x ∈ Rn definierte Zielfunktion.Ist P = {v}, so ist v Maximalpunkt von ϕ bez. P . Wir setzen daher voraus. dass

dim(P ) ≥ 1 gilt. Nach Korollar 2.3.15 bzw. Bemerkung 2.3.25 gilt ls (P ) = {0}. Esfolgt ext

(SP (v)

)= {0}, und nach Lemma 2.2.28 und Korollar 2.3.27 ist SP (v) die

konvexe Hulle seiner Kanten. Seien s1, . . . ,sk ∈ Rn \ {0} mit SP (v) = pos {s1, . . . ,sk}.Gilt cT si ≤ 0 fur alle i = 1, . . . ,k, so ist v Maximalpunkt bez. v + SP (v), nach Lemma2.2.25 also auch bez. P . Ist v nicht Maximalpunkt bez. P , so gibt es daher mindestensein i0 ∈ {1, . . . ,k} mit cT si0 > 0. Sei nun K :=

(v+[0,∞[si0

)∩P . Dann ist K eine Kante

von P , und es folgt die Behauptung.

3.1.3 Bezeichnung. Jede Kante K gemaß Lemma 3.1.2 heißt Verbesserungskante[engl.: improving edge] von P in v.

3.1.4 Definition. Seien P ein nicht leeres, geradenfreies Polyeder, V := ext (P ) und Edie Menge der Kanten1 von P . Dann heißt das Paar (V,E) 1-Skelett [engl.: 1-skeleton]von P . Ferner sei ϕ : Rn → R.

1 Bislang wurden 1-Seiten mit großen lateinischen Buchstaben wie F oder K bezeichnet. Im folgendenwerden wir in Analogie zu den ublichen Bezeichnungen der Graphentheorie die Kanten von P oft mitei bezeichnen.

Page 42: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

42 3 Der Simplex-Algorithmus

Ein bezuglich ϕ aufsteigender (Kanten-) Pfad [engl.: increasing edge path] im1-Skelett von P ist eine Sequenz von einem der folgenden beiden Typen:2

(a) (v0,e1,v1,e2, . . . ,ep,vp) mit v0, . . . ,vp ∈ V und e1, . . . ,ep ∈ E mit ei = conv {vi−1,vi}fur i = 1, . . . ,p und ϕ(v0) < ϕ(v1) < . . . < ϕ(vp);

(b) (v0,e1,v1,e2, . . . ,ep) mit v0, . . . ,vp−1 ∈ V und e1, . . . ,ep ∈ E mit ei = conv {vi−1,vi}fur i = 1, . . . ,p− 1 sowie vp−1 ∈ ep; ferner gilt ϕ(v0) < ϕ(v1) < . . . < ϕ(vp−1), undϕ ist auf ep nach oben unbeschrankt.

Im ersten Fall sprechen wir von einem aufsteigenden Pfad von v0 nach vp, im zweitenvon einem von v0 nach ∞.

3.1.5 Bemerkung. Durch (n,m,A,b,c) sei eine lineare Optimierungsaufgabe in naturli-cher Form spezifiziert, ϕ sei die durch ϕ(x) := cTx fur x ∈ Rn definierte Zielfunktion,und v sei eine (nicht optimale) Ecke des zulassigen Bereichs P . Ist ϕ auf P nach obenbeschrankt, so existiert eine Ecke v∗ von P und ein bez. ϕ aufsteigender Pfad von v nachv∗. Ist ϕ auf P nach oben unbeschrankt, so existiert ein bez. ϕ aufsteigender Pfad von vnach ∞.

3.1.6 Prozedur: Simplex-Algorithmus (geometrische Form)

INPUT: A ∈ Rm×n, b ∈ Rm, c ∈ Rn

P ← {x : Ax ≤ b}, T ← {x : Ax ≤ 0}⊥, Q← P ∩ T

OUTPUT: Ecke v∗ von Q mit maxx∈P cT x = cT v∗, falls eine solche existiert;OR Meldung ‘unzulassig’, falls P = ∅;OR Meldung ‘unbeschrankt’, falls maxx∈P cT x =∞.

BEGIN IF Q = ∅ THEN Meldung ‘unzulassig’ELSE IF c 6∈ T THEN Meldung ‘unbeschrankt’

ELSE sei v eine Ecke von QWHILE v ist nicht optimal DO

BEGINFinde eine Verbesserungskante e von Q in vIF e ist unbeschrankt THEN Meldung ‘unbeschrankt’

ELSE sei w Ecke von Q mit e = conv {v,w}v ← w

ENDOUTPUT v

END

3.1.7 Bemerkung. Durch (n,m,A,b,c) sei eine lineare Optimierungsaufgabe in naturli-cher Form spezifiziert. Der Simplex-Algorithmus in seiner geometrischen Form lost dieAufgabe korrekt in endlich vielen Schritten.

Beweis: Die Korrektheit folgt aus den Bemerkungen 3.1.1 und 3.1.5, die Endlichkeitaus Korollar 2.3.21.

2 Im Sinne von Definition ?? liegt ein Weg vor, wenn die letzte Kante beschrankt ist. Andernfalls mussteext (P ) um je eine Ecke bei ±∞ erganzt werden, mit denen alle unbeschrankten Kanten verbundensind, je nachdem, wie sich die Zielfunktion auf ihnen verhalt.

Page 43: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.1 Grundstruktur des Algorithmus 43

3.1.8 Lemma. Durch (n,m,A,b,c) sei eine lineare Optimierungsaufgabe in naturlicherForm spezifiziert. Seien k := rang (A),

A1,1 ∈ Rk×k ∧ A1,2 ∈ Rk×(n−k) ∧ A2,1 ∈ R(m−k)×k ∧ A2,2 ∈ R(m−k)×(n−k)

mit rang(A1,1

)= k und

A =

(A1,1 A1,2

A2,1 A2,2

)

∧ S1 :=

(A1,1

A2,1

)

∧ S2 :=

(A1,1

A2,1

)

.

Ferner seien

P := {x ∈ Rn : Ax ≤ b} ∧ T := {x ∈ Rn : Ax = 0}⊥ ∧ Q := P ∩ T

und π : Rn → Rk die orthogonale Projektion auf die ersten k Koordinaten. Außerdemseien fur y ∈ Rn

y1 ∈ Rk ∧ y2 ∈ Rn−k ∧ y =

(y1y2

)

.

Dann gelten die folgenden Aussagen.

(a) c ∈ T ⇔ c2 = AT1,2

(AT

1,1

)−1c1.

(b) x ∈ T ⇒ cTx =(c1 +A−1

1,1A1,2c2)Tx1.

(c) Q ={

x : Ax ≤ b ∧ x2 = AT1,2

(AT

1,1

)−1x1

}

.

(d) π|T ist injektiv, und es gilt

π(Q) =

{

x1 ∈ Rk :(

S1 + S2AT1,2

(AT

1,1

)−1)

x1 ≤ b

}

.

Beweis: Es gilt

T =(ker(A)

)⊥= lin {a1, . . . ,ak}.

Somit ist y ∈ T genau dann, wenn ein z ∈ Rk existiert mit y =(A1,1,A1,2

)Tz, d.h.

y1 = AT1,1z ∧ y2 = AT

1,2z.

Da A1,1 regular ist, folgt

y2 = AT1,2z = AT

1,2

(AT

1,1

)−1y1.

Durch Anwendung dieser Beziehung auf y := c und y := x folgen (a), (b), (c) und dieInjektivitat von π auf T . Die zweite Behauptung von (d) ergibt sich mit (c) aus

Q =

{(x1

x2

)

: S1x1 + S2x2 ≤ b ∧ x2 = AT1,2

(AT

1,1

)−1x1

}

=

{(x1

AT1,2

(AT

1,1

)−1x1

)

:(

S1 + S2AT1,2

(AT

1,1

)−1)

x1 ≤ b

}

.

Page 44: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

44 3 Der Simplex-Algorithmus

3.1.9 Beispiel. Fuhren wir den Ubergang gemaß Lemma 3.1.8 zu der dimensionsredu-zierten Aufgabe mit geradenfreiem zulassigen Bereich an dem Beispiel

max −ξ1 + 2ξ2

−2ξ1 + 4ξ2 ≤ 4ξ1 − 2ξ2 ≤ 2

explizit durch, so erhalten wir die transformierte Aufgabe

max −5ξ1

−10ξ1 ≤ 45ξ1 ≤ 2.

Der zulassige Bereich dieser Aufgabe ist das Invervall [− 25 ,

25 ]. Es entsteht durch Projek-

tion von P ∩ T auf die ξ1-Achse.

3.1.10 Lemma. Seien A ∈ Rm×n, b ∈ Rm, P := {x ∈ Rn : Ax ≤ b} Es sei rang (A, −b) = n+ 1 und

Q :=

{

z :=

(x

ξn+1

)

∈ Rn+1 : Ax− b ξn+1 ≤ 0 ∧ ξn+1 ≤ 1

}

oder3 rang (A) = n und

Q :=

{

z :=

(x

ξn+1

)

∈ Rn+1 : Ax− b ξn+1 ≤ 0 ∧ 0 ≤ ξn+1 ≤ 1

}

.

Dann ist 0 Ecke von Q, und es gilt

maxz∈Q

uTn+1z ∈ {0,1} ∧

(

P 6= ∅ ⇔ maxz∈Q

uTn+1z = 1

)

.

Beweis: 4 Es gilt 0 ∈ Q, also auch maxz∈Q uTn+1z ≥ 0. Alle Bedingungen Ax −

b ξn+1 ≤ 0 sowie ξn+1 ≤ 0 im zweiten Fall sind in 0 aktiv. Entweder wegen rang (A,−b) =n+ 1 oder wegen

rang

(A −b0 1

)

= n+ 1

ist 0 nach Satz ?? somit Ecke von Q.Fur 0 < ξn+1 ≤ 1 gilt mit x := ξn+1 · x

Ax− b ξn+1 ≤ 0 ⇔ Ax ≤ b.

Ferner ist P×{1} = Q∩H≥(un+1,1). Hieraus folgen auch die zweite und dritte Aussage.

3.1.11 Bezeichnung. Seien (n,m,A,b) eine H-Darstellung eines Polyeders P und v eineEcke von P . Gilt |I(v)| = n, so heißt v regular, andernfalls uberbestimmt5 [engl.:degenerated]

3 Der Fall rang (A) = rang (A,− b) = n bedeutet, dass bereits Ax = b (eindeutig) losbar. Der Losungs-vektor v ist Ecke von P ; tatsachlich ist −v + P ein Kegel. Wir brauchen also eigentlich kein weiteresHilfsproblem zu losen.

4 Vgl. Bemerkung ??.5 In der Literatur findet man hierfur auch den Begriff entartet oder degeneriert.

Page 45: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.1 Grundstruktur des Algorithmus 45

3.1.12 Bemerkung. Seien A := (a1, . . . ,am)T ∈ Rm×n, b := (β1, . . . ,βm)T ∈ Rm,

P := {x ∈ Rn : Ax ≤ b ∧ x ≥ 0},

Q :=

{

z :=

(xy

)

∈ Rn+m : Ax+ y ≤ b ∧ x ≥ 0 ∧ y ≤ 0

}

und fur i = 1, . . . ,m

ωi :=

{

0 fur βi ≥ 0;

βi fur βi < 0,

sowie

w = (ω1, . . . ,ωm)T ∧ z0 =

(0w

)

.

Dann ist z0 Ecke von Q, und es gilt

max(xT ,yT )T ∈Q

1T y ≤ 0 ∧

(

P 6= ∅ ⇔ max(xT ,yT )T ∈Q

1T y = 0

)

.

Beweis: Fur die Koeffizientenmatrizen von P bzw. Q gilt

rang

(A

−En

)

= n ∧ rang

A Em

−En 00 Em

= n+m.

Nach Konstruktion gilt z0 ∈ Q. Ferner sind alle Bedingungen x ≥ 0 sowie mit y =(η1, . . . ,ηm)T fur jedes i ∈ {1, . . . ,m} mindestens eine der Bedingungen aT

i x + ηi ≤ βi

oder ηi ≤ 0 aktiv. Nach Satz ?? ist z0 somit Ecke von Q. Naturlich folgt aus y ≤ 0 auchmaxz∈Q 1

T y ≤ 0 mit Gleichheit genau dann, wenn es einen Punkt x0 ∈ P gibt, so dass(xT

0 ,0)T ∈ Q gilt. Insgesamt folgt damit die Behauptung.

3.1.13 Beispiel. Gegeben sei die LP-Zulassigkeitsaufgabe

ξ ≤ 1−ξ ≤ 0.

Die in Bemerkung 3.1.12 konstruierte Hilfsaufgabe ist dann

max η1 + η2

ξ + η1 ≤ 1−ξ + η2 ≤ 0

η1 ≤ 0η2 ≤ 0.

Der Punkt (ξ,η1,η2)T = 0 ist (wie nach Bemerkung 3.1.12 zu erwarten) Ecke des zulassi-

gen Bereichs der Hilfsaufgabe.Betrachten wir andererseits die gleiche Zulassigkeitsaussage, aber ohne die Nichtne-

gativitatsbedingung, d.h.ξ ≤ 1,

so ist die zugehorige Hilfsaufgabe

Page 46: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

46 3 Der Simplex-Algorithmus

max η

ξ + η ≤ 1η ≤ 0.

Der Punkt (ξ,η)T = 0 ist zulassig, aber keine Ecke mehr.

3.1.14 Bezeichnung. Seien A := (a1, . . . ,am)T ∈ Rm×n und I ⊂ {1, . . . ,m}. Dann sei

AI := (ai : i ∈ I)T ,

d.h. AI entsteht aus A durch Streichen aller Zeilen, deren Indizes nicht in I liegen.

3.1.15 Lemma. Seien A := (a1, . . . ,am)T mit rang (A) = n, b := (β1, . . . ,βn)T undP = {x ∈ Rn : Ax ≤ b}. Ferner seien M := {1, . . . ,m} und I ⊂ M mit |I| = n, so dassrang

(AI

)= n ist,

v := (ν1, . . . ,νn)T := A−1I bI ∧ J := {i ∈M : aT

i v > βi} ∧ k := |J |.

Die Komponenten der Vektoren y ∈ Rk werden mit den Elementen von J indiziert, d.h.wir schreiben y := (ηi : i ∈ J)T und ferner z := (xT ,yT )T . Seien nun

Q :={

z ∈ Rn+k : (i ∈M \ J ⇒ aTi x ≤ βi) ∧

(i ∈ J ⇒ (aT

i x+ ηi ≤ βi ∧ ηj ≤ 0))}

.

sowie

(i ∈ J ⇒ ωi := βi − aTi v) ∧ w := (ωi : i ∈ J)T ∧ z0 := (vT ,wT )T .

Dann ist z0 Ecke von Q, und es gilt

maxz∈Q

1T y ≤ 0 ∧

(

P 6= ∅ ⇔ maxz∈Q

1T y = 0

)

.

Beweis: Nach Konstruktion gilt z0 ∈ Q, und z0 ist Losung des Gleichungssystems

aTi x = βi (i ∈ I)aT

i x + ηi = βi (i ∈ J).

Da die zugehorige (n + k) × (n + k) Koeffizientenmatrix nach Konstruktion regular ist,ist z0 nach Satz ?? Ecke von Q.

Naturlich folgt aus y ≤ 0 auch maxz∈Q 1T y ≤ 0 mit Gleichheit genau dann, wenn es

einen Punkt x0 ∈ P gibt, so dass (xT0 ,0)T ∈ Q gilt. Insgesamt folgt damit die Behauptung.

3.1.16 Beispiel. Sei P gegeben durch die Bedingungen

ξ1 + ξ2 ≤ 2−ξ1 ≤ 0

− ξ2 ≤ 0ξ1 ≤ 1

Die Koeffizientenmatrix hat Rang 2, und wir konnen etwa I := {1,3} wahlen. Dann gilt

Page 47: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.2 Finden einer Verbesserungskante 47

3.1 Abbildung Die zulassigen Bereiche P (dunkle Flache in der (ξi,ξ2)-Ebene) und Q. DerAusgangspunkt v und die Ecke z0 (schwarz) sind hervorgehoben.

AI =

(1 10 −1

)

= A−1I ∧ v =

(1 10 −1

)(20

)

=

(20

)

.

Da v die ersten drei Bedingungen erfullt, nicht aber die letzte, erhalten wir die Hilfsauf-gabe

max η

ξ1 + ξ2 ≤ 2−ξ1 ≤ 0

− ξ2 ≤ 0ξ1 + η ≤ 1

η ≤ 0.

Der Vektor z0 = (2,0,− 1)T ist Ecke des zulassigen Bereichs Q. Die von z0 ausgehendenKanten haben die Richtungen

−101

,

−111

,

00

−1

.

Die beiden ersten sind beschrankt, und man erreicht uber jede jede von ihnen eine Eckevon P × {0}, die dann als Startecke fur den Simplex-Algorithmus jeder LP-Aufgabe uberP verwenden kann.

3.2 Finden einer Verbesserungskante

3.2.1 Notation. Durch (n,m,A,b,c) sei eine LP-Aufgabe in naturlicher Form spezifi-ziert. Es seien M := {1, . . . ,m}, a1, . . . ,am ∈ Rn\{0} mit A = (a1, . . . ,am)T , β1, . . . ,βm ∈R mit b = (β1, . . . ,βm)T , P := {x ∈ Rn : Ax ≤ b}, γ1, . . . ,γn ∈ R mit c = (γ1, . . . ,γn)T

und ϕ : Rn → R bezeichne die durch ϕ(x) := cTx fur alle x ∈ Rn definierte Zielfunktion.Sei ferner v eine Ecke von P .

Page 48: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

48 3 Der Simplex-Algorithmus

3.2.2 Beispiel. Seien n ≥ 2 und

C :=

n−1⋂

i=1

{x = (ξ1, . . . ,ξn)T : ±ξi − ξn ≤ 0

}.

Fur jeden Punkt x ∈ C gilt uTnx ≥ 0 mit Gleichheit genau fur x = 0. Genauer ist C der

vom (n− 1)-dimensionalen Wurfel [−1,1]n−1 × {1} erzeugte Kegel, d.h.

C = pos([−1,1]n−1 × {1}

).

C besitzt 2n−1 Kanten, die von seiner Ecke 0 ausgehen.

3.2.3 Bemerkung. Seien d := (cT ,0)T und

Q :=

{

z :=

(x

ξn+1

)

∈ Rn+1 : Ax− (b−Av) ξn+1 ≤ 0 ∧ 0 ≤ ξn+1 ≤ 1

}

.

Dann ist 0 Ecke von Q und genau dann Optimalpunkt in Q bez. der durch z 7→ dT zgegebenen Zielfunktion, wenn v Optimalpunkt von P bez. ϕ ist. Andernfalls gibt es eineVerbesserungskante K von Q in 0 mit

maxx∈P

cTx = cT v + maxz∈K

dT z = cT v + maxz∈Q

dT z.

Beweis: Dass 0 Ecke von Q ist, folgt aus Lemma 3.1.10. Ist w eine Ecke von P , soist [0,1](wT ,1)T eine Kante von P . Umgekehrt fuhrt jede Kante von Q mit Endpunkt 0,die nicht in H(un+1,0) enthalten ist, zu einer Ecke von P × {1}. Seien s ∈ Rn \ {0}, und

z := (sT ,0)T liege in einer Kante von Q liegt. Dann gilt [0,∞[z ⊂ Q und s ∈ ls (P ).Andererseits ist jeder Punkt z ∈ Q∩H>

(un+1,0) von der Form λ(xT ,1)T mit x ∈ −v+P

und 0 < λ ≤ 1, und es folgt fur cTx ≥ 0

dT z = λcTx ≤ cTx.

Ausmax

x∈−v+PcTx = max

z∈(−v+P )×{1}dTx ≤ max

z∈QdT z

folgt nun die Behauptung.

3.2.4 Definition. Sei C ein polyedrischer Kegel im Rn. C heißt simplizial [engl.: sim-plicial], wenn C eine H-Darstellung (n,n,T,0) besitzt mit rang (T ) = n.

3.2.5 Bemerkung. Sei C ein simplizialer Kegel im Rn. Dann ist 0 eine regulare Eckevon C und C besitzt genau n Kanten.

3.2.6 Definition. Seien B := B(v) ⊂ I(v) und N := M \B. B heißt genau dann Basis[engl.: basis] von v, wenn |B| = n gilt und {ai : i ∈ B} linear unabhangig ist.

Sei B eine Basis von v. Dann heißt AB (zu B gehorige) Basisteilmatrix [engl.:basis submatrix] von A.6 Die Ecke v wird auch zulassige Basislosung [engl.: basicfeasible solution] des linearen Ungleichungssystems Ax ≤ b genannt. Die zu B gehorigenRestriktionen aT

i x ≤ βi (i ∈ B) heißen Basisrestriktionen [engl.: basis constraints],die zu N gehorigen Nichtbasisrestriktionen [engl.: non basis constraints]. Das Glei-chungssystem ABx = bB heißt Basisgleichung [engl.: basis equation].

6 Bisweilen werden B, {ai : i ∈ B} und AB identifiziert, und man spricht etwa auch von {ai : i ∈ B}als Basis von v.

Page 49: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.2 Finden einer Verbesserungskante 49

3.2.7 Bemerkung. Sei B eine Basis von v. Dann gilt v = A−1B bB.

3.2.8 Beispiel. Wir betrachten erneut das Produktionsproblem von Beispiel 1.2.2.

max ξ1 + ξ2 + ξ3

ξ1 + 2ξ2 + ξ3 ≤ 3 (1)−2ξ1 + ξ2 ≤ 0 (2)ξ1 ≤ 1 (3)

ξ2 ≤ 1 (4)ξ3 ≤ 1 (5)

−ξ1 ≤ 0 (6)−ξ2 ≤ 0 (7)

−ξ3 ≤ 0 (8)

Der zulassige Bereich ist ein Polytop mit 9 Ecken v1, . . . ,v9 und 7 Facetten. Die Unglei-chung (6) ist redundant.

(v7; 1/2,1,1/2; 2)

(v1; 0,0,0; 0)

(v8; 2/5,4/5,1; 11/5)

(v4; 1/2,1,0; 3/2)

(v6; 1,1,0; 2)

(v2; 0,0,1; 1)

(v5; 1,0,1; 2)(v9; 1,1/2,1; 5/2)

(v3; 1,0,0; 1)

3.2 Abbildung Zulassiger Bereich der Produktionsaufgabe.

In Abbildung 3.2 werden fur k = 1, . . . ,9 die Koordinaten der Ecke vk und diezugehorigen Zielfunktionswerte in der Form (vk; νk1,νk2,νk3; γk) angegeben, d.h.

vk := (νk1,νk2,νk3)T ∧ γk := cT vk.

Die Ecke v9 etwa ist durch die Bedingungen (1), (3) und (5) gegeben. Wir habenalso

B = {1,3,5} ∧ AB =

1 2 11 0 00 0 1

∧ bB =

311

und

A−1B =

0 1 01/2 −1/2 −1/20 0 1

∧ v9 = A−1B bB =

11/21

.

Page 50: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

50 3 Der Simplex-Algorithmus

Zu v9 gehort eine eindeutig bestimmte Basis; die Ecke v6 hingegen kann man (wie wirbereits in Beispiel 2.3.26 erkannt hatten) auf verschiedene Weisen als Durchschnitt vondrei Restriktionsgleichungen darstellen, da fur sie mehr als drei der Restriktionen aktivsind. Genauer gilt I(v6) = {1,3,4,8}. Da alle entsprechenden Teilmatrizen regular sind,konnen der Ecke v6 vier verschiedene Basisgleichungen zugeordnet werden.

1 2 11 0 00 1 0

x =

311

;

1 2 11 0 00 0 −1

x =

310

;

1 2 10 1 00 0 −1

x =

310

;

1 0 00 1 00 0 −1

x =

110

.

Auch die Ecke v1 ist uberbestimmt; die Bedingungen (2), (6), (7) und (8) sind mitGleichheit erfullt. Wahrend Ecke v6 in vier Facetten von P liegt, ist v1 aber nur indrei Facetten enthalten. Die Uberbestimmtheit einer Ecke ist also eine Eigenschaft dergegebenen H-Darstellung, nicht notwendigerweise der zugrunde liegenden Geometrie.

3.2.9 Bezeichnung. Seien B eine Basis von v und

SP (B) := SP

(B(v)

):= {x ∈ Rn : ABx ≤ 0}

NP (B) := NP

(B(v)

):= pos

({ai : i ∈ B}

).

SP (B) heißt Basisstutzkegel und NP (B) Basisnormalenkegel [engl.: basic support(normal) cone] zur Basis B von v. Zur Abkurzung wird oft auch nur S(B) und N(B)geschrieben.

3.3 Abbildung Approximation von SP (v) durch einen (simplizialen) Basisstutzkegel.

Page 51: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.2 Finden einer Verbesserungskante 51

3.2.10 Bemerkung. Sei B eine Basis von v. Dann gilt

SP (v) ⊂ SP (B) ∧ NP (B) ⊂ NP (v)

mit Gleichheit fur |I(v)| = n.

3.2.11 Bemerkung. Seien i1, . . . ,in ∈ M mit i1 < . . . < in und B = {i1, . . . ,in} sowies1, . . . ,sn ∈ Rn mit −A−1

B = (s1, . . . ,sn).

(a) Die Kanten von S(B) sind [0,∞[s1, . . . ,[0,∞[sn.

(b) Fur i = 1, . . . ,n ist Rsi der Losungsraum von AB\{i}x = 0.

Beweis: (a) Wir benutzen die Tatsache, dass der Kegel S(B) durch Anwendung derKoordinatentransformation x 7→ ABx in den negativen Orthanten ] − ∞,0]n ubergeht,dessen Kanten die nichtpositiven Koordinatenachsen sind. Genauer gilt

S(B) = A−1B {ABx ∈ Rn : ABx ≤ 0}

= A−1B {y ∈ Rn : y ≤ 0} = A−1

B pos({−u1, . . . ,− un}

)

= pos({−A−1

B u1, . . . ,−A−1B un}

).

Die Kanten von S(B) werden also von den Spaltenvektoren von −A−1B erzeugt.

(b) Fur i = 1, . . . ,n folgt aus ABA−1B = En

ABsi = −ui

und damit die Behauptung.

3.2.12 Bemerkung. (a) Gilt(−A−1

B

)Tc ≤ 0, so ist v Optimalpunkt von ϕ uber P .

(b) Gilt(−A−1

B

)Tc < 0, so ist v einziger Optimalpunkt von ϕ uber P .

3.2.13 Beispiel. (Fortsetzung von Beispiel 3.2.8). Wie in Beispiel 3.2.8 berechnet wur-de, gilt

B = I(v9) = {1,3,5} ∧ A−1B =

0 1 01/2 −1/2 −1/20 0 1

.

Die von v9 ausgehenden Kanten haben die Richtungen

0−1/2

0

,

−11/20

,

01/2−1

.

Ferner gilt

(−A−1B )T c =

0 −1/2 0−1 1/2 0

0 1/2 −1

111

=

−1/2−1/2−1/2

.

Wegen A−1B c < 0 ist v9 nach Bemerkung 3.2.12 der eindeutig bestimmte Optimalpunkt

der gegebenen Aufgabe.

Page 52: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

52 3 Der Simplex-Algorithmus

3.2.14 Lemma. Seien Seien [0,∞[s eine Kante von S(B) und

cT s > 0 ∧ S := v + [0,∞[s ∧ R := {i ∈ N : aTi s > 0}.

(a) Ist R = ∅, so gilt S ⊂ P , d.h. ϕ ist uber P unbeschrankt.

(b) Seien

R 6= ∅ ∧ λ := min

{βi − aT

i v

aTi s

: i ∈ R

}

∧ w := v + λs.

Dann ist w eine Ecke von P .

Beweis: Gilt aTi s ≤ 0, so folgt fur µ ∈ [0,∞[

aTi (v + µs) ≤ aT

i v.

(a) Aus R = ∅ folgt aTi s ≤ 0 fur alle i ∈ {1, . . . ,n}, und damit

S ⊂ H≤(ai,βi)

.

Aus cT s > 0 folgt somit (a).(b) Fur i ∈ R gilt

aTi (v + λs) ≤ aT

i v +βi − aT

i v

aTi s

aTi s = βi.

Also gilt w ∈ P . Fur w = v ist nichts zu zeigen. Seien also w 6= v und K := conv({v,w}

).

Sei i0 ein Index, fur den bei der Bestimmung von λ das Minimum angenommen wird.Dann ist v + [0,∞[s nicht in H(ai0

,βi0) enthalten, d.h.

{w} = S ∩H(ai0,βi0

).

H(ai0,βi0

) ist somit eigentliche Stutzhyperebene an K in w, und die Behauptung folgtaus Lemma 2.3.6.

3.2.15 Prozedur: Simplex-Algorithmus (Verbesserungsphase (Grundform)).

Page 53: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.2 Finden einer Verbesserungskante 53

INPUT: A ∈ Rm×n, b ∈ Rm, c ∈ Rn

Ecke v von P = {x : Ax ≤ b}Basis B = {i1, . . . ,in} von v mit i1 < . . . < in

OUTPUT: Meldung ‘ϕ ist auf P nach oben unbeschrankt!’OR optimale Ecke v∗

BEGIN fertig ← ‘nein’WHILE fertig = ‘nein’ DOBEGIN

N ← {1, . . . ,m} \B,Berechne die Spaltenvektoren s1, . . . ,sn von −A−1

B

IF cT sj ≤ 0 fur alle j = 1, . . . ,nTHEN Meldung ‘v ist optimal!’ AND fertig ←‘ja’ELSEBEGIN

Wahle j0 ∈ {1, . . . ,n} mit cT sj0 > 0AND R← {i ∈ N : aT

i sj0 > 0}IF R = ∅

THEN Meldung ‘ϕ nach oben unbeschrankt!’AND fertig ← ‘ja’ELSEBEGIN

λ← minn

βi−aTi v

aTi

sj0

: i ∈ Ro

AND wahle irein ∈ R mit λ =βirein

−aTirein

v

aTirein

sj0

AND iraus ← ij0AND B ←

`

B \ {iraus}´

∪ {irein}AND v ← v + λsj0

ENDEND

ENDEND

3.2.16 Bezeichnung. Prozedur 3.2.15 wird Phase II [engl.: phase II] des Simplex-Algorithmus genannt. Die Anwendung von Prozedur 3.2.15 zur Entscheidung, ob P 6= ∅ist, bzw. der Bestimmung einer Startecke und -basis heißt dann Phase I [engl.: phase I]des Simplex-Algorithmus.

Jede Regel zur Wahl von (iraus,irein) (unter den in Prozedur 3.2.15 angegebenenMoglichkeiten) heißt Pivotregel [engl.: pivot rule]; das ausgewahlte Paar (iraus,irein)heißt Pivotpaar [engl.: pivot pair].

3.2.17 Beispiel. (Fortsetzung von Beispiel 3.2.8 und 3.2.13) Wir wahlen v3 = (1,0,0)T

als Startecke. Die hierzu eindeutig bestimmte Basis, Basisteilmatrix und zugehorige rechteSeite sind

B = {3,7,8} ∧ AB =

1 0 00 −1 00 0 −1

∧ bB =

100

,

und es gilt S(B) = SP (v3). Von v3 gehen in v3 + S(B) die drei Kanten

v3 + [0,∞[(−u1) ∧ v3 + [0,∞[u2 ∧ v3 + [0,∞[u3

aus. Nur die letzten beiden Kanten fuhren potentiell zu Verbesserungen des Zielfunkti-onswertes. Wir wahlen etwa

Page 54: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

54 3 Der Simplex-Algorithmus

v3 + [0,∞[u2.

Man beachte, dass die von der zweiten Spalte von −A−1B erzeugte Gerade Losung des durch

Streichen der zweiten Restriktion von ABx = bB entstehenden Gleichungssystems ist, unddiese ist Restriktion (7), d.h. iraus = 7. Weiter gilt R = {i ∈ N : aT

i u2 > 0} = {1,2,4},und es folgt

λ = min

{βi − aT

i v3

aTi u2

: i = 1,2,4

}

= min

{3 − 1

2,0 + 2

1,1 − 0

1

}

= min{1,2,1} = 1.

Das Minimum wird durch die Restriktionen (1) und (4), d.h. durch

ξ1 + 2ξ2 + ξ3 ≤ 3 ∧ ξ2 ≤ 1

bestimmt. Hieran sieht man bereits, dass die neue Ecke w = v3 +λu2 = v6 uberbestimmtist. Es gilt I(v6) = {1,3,4,8}, wobei die neue Basis 3 und 8 enthalt, und die Wahl zwi-schen 1 und 4 als drittem Element besteht. Man kann sich somit zwischen den folgendenBasisgleichungen fur v6 entscheiden:

1 2 11 0 00 0 −1

x =

310

1 0 00 1 00 0 −1

x =

110

.

(v6; 1,1,0; 2)

(v3; 1,0,0; 1)

(v1; 0,0,0; 0)

3.4 Abbildung Der Kegel S`

B(v3)´

und der Ubergang von v3 zu v6.

Wahlen wir etwa irein = 4, so erhalten wir die neue Basis

B = B1(v6) = {3,4,8}.

Der Kegel S(B) hat die drei Kanten

[0,∞[(−u1) ∧ [0,∞[(−u2) ∧ [0,∞[u3,

von denen nur die letzte zur Verbesserung der Zielfunktion fuhrt. Wir wahlen also iraus =8, d.h. −ξ3 ≤ 0 wird zu einer Nichtbasisrestriktion. Es gilt R = {1,5}, also

Page 55: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.3 Uber Zykel und ihre Vermeidung 55

λ = min{0,1} = 0,

d.h. irein = 1. Hier tritt der Fall ein, dass wir bei v6 bleiben, aber zu einer neuen Basisubergehen:

B = B2(v6) = {1,3,4} ∧ AB =

1 2 11 0 00 1 0

∧ bB =

311

.

Es gilt

A−1B =

0 1 00 0 11 −1 −2

,

d.h. die Kanten sind

v6 + [0,∞[(−u3) ∧ v6 + [0,∞[(−1,0,1)T ∧ v6 + [0,∞[(0,− 1,2)T .

Die letzte dieser Kante ist zu wahlen, d.h. iraus = 4; die Bedingung ξ2 ≤ 1 wird inaktiv.Es gilt R = {5,7}, es folgt

λ = min

{1

2,1

}

=1

2,

also irein = 5, und wir erhalten die neue Ecke v9 zusammen mit der Basis B = B(v9) ={1,3,5}. Wie wir bereits in Beispiel 3.2.13 gesehen hatten, ist keine weitere Verbesserung

3.5 Abbildung Ubergang zu v6, anschließender Basiswechsel und Verlassen von v6 in Rich-tung v9.

der Zielfunktion mehr moglich; v9 ist optimal.

3.3 Uber Zykel und ihre Vermeidung

3.3.1 Bezeichnung. Tritt bei der Durchfuhrung des Simplex-Algorithmus fur eine gege-bene LP-Aufgabe eine vorher berechnete Basis einer Ecke ein zweites Mal auf, so sprichtman von einem Zyklus [engl.: cycle] (oder davon, dass der Simplex-Algorithmus zykelt).

3.3.2 Satz. Bei entsprechender Wahl der Pivotpaare kann der Simplex-Algorithmus zy-keln.

Page 56: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

56 3 Der Simplex-Algorithmus

Beweis: Wir geben eine LP-Aufgabe im R3 mit 6 bzw. (im beschrankten Fall) 7Restriktionen an, fur die der Simplex-Algorithmus bei ungunstiger Wahl der Pivotpaarezykelt:

max ξ3

−ξ1 ≤ 0 (1)−ξ2 ≤ 0 (2)

ξ1 + ξ2 − ξ3 ≤ 0 (3)−4ξ1 − ξ2 − 2ξ3 ≤ 0 (4)ξ1 − 3ξ2 − 3ξ3 ≤ 0 (5)

3ξ1 + 4ξ2 − 6ξ3 ≤ 0 (6)ξ3 ≤ 1 (7).

Wir betrachten v1 = 0, d.h. relevant sind nur die 6 Restriktionen (1)-(6). Tatsachlichkann (7) fur die gesamte Argumentation weggelassen werden. Ohne Bedingung (7) ist derzulassige Bereich ein Kegel und die Zielfunktion unbeschrankt, ohne dass der Simplex-Algorithmus das merkt. Mit Restriktion (7) zeigt die Konstruktion, dass der Simplex-Algorithmus das Optimum nicht findet. In beiden Fallen verlasst er die Ecke v1 nicht.

3.6 Abbildung Schnitt der Restriktionshyperebenen mit H(u3,1); Startkante (schwarzerPunkt), in den Simplex-Schritten ausgewahlte Kantenfolge.

Startbasis und zugehorige inverve Basismatrix sind

B1 := {1,2,5} ∧ A−1B1 =

1

3

−3 0 00 −3 0

−1 3 −1

.

Nach Prozedur 3.2.15 ist eine Verbesserungskante sj zu wahlen mit cT sj > 0, und nachBemerkung 3.2.11 kommen hierfur genau die Kantenrichtungen

301

,

001

in Frage. Wir nehmen die erste und erhalten bzw. wahlen

Page 57: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.3 Uber Zykel und ihre Vermeidung 57

s1 :=

301

∧ iraus := 1 ∧ R1 := {3,6} ∧ irein := 6.

Man beachte, dass die Schrittweite λ hier und im folgenden stets 0 ist. Die weiterenSchritte sind wie folgt.

B2 := {2,5,6} ∧ A−1B2 =

1

3

30 −6 3−3 0 013 −3 1

∧ s2 :=

201

∧ iraus := 5 ∧ R2 := {3} ∧ irein := 3;

B3 := {2,3,6} ∧ A−1B3 =

1

3

2 6 −1−3 0 0−1 3 −1

∧ s3 :=

−231

∧ iraus := 2 ∧ R3 := {1,4} ∧ irein := 4;

B4 := {3,4,6} ∧ A−1B4 =

1

3

−14 −2 330 3 −613 1 −3

∧ s4 :=

−121

∧ iraus := 6 ∧ R4 := {1} ∧ irein := 1;

B5 := {1,3,4} ∧ A−1B5 =

1

3

−3 0 06 2 −13 −1 −1

∧ s5 :=

0−2

1

∧ iraus := 3 ∧ R5 := {2,5} ∧ irein := 5;

B6 := {1,4,5} ∧ A−1B6 =

1

3

−3 0 0−14 3 −2

13 −3 1

∧ s6 :=

0−1

1

∧ iraus := 4 ∧ R6 := {2} ∧ irein := 2.

Danach wiederholt sich B1; der Zyklus ist also komplett.

3.3.3 Definition. Seien A ∈ Rm×n und b ∈ Rm. Das Paar (oder System) (A,b) heißtgenerisch [engl.: generic] oder in allgemeiner Lage [engl.: in general position], wennes keine Teilmenge I von {1, . . . ,m} gibt mit |I| = n+ 1, so dass AIx = bI losbar ist.

3.3.4 Lemma. Seien A ∈ Rm×n, b ∈ Rm, und fur ε ∈]0,∞[ sei e(ε) := (ε,ε2, . . . ,εm)T .Dann ist

(A,b+ e(ε)

)generisch fur alle bis auf endliche viele positive ε.

Beweis: Sei I ⊂ {1, . . . ,m} mit |I| = n+ 1. Das Gleichungssystem

AIx =(b+ e(ε)

)

I

Page 58: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

58 3 Der Simplex-Algorithmus

ist genau dann losbar, wenn

rang(AI

)= rang

(

AI ,(b+ e(ε)

)

I

)

gilt. Seien k := rang(AI

), J ⊂ I mit |J | = k+ 1, und AJ eine (k+ 1)× k Teilmatrix von

AJ vom Rang k. Dann ist (AJ ,bJ + e(ε)J) eine (k+ 1)× (k+ 1) Matrix, und wir zeigen,dass det

(AJ ,bJ + e(ε)J

)fur hochstens endlich viele Werte von ε verschwindet.

Durch Entwicklung der Determinante nach der letzten Spalte gemaß dem Entwick-lungssatz von Laplace erhalt man eine Darstellung

det(AJ ,bJ + e(ε)J

)= det

(AJ ,bJ

)+ det

(AJ ,e(ε)J

)= det

(AJ ,bJ

)+∑

i∈J

δiεi;

die Koeffizienten δi sind bis auf das Vorzeichen die durch Streichen einer Zeile entstehen-den k × k Subdeterminanten von AJ . Da rang (AJ ) = k ist, muss mindestens ein δi von0 verschieden sein. Das durch

ε 7→ det(AJ ,bJ + e(ε)J

)

definierte Polynom in ε ist also nicht identisch 0. Sein Grad ist hochstens m; somit hates hochstens m Nullstellen. Da andererseits die Anzahl der verschiedenen (n + 1) × nTeilmatrizen von A durch

(m

n+1

)beschrankt ist, folgt die Behauptung.

3.3.5 Bezeichnung. Seien A ∈ Rm×n, b ∈ Rm und ε ∈]0,∞[. Ferner seien

e(ε) := (ε,ε2, . . . ,εm)T ∈ Rm ∧ P (ε) = {x ∈ Rn : Ax ≤ b+ e(ε)}.

e(ε) heißt Perturbationsvektor [engl.: perturbation vector], und P (ε) wird pertur-biertes Polyeder [engl.: perturbed polyhedra] genannt.

3.3.6 Korollar. Sei P = {x ∈ Rn : Ax ≤ b}. Dann gibt es ein ε0 ∈]0,∞[, so dassfur jedes ε ∈]0,ε0] kein Punkt des Rn in mehr als n der Restriktionshyperebenen vonAx ≤ b+e(ε) enthalten ist, d.h. insbesondere, dass jede Ecke des perturbierten PolyedersP (ε) regular ist.

3.3.7 Bemerkung. Durch (n,m,A,b,c) sei eine LP-Aufgabe (in naturlicher Form) spe-zifiziert. Dann gibt es ein ε0 ∈]0,∞[, so dass die folgende Aussage gilt. Fur jedes ε ∈]0,ε0]und jede Startecke v(ε) lost der Simplex-Algorithmus die durch (m,n,A,b + e(ε),c) gege-bene LP-Aufgabe in hochstens

(m

n

)

− 1

vielen Schritten.

3.3.8 Notation. Die gegebene LP-Aufgabe in naturlicher Form sei spezifiziert durchdie Daten (n,m,A,b,c). Es seien ferner M := {1, . . . ,m}, a1, . . . ,am ∈ Rn \ {0} mitA = (a1, . . . ,am)T , β1, . . . ,βm ∈ R mit b = (β1, . . . ,βm)T , P := {x ∈ Rn : Ax ≤ b}, undϕ : Rn → R bezeichne die durch ϕ(x) := cTx definierte Zielfunktion.

Ferner seien ε0 ∈]0,∞[ gemaß Korollar 3.3.6 gewahlt, und alle im folgenden auftre-tenden Storungsparamenter ε sind auf das Intervall ]0,ε0] beschrankt. Seien e := e(ε),v(ε) eine (im Laufe des Algorithmus erreichte) Ecke von P (ε), B := {i1, . . . ,in} miti1 < . . . < in ihre (eindeutig bestimmte) Basis und N := M \B.

Page 59: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.3 Uber Zykel und ihre Vermeidung 59

3.3.9 Lemma. Sei v := A−1B bB. Dann ist v eine Ecke von P , und die Kanten von

SP (ε)

(v(ε)

)und SP (B) stimmen uberein.

Beweis: Sei zunachst i ∈ B. Dann gilt

aTi v(ε) = aT

i A−1B

(bB + e(ε)B

)= uT

i

(bB + e(ε)B

)= βi + ǫi

unabhangig von der speziellen Wahl von ε ∈]0,ε0]. Nach Konstruktion (oder, wenn manmochte, aus Stetigkeitsgrunden) gilt auch aT

i v = βi.Wir zeigen nun mittels Widerspruchsbeweis, dass aT

i v ≤ βi auch fur i ∈ N gilt. Seidaher i0 ∈ N mit aT

i0v > βi0 . Da v(ε) eine Ecke von P (ε) und regular ist, gilt

aTi0v(ε) < βi0 + εi0 ∧ v(ε) = A−1

B bB +A−1B eB = v +A−1

B eB.

Es folgtaT

i0v < βi0 + εi0 − aT

i0A−1

B e(ε)B.

Als Funktional in ε ist die rechte Seite stetig und strebt fur ε→ 0 gegen βi0 . Nach demZwischenwertsatz gibt es ein ε1 ∈]0,ε0[ mit

aTi0v = βi0 + εi0 − aT

i0A−1

B eB.

Somit giltaT

i0v(ε) = βi0 + εi0

und damitn+ 1 ≤

∣∣B ∪ {i0}

∣∣ ≤

∣∣∣I(v(ε1)

)∣∣∣,

im Widerspruch zur Generizitat, d.h. zur Wahl von ε0. Also gilt auch ANv ≤ bN , d.h. vist eine zulassige Basislosung von Ax ≤ b.

Da v(ε) regular ist, gilt SP (ε)(B) = SP (ε)

(v(ε)

). Nach Bemerkung 3.2.11 sind die

Kanten von SP (ε)

(v(ε)

)daher die positiven Hullen der Spaltenvektoren von −A−1

B , eben-so wie die von SP (B).

3.3.10 Bezeichnung. Seien v eine Ecke von P und B eine zugehorige Basis. B heißte(ε)-kompatibel, falls v +A−1

B eB(ε0) ∈ P (ε0) gilt.

3.3.11 Bemerkung. Seien v eine Ecke von P , B eine Basis von v und ε ∈]0,ε0].

(a) B ist genau dann e(ε)-kompatibel, wenn v +A−1B eB(ε) ∈ P (ε) gilt.

(b) B ist genau dann e(ε)-kompatibel, wenn εi − aTi A

−1B eB > 0 fur alle i ∈ IP (v) \ B

gilt.

Beweis: Man beachte zunachst, dass fur i ∈ B fur alle ε ∈]0,ε0]

εi − aTi A

−1B eB = 0.

gilt.(a) folgt nun aus der Generizitat von

(A,b+ eB

).

(b) ‘⇒’ Seien B e(ε)-kompatibel und i ∈ IP (v) \B. Dann gilt

aTi v(ε) = aT

i v + aTi A

−1B eB = βi + aT

i A−1B eB < βi + εi

Page 60: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

60 3 Der Simplex-Algorithmus

und damit εi − aTi A

−1B eB > 0

‘⇐’ Fur i ∈ N \ IP (v) gilt aTi v < βi, also auch

aTi v(ε) = aT

i v + aTi A

−1B eB ≤ βi + ǫi

fur hinreichend kleines positives ε. Aus der Generizitat von(A,b+ e(ε)

)folgt daher

aTi v(ε0) < βi + ǫi0.

Fur i ∈ IP (v) \B gilt nach Voraussetzung aTi A

−1B eB < ǫi und damit

aTi v(ε) = aT

i v + aTi A

−1B eB < βi + ǫi.

Insgesamt gilt somit v(ε) ∈ P (ε), und aus (a) folgt die Behauptung.

3.3.12 Lemma. Seien v eine Ecke von P und B eine Basis von v. Ferner seien die Un-gleichungen so angeordnet, dass B = {m−n+1, . . . ,m} gilt. Dann ist B e(ε)-kompatibel.

Beweis: Sei i ∈ IP (v) \B. Dann gilt

i ≤ m− n ∧ εi − aTi A

−1B eB = εi

(

1 − εm−n−iaTi A

−1B (ε,ε2, . . . ,εn)T

)

.

Fur hinreichend kleine positive ε gilt somit

εi − aTi A

−1B eB > 0.

Nach Bemerkung 3.3.11 (b) folgt die Behauptung.

3.3.13 Beispiel. (Fortsetzung von Beispiel 3.2.8) Wir vollziehen den Schritt von v3 zuv6 aus Beispiel 3.2.8, jetzt aber durch Rechnung im perturbierten Polyeder. Da v3 regularist, ist die Basis von v3 e(ε)-kompatibel, so dass wir starten konnen wie vorher.7 Es giltB = {3,7,8} und

AB = AB(v3) =

1 0 00 −1 00 0 −1

, bB =

100

.

Als Verbesserungskante des zugehorigen Kegels S(B) hatten wir v3 +[0,∞[u2 gewahlt. Esgilt

R = {1,2,4} ∧ eB = (ε3,ε7,ε8)T ∧ v3(ε) = v3 +A−1B eB =

1 + ε3

−ε7

−ε8

.

Fur i ∈ R haben wir somit

7 Es ist naturlich klar, dass der Simplex-Algorithmus auf der unperturbierten Aufgabe nicht nur nichtzykelt, sondern auch nach nur einem Schritt v6 wieder verlassen muss. Schließlich gibt es unter densechs Kanten aller vier moglichen Basistutzkegel nur eine Verbesserungskante, namlich v6 + [0,∞[u3,die aber hochstens einmal auftreten kann.

Page 61: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.3 Uber Zykel und ihre Vermeidung 61

βi + εi − aTi v3(ε)

aTi u2

=

1 + 12ε

1 − 12ε

3 + ε7 + 12ε

8 fur i = 1;2 + ε2 + 2ε3 + ε7 fur i = 2;1 + ε4 + ε7 fur i = 4.

Fur hinreichend kleines positives ε ist der entsprechende Quotient fur i = 4 am kleinsten;wir nehmen also den Index 4 in die Basis auf. Das hatten wir ‘vorausschauend’ vorherauch bereits getan; mit der auf Perturbation beruhenden Regel ist die Setzung irein = 4jetzt aber zwingend.

3.3.14 Notation. (a) Fur i ∈M seien ηi : ]0,ε0] → R das durch

ηi(ε) :=

m∑

j=1

ηi,jεj := εi − aT

i A−1B eB

definirte Polynom und yi := (ηi,1, . . . ,ηi,m)T ∈ Rm sein Koeffizientenvektor.

(b) Seien s ein Spaltenvektor von −A−1B mit cT s > 0 und R := {i ∈ N : aT

i s > 0}. Furi ∈ R seien ζi : ]0,ε0] → R das durch

ζi(ε) :=m∑

j=0

ζi,jεj :=

βi + εi − aTi v(ε)

aTi s

definierte Polynom in ε und zi := (ζi,0, . . . ,ζi,m)T ∈ Rm+1 sein Koeffizientenvektor.

3.3.15 Bemerkung. (a) Sei i ∈M . Dann gilt

ηi,j =

0 fur i ∈ B;1 fur i ∈ N ∧ j = i;

−aTi A

−1B uk fur i ∈ N ∧ j = ik ∈ B;

0 fur i ∈ N ∧ j ∈M \(B ∪ {i}

).

(b) Sei i ∈ R. Dann gilt

ζi,j =1

aTi s

βi − aTi v fur j = 0;

1 fur j = i;−aT

i A−1B uk fur j = ik ∈ B;

0 fur j ∈M \(B ∪ {i}

).

Beweis: Es gilt

ηi(ε) =

m∑

j=1

ηi,jεj = εi − aT

i A−1B

(εi1 , . . . ,εin

)T= εi −

n∑

k=1

(

aTi A

−1B uk

)

εik

sowie

aTi s · ζi(ε) = aT

i s ·m∑

j=0

ζi,jεj = βi − aT

i v + ηi(ε) = βi − aTi v + εi −

n∑

k=1

(

aTi A

−1B uk

)

εik .

Durch Koeffizientenvergleich folgt hieraus die Behauptung.

Page 62: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

62 3 Der Simplex-Algorithmus

3.3.16 Definition. (a) Seien x = (ξ1, . . . ,ξm)T ∈ Rm \ {0} und j0 ∈ {1, . . . ,m} mit

(j ∈ {1, . . . ,j0 − 1} ⇒ ξj = 0

)∧ ξj0 6= 0.

Dann heißt x lexikographisch positiv (negativ) [engl.: lexicographically positive(negative)], genau dann, wenn gilt

ξj0 > 0(ξj0 < 0

);

In diesem Fall schreiben wir x ≻ 0 (x ≺ 0).

(b) Seien x1,x2 ∈ Rm. x1 heißt lexikographisch großer (kleiner) [engl.: lexicogra-phically greater (smaller)] als x2 genau dann, wenn x1 − x2 ≻ 0 (x1 − x2 ≺ 0) ist;Schreibweise: x1 ≻ x2 (x1 ≺ x2).

(c) Giltx1 ≻ x2 ∨ x1 = x2

(x1 ≺ x2 ∨ x1 = x2

),

so heißt x1 lexikographisch großer (kleiner) gleich [engl.: lexicographicallygreater (smaller) than or equal] x2. Schreibweise: x1 � x2 (x1 � x2).

(d) Sei X ⊂ Rn und x∗ ∈ X mit

x ∈ X ⇒ x∗ � x.

Dann heißt x∗ lexikographisches Maximum von X. Man schreibt auch x∗ =lexmax (X). Ist ψ : Rn → R, so heißt x∗ lexikographisches Maximum derOptimierungsaufgabe maxx∈X ψ(x), genau dann, wenn

x ∈ X ⇒

(ψ(x∗)x∗

)

(ψ(x)x

)

.

Die Aufgabe, ein lexikographisches Maximum8 zu finden, wird oft mit lexmax x∈Xψ(x)bezeichnet.

Wird ‘ �’ durch ‘ �’ und ‘max’ durch ‘min’ ersetzt, so spricht man analog voneinem lexikographischen Minimum.

3.3.17 Bezeichnung. Die lexikographischen Pivotregel [engl.: lexicographic pivotrule] bestimmt in jedem Schritt des Simplex Algorithmus irein gemaß

zirein = lexmin {zi : i ∈ R}.

3.3.18 Bemerkung. Seien α0, . . . ,αm ∈ R, β ∈]0,∞[, π : R → R fur ξ ∈ R definiertdurch

π(ξ) :=m∑

i=0

αiξi,

und es gelte0 < ξ ≤ β ⇒ π(ξ) 6= 0.

Dann giltπ(β) > 0 ⇔ (α0, . . . ,αm)T ≻ 0.

8 Das ist eine spezielle Form der ‘Mehrzieloptimierung’.

Page 63: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.3 Uber Zykel und ihre Vermeidung 63

Beweis: Sei a := (α0, . . . ,αm)T . Nach Voraussetzung sind π nicht das Nullpolynomund a 6= 0. Sei k der kleinste Index mit αi 6= 0. Dann gilt

π(ξ) = ξk

(

αk + ξ

m∑

l=k+1

αlξl−k−1

)

.

Fur hinreichend kleines positives ξ hat π(ξ) dasselbe Vorzeichen wie αk. Da π stetigist, aber keine Nullstelle in ]0,β] besitzt, folgt hieraus die Behauptung.

3.3.19 Korollar. Seien i,j ∈ R. Dann gilt

zi ≻ 0 ∧(

ζi(ε0) < ζj(ε0) ⇔ zi ≺ zj

)

.

3.3.20 Bezeichnung. Seien v eine Ecke von P und B eine zugehorige Basis. B heißtlexikographisch zulassig [engl.: lexicographically feasible], genau dann, wenn gilt

i ∈ IP (v) \B ⇒ yi ≻ 0.

3.3.21 Lemma. Seien v eine Ecke von P und B eine zugehorige Basis.

(a) B ist genau dann lexikographisch zulassig, wenn B e(ε)-kompatibel ist.

(b) Seien iw ∈ R, ziw= lexmin {zi : i ∈ R}, Bw :=

(B \ {iraus}

)∪ {iw} sowie

w := A−1BwbBw

. Dann gilt(cT (w − v)

yiw

)

≻ 0.

Beweis: (a) folgt mit den Bemerkungen 3.3.11, 3.3.18 und 3.3.15 aus der Definitionder yi.

(b) Mit v(ε0) = A−1B

(bB + e(ε0)

)und w(ε0) = A−1

Bw

(bBw

+ e(ε0))

gilt

cTw(ε0) − cT v(ε0) = λ(ε)cT s = βiw− aT

iwv + ηiw

(ε0) > 0.

Mit Bemerkungen 3.3.18 folgt die Behauptung.

3.3.22 Satz. Ausgehend von einer Startecke mit lexikographisch zulassiger Basis lost derSimplex-Algorithmus mit lexikographischer Pivotregel das lineare Optimierungsproblem(in naturlicher Form) in endlich vielen Schritten.

Beweis: Die Aussage folgt mit Bemerkung 3.3.7 aus der Tatsache, dass ausgehendvon einer lexikographisch zulassigen Startecke der Simplex-Algorithmus mit lexikogra-phischer Pivotregel dieselbe Folge von Basen produziert wie der Simplex-Algorithmusfur P (ε).

3.3.23 Beispiel. Gegeben sei die LP-Aufgabe aus dem Beweis von Satz 3.3.2 (in der Va-riante ohne die Restriktion (7), die fur das Zykeln ohnehin irrelevant war). Wir mussenzunachst uberprufen, ob die gewahlte Startbasis B1 lexikographisch zulassig ist, d.h. oby3,y4,y6 ≻ 0 ist. Mit

Page 64: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

64 3 Der Simplex-Algorithmus

B1 := {1,2,5} ∧ A−1B1 =

1

3

−3 0 00 −3 0

−1 3 −1

.

gilt aber gemaß Bemerkung 3.3.15

−aT4 A

−1B1 = −

1

3

(−4, − 1, − 2

)

−3 0 00 −3 0

−1 3 −1

=1

3

(−14, 3, − 2

),

und es folgt

3y4 =(−14, 3, 0, 3, − 2, 0

)T6≻ 0.

Nach den Lemmata 3.3.21 (a) und 3.3.12 reicht es, die Restriktionen so umzunumme-rieren, dass die Basisindizes die Nummern 4,5 und 6 tragen. Man kann also etwa diedurch

σ(1) := 4 ∧ σ(2) := 5 ∧ σ(3) := 1 ∧ σ(4) := 2 ∧ σ(5) := 6 ∧ σ(6) := 3

definierte Permutation σ der Restriktionsindizes von {1,2,3,4,5,6} benutzen. Alternativund vollig aquivalent konnen wir auch alle auftretenden Vektoren gemaß der neuen ‘le-xikographischen Ordnung’

(3) ≻ (4) ≻ (6) ≻ (1) ≻ (2) ≻ (5)

bewerten. Zur einfachen Vergleichbarkeit mit der ursprunglichen Rechnung behalten wirdie Nummerierung der Ungleichungen bei, und permutieren nur die Komponenten derVektoren zi.

Wir starten wieder mit

s1 :=

301

∧ iraus := 1 ∧ R1 := {3,6}.

Die Wahl von irein erfolgt jetzt aber nach der lexikographischen Regel. Zu berechnensind also die Vektoren z3 und z6. Fur die Vektoren z3 und z6 mit der ursprunglichenKomponentenindizierung gilt nach Bemerkung 3.3.15

z3 =1

aT3 s1

(β3 − aT

3 v1, − aT3 A

−1B1u1, − aT

3 A−1B1u2, 1, 0, − aT

3 A−1B1u3, 0

)T

z6 =1

aT6 s1

(β6 − aT

6 v1, − aT6 A

−1B1u1, − aT

6 A−1B1u2, 0, 0, − aT

6 A−1B1u3, 1

)T.

Mit β3 − aT3 v1 = β6 − aT

6 v1 = 0 sowie aT3 s1 = 2 und aT

6 s1 = 3 folgt

z3 =1

2

(0, 1, 0, 0, − aT

3 A−1B1u1, − aT

3 A−1B1u2, − aT

3 A−1B1u3

)T

z6 =1

3

(0, 0, 0, 1, − aT

6 A−1B1u1, − aT

6 A−1B1u2, − aT

6 A−1B1u3

)T.

Bereits ohne Berechnung der hinteren Komponenten folgt z6 ≺ z3. Auch die lexikogra-phische Pivotregel liefert also irein := 6, und wir erhalten wieder

Page 65: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.3 Uber Zykel und ihre Vermeidung 65

B2 := {2,5,6} ∧ A−1B2 =

1

3

30 −6 3−3 0 013 −3 1

∧ s2 :=

201

∧ iraus := 5 ∧ R2 := {3}.

Da R2 einpunktig ist, hat auch die lexikographische Pivotregel keine andere Wahl, alsirein := 3 zu setzen. Wir erhalten somit

B3 := {2,3,6} ∧ A−1B3 =

1

3

2 6 −1−3 0 0−1 3 −1

∧ s3 :=

−231

∧ iraus := 2 ∧ R3 := {1,4}.

Zur Bestimmung der aufzunehmenden Restriktion sind nun z1 und z4 zu berechnen. Esgilt

z1 =1

2

(0, − aT

1 A−1B1u2, 0, − aT

1 A−1B1u3, 1, − aT

1 A−1B1u1, 0

)T

z4 =1

3

(0, − aT

4 A−1B1u2, 1, − aT

4 A−1B1u3, 0, − aT

4 A−1B1u1, 0

)T.

Mit

−1

3(−1, 0, 0)

2 6 −1−3 0 0−1 3 −1

=1

3(2, 6, − 1)

−1

3(−4, − 1, − 2)

2 6 −1−3 0 0−1 3 −1

=1

3(3, 30, − 6),

erhalten wir

z1 =1

6

(0, 6, 0, − 1, 3, 2, 0

)T∧ z4 =

1

9

(0, 30, 3, − 6, 0, 3, 0

)T.

Es gilt z1 ≺ z4 und damit irein := 1. Hier weicht also die lexikographische Pivotregel vonunserer ursprunglichen Wahl ab. Wir erhalten

B4 := {1,3,6} ∧ A−1B4 =

1

2

−2 0 03 6 −11 4 −1

∧ s4 :=

011

∧ iraus := 6.

Es gilt R = {i : aTi s4 > 0} = ∅, d.h. wir verlassen jetzt die Ecke v1 = 0 langs einer

unbeschrankten Verbesserungskante. (Hatten wir die Restriktion (7) berucksichtigt, soware R = {7}, und wir gingen jetzt direkt zu v4, d.h. zu einer optimalen Ecke uber.)

Zum Abschluss kann man fur die einzelnen Schritte noch den ‘lexikographisch Fort-

schrittsvektor’(cT (w − v),yT

irein

)Tbestimmen, um auch Lemma 3.3.21 an diesem kon-

kreten Beispiel zu uberprufen. Mit Bemerkung 3.3.15 erhalt man analog zu den obigenBerechnungen die Fortschrittsvektoren der ersten drei Schritte

(0,yT

6 ) =1

3

(0, 0, 0, 3, 3, 30, − 6

)

(0,yT

3 ) =1

3

(0, 3, 0, − 2, 0, − 14, 3

)

(0,yT

1 ) =1

3

(0, 6, 0, − 1, 3, 2, 0

);

Page 66: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

66 3 Der Simplex-Algorithmus

sie sind tatsachlich streng lexikographisch wachsend.

3.4 Uber die Laufzeit des Simplex-Algorithmus

3.4.1 Beispiel. Seien P das Einheitsquadrat [−1,1]2, c := (1,3)T und ϕ die durchϕ(x) := cTx fur x ∈ R2 definierte Zielfunktion. Dann ist (1,1)T Optimalpunkt von Pbez. ϕ. Startend von der Ecke (−1, − 1)T konnen wir als Zwischenecke (−1,1)T oder(1, − 1)T durchlaufen, nicht aber beide. Der Simplex-Algorithmus benotigt somit zweiVerbesserungsschritte.

Der zulassige Bereich Q des Ungleichungssystems

ξ1 ≤ 1−ξ1 ≤ 1ξ1 + 2ξ2 ≤ 2ξ1 − 2ξ2 ≤ 2

ist hingegen ein Trapez, durch dessen vier Ecken ein bez. der gleichen Zielfunktion ϕaufsteigender Kantenpfad verlauft.

3.7 Abbildung Quadrat P (links) und Trapez Q (rechts) mit aufsteigenden Pfaden von derStartecke (−1,− 1)T zur optimalen Ecke (1,1)T bzw. (−1,1)T .

Sei µ ∈ [0,1/2]. Gegeben sei die lineare Optimierungsaufgabe

max ξn

ξ1 ≤ 1−ξ1 ≤ 1µξ1 + ξ2 ≤ 1µξ1 − ξ2 ≤ 1

µξ2 + ξ3 ≤ 1µξ2 − ξ3 ≤ 1

. . .. . .

...µξn−1 + ξn ≤ 1µξn−1 − ξn ≤ 1.

Page 67: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.4 Uber die Laufzeit des Simplex-Algorithmus 67

3.4.2 Bemerkung. Seien x := (ξ1, . . . ,ξn)T ∈ P und j ∈ {1, . . . ,n}. Dann gilt

−1 − µj

1 − µ≤ ξj ≤

1 − µj

1 − µ.

Beweis: Wir zeigen die Behauptung mittels vollstandiger Induktion nach j. DieAussage ist korrekt fur j = 1. Sei nun j ≥ 2, und wir nehmen an, dass die Ungleichungenbereits fur kleinere Indizes bewiesen sind. Dann gilt

−1 − µj

1 − µ= −1 − µ

1 − µj−1

1 − µ≤ −1 + µξj−1 ≤ ξj ≤ 1 − µξj−1 ≤ 1 + µ

1 − µj−1

1 − µ=

1 − µj

1 − µ,

und es folgt die Behauptung.

3.4.3 Bemerkung. Fur s := (σ1, . . . ,σn)T ∈ {−1,1}n sei

Bs :=

σ1 0 0 . . . 0µ σ2 0 . . . 00 µ σ3 0...

. . .. . .

0 0 0 µ σn.

Sei v eine Ecke von P . Dann existiert ein s ∈ {−1,1}n mit v = B−1s 1.

Beweis: Man beachte zunachst, dass jede der Matrizen Bs regular ist.Wir nehmen an, dass v nicht gleich einem der Punkte B−1

s 1 ist. Sei Bx = 1 einezu v gehorige Basisgleichung. Da rang (B) = n gilt, kann B nicht beide Zeilen uT

1 und−uT

1 enthalten. Es muss daher einen Index j ∈ {2, . . . ,n} geben, so dass B die beidenZeilen

(µuT

j−1±uTj

)enthalt. Durch Addition der entsprechenden Gleichungen des Systems

Bx = 1 folgt mit 1 − 2µ+ µj ≥ µj > 0

ξj−1 =1

µ>

1 − µj−1

1 − µ,

im Widerspruch zu Bemerkung 3.4.2. Somit enthalt B fur jedes k ∈ {1, . . . ,n} jeweilsgenau eine der Zeilen mit Indizes aus {2k−1,2k}, ist also von der behaupteten Form.

3.4.4 Bemerkung. Seien s := (σ1, . . . ,σn)T ∈ {−1,1}n, die Matrix Bs wie in Bemer-kung 3.4.3 und

v(s) :=(ν1(s), . . . ,νn(s)

)T:= B−1

s 1.

Dann gilt fur j = 1, . . . ,n

νj(s) =

j−1∑

i=0

(−1)i

(i∏

l=0

σj−l

)

µi.

Beweis: Vollstandige Induktion nach j.

3.4.5 Lemma. (a) Fur jedes s ∈ {−1,1}n ist v(s) eine regulare Ecke von P .

Page 68: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

68 3 Der Simplex-Algorithmus

(b) Seien s1,s2 ∈ {−1,1}n. Dann ist conv({v(s1),v(s2)}

)genau dann eine Kanten von

P , wenn es ein j ∈ {1, . . . ,n} gibt mit s1 − s2 ∈ {−2uj,2uj}, d.h. wenn sich s1 unds2 in genau einer Komponente unterscheiden.

Beweis: Seien s := (σ1, . . . ,σn)T und t := (τ1, . . . ,τn)T ∈ {−1,1}n. Wir bestimmenBtv(s). Naturlich gilt

uT1 Btv(s) = τ1ν1(s) ∈ {−1,1}.

Sei also nun j ∈ {2, . . . ,n}. Dann gilt nach Bemerkung 3.4.4

uTj Btv(s) = µνj−1(s) + τjνj(s)

=

j−2∑

i=0

(−1)i

(i∏

l=0

σj−1−l

)

µi+1 + τj

j−1∑

i=0

(−1)i

(i∏

l=0

σj−l

)

µi

= τjσj +

j−2∑

i=0

(−1)i

(i+1∏

l=1

σj−l − τj

i+1∏

l=0

σj−l

)

µi+1

= τjσj +(

1 − τjσj

)

·

j−2∑

i=0

(−1)i

(i+1∏

l=1

σj−l

)

µi+1.

Fur τj = σj gilt somit uTj Btv(s) = 1; fur τj 6= σj folgt τj = −σj und damit

uTj Btv(s) = −1 + 2 ·

j−2∑

i=0

(−1)i

(i+1∏

l=1

σj−l

)

µi+1 ≤ −1 + 2 ·

j−2∑

i=0

µi+1

= −1 + 2µ1 − µj−1

1 − µ≤ −1 + 2

(

1 −1

2j−1

)

= 1 −1

2j−2< 1.

Daher erfullt v(s) genau die zu Bs gehorigen Restriktionen mit Gleichheit, alle ubrigensogar strikt. Insgesamt folgt (a).

Zum Beweis von (b) sei s1 6= s2. Die beiden Ecken v(s1) und v(s2) sind genau danndurch eine Kante verbunden, wenn v(s2) alle bis auf genau eine der Basisrestriktionenvon v(s1) mit Gleichheit erfullt. Anwendung der bereits bewiesenen Ungleichung mits = s1 und t = s2 zeigt, dass das genau dann der Fall ist, wenn sich s1 und s2 in genaueiner Komponente unterscheiden.

Insgesamt ist das Lemma hiermit bewiesen.

3.4.6 Bezeichnung. Das Polytop P wird Klee-Minty Wurfel genannt.

Wir zeigen nun, dass es tatsachlich einen bez. des Wertes der letzten Komponenteaufsteigenden Pfad in P gibt.

3.4.7 Lemma. Fur s := (σ1, . . . ,σn)T ∈ {−1,1}n seien

κi(s) := (−1)i

i∏

l=0

σn−l (i = 0, . . . ,n− 1) ∧ q(s) :=(κ0(s), . . . ,κn−1(s)

)T.

Seien nun s := (σ1, . . . ,σn)T und t := (τ1, . . . ,τn)T ∈ {−1,1}n mit s 6= t.

Page 69: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.4 Uber die Laufzeit des Simplex-Algorithmus 69

(a) Dann gilt

ϕ(v(s)

)6= ϕ

(v(t)

)∧

(

ϕ(v(s)

)< ϕ

(v(t)

)⇔ q(s) ≺ q(t)

)

.

(b) Sei q(s) ≺ q(t), sei k der Index der ersten von 0 verschiedenen Komponente vonq(t) − q(s), und es gebe kein r ∈ {−1,1}n mit q(s) ≺ q(r) ≺ q(t). Dann giltt− s = 2uk, d.h. t entsteht aus s durch Wechsel der k-ten Komponente von −1 zu1.

Beweis: (a) Nach Bemerkung 3.4.4 gilt

ϕ(v(t)

)− ϕ

(v(s)

)=

n−1∑

i=0

(−1)i

(i∏

l=0

τn−l −i∏

l=0

σn−l

)

µi =

n−1∑

i=0

(κi(t) − κi(s)

)µi.

Fur k ∈ {0,1, . . . ,n− 1} folgt mit 0 < µ ≤ 1/2

∣∣∣∣∣

n−1∑

i=k+1

(κi(t) − κi(s)

)µi

∣∣∣∣∣≤

n−1∑

i=k+1

∣∣κi(t) − κi(s)

∣∣µi ≤ 2

n−1∑

i=k+1

µi

= 2µk+1 1 − µn−k−1

1 − µ≤ 2µk

(1 − µn−k−1

).

Sei nun k der Index der kleinsten Komponente, in der sich q(t) und q(s) unterscheiden.Dann gilt

ϕ(v(t)

)− ϕ

(v(s)

)=(κk(t) − κk(s)

)µk +

n−1∑

i=k+1

(κi(t) − κi(s)

)µi.

Es folgt ∣∣∣ϕ(v(t)

)− ϕ(vs)

∣∣∣ ≥

∣∣∣

∣∣(κk(t) − κk(s))µk

∣∣−∣∣2µk(1 − µn−k−1)

∣∣

∣∣∣

=∣∣2µk − 2µk(1 − µn−k−1)

∣∣ = 2µn−1 > 0,

und damit die erste Behauptung von (a).Ferner ist fur κk(t) > κk(s)

ϕ(v(t)

)− ϕ

((v(s)

)≥(κk(t) − κk(s)

)µk − 2µk

(1 − µn−k−1

)

= 2µk − 2µk(1 − µn−k−1

)= 2µn−1 > 0

und fur κk(t) < κk(s)

ϕ(v(t)

)− ϕ

((v(s)

)≤(κk(t) − κk(s)

)µk + 2µk

(1 − µn−k−1

)

= −2µk + 2µk(1 − µn−k−1

)= −2µn−1 < 0.

Insgesamt ist damit (a) nachgewiesen.(b) Naturlich gilt

κ0(t) = κ0(s) ∧ . . . ∧ κk−1(t) = κk−1(s) ∧ κk(t) = 1 > −1 = κk−1(s).

Angenommen, es gabe einen Index l ∈ {k + 1, . . . ,n− 1} mit κl(t) = 1 oder κl(t) = −1.Im ersten Fall ware

Page 70: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

70 3 Der Simplex-Algorithmus

q(t) ≻(κ0(t), . . . ,κl−1(t),− 1,κl+1(t) . . . ,κn−1(t)

)T≻ q(s),

im zweitenq(t) ≻

(κ0(s), . . . ,κl−1(s),1,κl+1(s) . . . ,κn−1(s)

)T≻ q(s),

jeweils im Widerspruch zur Voraussetzung, dass q(t) der lexikographische Nachfolger vonq(s) ist. Somit gilt mit κi(t) = κi(s) = κi fur i = 0, . . . ,k − 1

q(t) =(κ0, . . . ,κk−1,+ 1,− 1, . . . ,− 1

)T∧ q(s) =

(κ0, . . . ,κk−1,− 1,+ 1, . . . ,+ 1

)T.

Nun ist fur i = 0, . . . ,n− 1

κi(t) − κi(s) = (−1)i

(i∏

l=0

τn−l −i∏

l=0

σn−l

)

.

Somit folgt fur i = 0, . . . ,k − 1

i∏

l=0

τn−l =i∏

l=0

σn−l

und damit suksessive (in umgekehrter Reihenfolge)

τn−k+1 = σn−k+1 ∧ . . . ∧ τn = σn.

Ferner gilt

2 = κk(t) − κk(s) = (−1)k(τn−k − σn−k

)k−1∏

l=0

τn−l,

und das impliziertτn−k = −σn−k.

Fur i = k + 1, . . . ,n− 1 erhalten wir abschließend

−2 = κi(t) − κi(s) = (−1)i

k∏

l=0

τn−l

(i∏

l=k+1

τn−l +i∏

l=0

σn−l

)

,

und es folgt suksessive (und wieder in umkehrter Reihenfolge)

τ1 = σ1 ∧ . . . ∧ τn−k−1 = σn−k−1.

Insgesamt ist damit die Behauptung bewiesen.

3.4.8 Beispiel. Fur den Klee-Minty Wurfel im R2 gilt fur µ = 1/2

v((−1,− 1)T

)=

(−1

−3/2

)

∧ v((+1,− 1)T

)=

(+1−1/2

)

v((+1,+ 1)T

)=

(+1

+1/2

)

∧ v((−1,+ 1)T

)=

(−1

+3/2

)

sowie

q((−1,− 1)T

)=

(−1−1

)

∧ q((+1,− 1)T

)=

(−1+1

)

q((+1,+ 1)T

)=

(+1−1

)

∧ q((−1,+ 1)T

)=

(+1+1

)

.

Page 71: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

3.4 Uber die Laufzeit des Simplex-Algorithmus 71

3.4.9 Satz. (Beispiel von Klee und Minty)Bei entsprechender Wahl der Pivotpaare kann der Simplex-Algorithmus fur eine Aufgabemit 2n Restriktionen im Rn genau 2n − 1 Verbesserungsschritte durchlaufen.

3.4.10 Forschungsproblem. Gibt es eine Pivotregel, mit der der Simplex-Algorithmusjede durch (m,n,A,b,c) spezifizierte Aufgabe in einer Anzahl von Schritten lost, die durchein Polynom in m und n beschrankt ist.

Page 72: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

72

4 LP-Dualitat

4.1 Dualitat linearer Programme

4.1.1 Notation. Durch (n,m,A,b,c) sei eine LP-Aufgabe in naturlicher Form spezi-fiziert. Es seien M := {1, . . . ,m}, a1, . . . ,am ∈ Rn \ {0} und a1, . . . ,an ∈ Rm mitA = (a1, . . . ,am)T = (a1, . . . ,an), β1, . . . ,βm ∈ R mit b = (β1, . . . ,βm)T , P := {x ∈Rn : Ax ≤ b} sowie γ1, . . . ,γn ∈ R mit c = (γ1, . . . ,γn)T . Die Variablenvektoren seienx := (ξ1, . . . ,ξn)T ∈ Rn und y := (η1, . . . ,ηm)T ∈ Rm.

4.1.2 Bemerkung. Sei x∗ ∈ Rn mit Ax∗ ≤ b. x∗ ist genau dann ein Optimalpunkt derlinearen Optimierungsaufgabe

max cTx

Ax ≤ b

wenn es einen Vektor y∗ := (η∗1 , . . . ,η∗m)T ∈ Rm gibt mit

AT y∗ = c ∧ y∗ ≥ 0 ∧(i ∈M ∧ aT

i x∗ < βi ⇒ η∗i = 0

).

4.1.3 Beispiel. Gegeben sei die in Abbildung 4.1 (links) dargestellte lineare Optimie-rungsaufgabe

max cTx

aTi x ≤ b (i = 1, . . . ,5).

v1 und v2 seien die Schnittpunkte der Restriktionsgeraden

aT1 x = β1 ∧ aT

4 x = β4

bzw.aT2 x = β2 ∧ aT

4 x = β4.

Es giltc ∈ pos

({a1,a4}

)∧ c ∈ pos

({a2,a4}

).

Im Sinne des Kegelkriteriums sind v1 und v2 daher ‘optimal’, nicht aber zulassig.Seien I ⊂ {1, . . . ,5} mit |I| = 2, vI := A−1

I bI und yI ∈ [0,∞[ mit c = (AI)T yI .

Dann gilt

cT vI =((AI)

T yI

)TA−1

I bI = yTI bI .

Das Minimum der rechten Seite wird gerade fur I∗ = {2,3} angenommen; vI∗ ist optimal.

4.1.4 Notation. Die beiden LP-Aufgaben

max cTx min bT y

(I) Ax ≤ b (II) AT y = cy ≥ 0,

Page 73: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

4.1 Dualitat linearer Programme 73

����������������

����������������

����������������������������

����������������������������

������������������������

������������������������

����������������������������

����������������������������

�����������

�����������

����������������������������

����������������������������

�����������

�����������

������������������������������������

������������������������������������

������������������������������������

������������������������������������

�����������

�����������

������������������������

������������������������

a2

a3

a4

c

a5

a1

4.1 Abbildung Links: Zielfunktionsvektor c und zulassiges Polyeder einer LP-Aufgabe;Rechts: Zwei verschiedene Darstellungen von c als Nichtnegativkombinationen von zwei Re-striktionsnormalen.

werden im folgenden mit (I) bzw. (II) bezeichnet. Es seien

Q := {y ∈ Rm : AT y = c ∧ y ≥ 0},

ϕ : Rn → R und ψ : Rm → R bezeichnen die durch ϕ(x) := cTx bzw. ψ(y) := bT ydefinierten Zielfunktionen, und ζ(I) bzw. ζ(II) seien die (moglicherweise uneigentlichen)Optimalwerte von (I) bzw. (II).

4.1.5 Bezeichnung. Die linearen Optimierungsaufgaben (I) und (II) heißen zueinanderdual [engl.: dual]. Eine der LP-Aufgaben wird oft als primale [engl.: primal], die anderedann als zugehorige duale Aufgabe bezeichnet.1

4.1.6 Lemma. Sei y∗ := (η∗1 , . . . ,η∗m)T ∈ Q. y∗ ist genau dann ein Optimalpunkt von

(II), wenn es einen Punkt x∗ ∈ Rn gibt mit

Ax∗ ≤ b ∧(i ∈M ∧ η∗i > 0 ⇒ aT

i x∗ = βi

).

Beweis: Um Bemerkung 4.1.2 bzw. Bemerkung 2.2.22 und Lemma 2.2.28 anzuwen-den, uberfuhren wir (II) zunachst in naturliche Form. Offenbar gilt fur jedes y ∈ Q

bT y∗ ≤ bT y ⇔ (−b)T y∗ ≥ (−b)T y

sowieQ = {y : AT y ≤ c ∧ −AT y ≤ −c ∧ −y ≤ 0}.

Die Restriktionen AT y ≤ c und −AT y ≤ −c sind naturlich stets aktiv. Sei I∗ := {i ∈M : η∗i = 0}. Der Vektor y∗ ist genau dann Optimalpunkt von (II), wenn

1 Fur uns ist meistens (I) primal und (II) dual, aber das ist willkurlich, da Dualitat in gewissem Sinninvolutorisch ist; vgl. Lemma 4.1.6 sowie die Dualitatstabelle 4.1.11.

Page 74: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

74 4 LP-Dualitat

−b ∈ NQ(y∗) = pos({±a1, . . . ,± an} ∪ {−ui : i ∈ I∗}

)

gilt, d.h. wenn es λ1, . . . ,λn,µ1, . . . ,µn ∈ [0,∞[ und fur i ∈ I∗ ferner σi ∈ [0,∞[ gibt mit

−βi =

n∑

j=1

uTi ajλj −

n∑

j=1

uTi aiµi − σi (i ∈ I∗)

−βi =

n∑

j=1

uTi ajλj −

n∑

j=1

uTi aiµi (i 6∈ I∗).

Mit der Setzung ξ∗j := µj − λj fur j ∈ {1, . . . ,n} und x∗ := (ξ∗1 , . . . ,ξ∗n)T ist diese

Bedingung aquivalent zu

βi ≥ uTi Ax

∗ (i ∈ I∗)βi = uT

i Ax∗ (i 6∈ I∗).

Hieraus folgt die Behauptung.

4.1.7 Satz. (Dualitatssatz der linearen Optimierung)Es gelten die folgenden Aussagen:

(a) ζ(I) ≤ ζ(II).

(b) P 6= ∅ ∨ Q 6= ∅ ⇒ ζ(I) = ζ(II).

(c) Seien x∗ ∈ P und y∗ ∈ Q. Dann gilt

cTx∗ = bT y∗ ⇔ ζ(I) = cTx∗ ∧ ζ(II) = bT y∗ ⇔ (y∗)T (b−Ax∗) = 0.

Beweis: (a) Fur x ∈ P und y ∈ Q gilt cTx = yTAx ≤ yT b. Mit den ublichenKonventionen maxx∈∅ c

Tx = −∞ und miny∈∅ bT y := ∞ folgt ζ(I) ≤ ζ(II).

(b) Seien P 6= ∅, aber ϕ uber P nach oben unbeschrankt. Dann folgt aus (a) ζ(I) =ζ(II) = ∞. Gilt Q 6= ∅, und ist ψ auf Q nach unten unbeschrankt, so folgt analogζ(I) = ζ(II) = −∞.

Sei nun x∗ ein Optimalpunkt von (I). Nach Bemerkung 4.1.2 gibt es einen Punkty∗ ∈ Rm mit

AT y∗ = c ∧ y∗ ≥ 0 ∧(i ∈M ∧ aT

i x∗ < βi ⇒ η∗i = 0

).

Also gilt Q 6= ∅, und es es folgt mit (a)

ζ(II) ≥ ζ(I) = cTx∗ = (y∗)TAx∗ = (y∗)T b;

y∗ ist also Minimalpunkt von (II).Sei nun andererseits y∗ ein Optimalpunkt von (II). Mit Lemma 4.1.6 folgt die Exi-

stenz eines Punktes x∗ := (ξ∗1 , . . . ,ξ∗n)T mit

Ax∗ ≤ b ∧(i ∈M ∧ η∗i > 0 ⇒ aT

i x∗ = βi

).

Also gilt x∗ ∈ P und

ζ(II) = bT y∗ = (x∗)TAT y∗ = (x∗)T c ≤ ζ(I),

Page 75: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

4.1 Dualitat linearer Programme 75

d.h. x∗ ist Maximalpunkt von (I).(c) Die erste der beiden Aquivalenzen ist eine direkte Folge von (a) und (b). Zum

Beweis der zweiten beachte man, dass

0 ≤ bT y∗ − cTx∗ = (y∗)T(b−Ax∗

)

gilt. Somit ist (y∗)T(b−Ax∗

)= 0 aquivalent zu bT y∗ = cTx∗.

Insgesamt folgt damit die Behauptung.

4.1.8 Bezeichnung. (a) Die Ungleichung ζ(I) ≤ ζ(II) heißt schwache Dualitats-aussage [engl.: weak duality]; die quadratische Gleichung yT (b −Ax) = 0 Kom-plementaritatsbedingung [engl.: complementarity condition, complementary slack-ness].

(b) Jedes Paar (x∗,y∗) eines fur (I) zulassigen Punktes x∗ und eines fur (II) zulassigenPunktes y∗ mit (y∗)T (b−Ax∗) = 0 heißt primal-duales Paar [engl.: primal-dualpair].

4.1.9 Korollar. Es gilt eine der folgenden Aussagen:

(a) Beide Aufgaben sind zulassig, besitzen endliche Optimalpunkte und die Optima derZielfunktionen stimmen uberein.

Der Punkt x∗ ∈ P ist genau dann optimal in (I), wenn x∗ zu einem primal-dualenPaar erganzt werden kann.

Der Punkt y∗ ∈ Q ist genau dann optimal in (II), wenn y∗ zu einem primal-dualenPaar erganzt werden kann.

(b) Eine der Aufgaben ist unzulassig, die andere (in der Optimierungsrichtung) unbe-schrankt.

(c) Beide Aufgaben sind unzulassig.

Beweis: Der Beweis ergibt sich direkt aus dem Dualitatssatz 4.1.7.

4.1.10 Beispiel. Seien β1,β2,γ1,γ2 ∈ R. Die folgenden beiden Aufgaben sind dual zu-einander.

max γ1ξ1 + γ2ξ2

ξ1 + ξ2 ≤ β1

−ξ1 − ξ2 ≤ −β2

min β1η1 − β2η2

η1 − η2 = γ1

η1 − η2 = γ2

η1 ≥ 0η2 ≥ 0

Offenbar ist die links stehende primale Aufgabe genau dann zulassig, wenn

β1 ≥ β2

gilt. Ist der zulassige Bereich P nicht leer, so gilt ls (P ) = lin {(−1,1)T}. Also hat die

primale Aufgabe im Falle P 6= ∅ genau dann ein endliches Optimum, wenn c ∈(ls (P )

)⊥

gilt, d.h. fallsγ1 = γ2

Page 76: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

76 4 LP-Dualitat

ist.Die duale Aufgabe ist hingegen genau dann zulassig, wenn die beiden Restriktions-

geraden ubereinstimmen, d.h. wennγ1 = γ2

gilt. Im Falle der Zulassigkeit liegt genau dann ein endliches Optimum vor, wenn (β1,−

β2)T im Halbraum H≥(

(1,1)T ,0) liegt, d.h. wenn

β1 ≥ β2

gilt.

4.1.11 Dualitatstabelle. Seien {M1,M2,M3} eine Partition von {1, . . . ,m} und {N1,N2,N3}eine Partition von {1, . . . ,n}. Dann entsprechen sich Restriktionen und Variablen in pri-malen und dazu dualen LP-Aufgaben gemaß der folgenden Tabelle, die fur Maximierungs-aufgaben von links nach rechts und fur Minimierungsaufgaben von rechts nach links zulesen.

max cTx min bT y

aTi x = βi i ∈ M1 ηi

aTi x ≤ βi i ∈ M2 ηi ≥ 0aT

i x ≥ βi i ∈ M3 ηi ≤ 0ξj ≥ 0 j ∈ N1 aT

j y ≥ γj

ξj ≤ 0 j ∈ N2 aTj y ≤ γj

ξj j ∈ N3 aTj y = γj

Beweis: Es reicht, die links stehende LP-Aufgabe zu betrachten, wenn man lediglichnoch unterscheidet, ob max cTx oder min cTx zugrunde liegt. Hierdurch konnen beideTeile der Behauptung (‘Lesen der Tabelle von rechts nach links und von links nach rechts’)gleichzeitig bewiesen werden. Wir transformieren daher die links stehende LP-Aufgabefur beide Optimierungsvarianten in die naturliche Form:

max cTx / − max(−c)Tx

aTi x ≤ βi (i ∈M1)

−aTi x ≥ −βi (i ∈M1)aT

i x ≤ βi (i ∈M2)−aT

i x ≤ −βi (i ∈M3)−ξj ≤ 0 (j ∈ N1)ξj ≤ 0 (j ∈ N2).

Bezieht man die beiden Vorzeichen ± auf die beiden verschiedenen Zielfunktionen, solautet die hierzu duale Aufgabe:

Page 77: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

4.1 Dualitat linearer Programme 77

±min∑

i∈M1

βi(µi − νi) +∑

i∈M2

βiηi −∑

i∈M3

βiηi

i∈M1

ai(µi − νi) +∑

i∈M2

aiηi −∑

i∈M3

aiηi −∑

j∈N1

ujσj +∑

j∈N2

ujσj = ±c

µi,νi ≥ 0 (i ∈M1)ηi ≥ 0 (i ∈M2)ηi ≥ 0 (i ∈M3)σj ≥ 0 (j ∈ N1)σj ≥ 0 (j ∈ N2).

Mit der Setzung ηi := µi − νi fur i ∈M1 ist diese Aufgabe aquivalent zu

±min

m∑

i=1

βiηi

m∑

i=1

aiηi +∑

j∈N1∪N2

ujσj = ±c

ηi ≥ 0 (i ∈M2)ηi ≤ 0 (i ∈M3)σj ≤ 0 (j ∈ N1)σj ≥ 0 (j ∈ N2).

Die Variablen σj fur j ∈ N1 ∪ N2 konnen ebenfalls entfernt werden, wenn die entspre-chenden Gleichungen durch Ungleichungen ersetzt werden; wir erhalten die aquivalenteAufgabe:

±minm∑

i=1

βiηi

m∑

i=1

aiηi ≥ ±γj (j ∈ N1)

m∑

i=1

aiηi ≤ ±γj (j ∈ N2)

m∑

i=1

aiηi = ±γj (j ∈ N3)

ηi ≥ 0 (i ∈M2)ηi ≤ 0 (i ∈M3).

Unter Verwendung der Spaltenvektoren a1, . . . ,a1 erhalten wir fur die Maximierungsauf-gabe (links) und nach anschließendem Ersetzen von y durch −y fur die Minimierungs-aufgabe (rechts):

min bT y max bT y

aTj y ≥ γj (j ∈ N1) aT

j y ≤ γj

aTj y ≤ γj (j ∈ N2) aT

j y ≥ γj

aTj y = γj (j ∈ N3) aT

j y = γj

ηi ≥ 0 (i ∈M2) ηi ≤ 0.ηi ≤ 0 (i ∈M3) ηi ≥ 0.

Insgesamt folgt damit (bei entsprechender Ubersetzung in die Bezeichnungen der Tabel-lenleserichtung ‘von rechts nach links’) die Behauptung.

Page 78: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

78 4 LP-Dualitat

4.1.12 Korollar. Die lineare Optimierungsaufgabe

max cTx

Ax ≤ bx ≥ 0

besitzt genau dann einen Optimalpunkt, wenn die lineare Ungleichungsaufgabe

cTx − bT y ≥ 0Ax ≤ b

AT y ≥ cx ≥ 0

y ≥ 0

zulassig ist.

(x∗

y∗

)

ist genau dann Losung des Ungleichungssystems, wenn (x∗,y∗) ein

primal-duales Paar der LP-Aufgabe ist.

Beweis: ‘⇒’ Ist x∗ Optimalpunkt der primalen LP-Aufgabe, so existiert nachKorollar 4.1.9 ein y∗, so dass (x∗,y∗) ein primal-duales Paar bilden. Nach Tabelle 4.1.11

und Satz 4.1.7 erfullt dann(x∗)T ,(y∗)T

)Tdas Ungleichungssystem.

‘⇐’ Erfullt umgekehrt(x∗)T ,(y∗)T

)Tdas Ungleichungssystem, so sind x∗ primal

und y∗ dual zulassig. Nach Satz 4.1.7 (a) gilt daher cTx∗ ≤ bT y∗, also insgesamt cTx∗ =bT y∗, und die Behauptung folgt aus Satz 4.1.7 (c).

Jeder Algorithmus, der lineare Ungleichungssysteme lost, kann somit verwendet wer-den, um LP-Aufgaben zu losen. Man beachte aber, daß der Ubergang vom primalenMaximierungsproblem zum primal-dualen Zulassigkeitsproblem gemaß Korollar 4.1.12im allgemeinen neue Instabilitaten generiert. Das liegt an der ‘Zielfunktionsungleichung’cTx∗ ≥ bTy∗, die nach Satz 4.1.7 (a) mit fur jeden zulassigen Punkt (xT ,yT ) mit Gleich-heit erfullt sein muss. Auch wenn also sowohl der zulassige Bereich der primalen als auchder der dualen Aufgabe innere Punkte besitzen, ist die Losungsmenge des zugehorigenprimal-dualen Ungleichungssystems im allgemeinen (d.h. wenn nicht gerade b = 0 undc = 0 gilt) unterdimensional, und fur beliebig kleine positive ‘Storung’ ǫ ist

{(xy

)

: Ax ≤ b ∧ AT y ≥ c ∧ x ≥ 0 ∧ y ≥ 0 ∧ cTx− bT y ≥ ǫ

}

leer.

4.1.13 Beispiel. Die folgenden beiden Aufgaben sind dual zueinander.

max ξ

ξ ≤ 2ξ ≥ 0

min 2η

η ≥ 1η ≥ 0

Zur Bestimmung eines primal-dualen Paares gemaß Korollar 4.1.12 ist den primalen undden dualen Zulassigkeitsbedingungen noch die ‘Zielfunktionenrestriktion’

ξ − 2η ≥ 0

hinzuzufugen.

Page 79: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

4.2 Dualitat in okonomischen Modellen 79

4.2 Dualitat in okonomischen Modellen

4.2.1 Bezeichnung. Fur lineare Produktionsaufgabe werden die Ressourcen R1, . . . ,Rm

in der Okonomie oft auch Faktoren genannt. Ist (x∗,y∗) ein primal-duales Paar, soheißen die Komponenten η∗1 , . . . ,η

∗m von y∗ (zu x∗ gehorige) Schattenpreise.

4.2.2 Bemerkung. Seien q := (κ1, . . . ,κm)T ∈ Rm und s := (σ1, . . . ,σm)T ∈ Rm. Danngilt

max{cTx : Ax ≤ b ∧ x ≥ 0} = max{cTx− sT q : Ax ≤ b+ q ∧ x ≥ 0}

genau dann, wenn s Optimalpunkt der dualen Aufgabe min{bTy : AT y ≥ c ∧ y ≥ 0} ist.

Beweis: Nach dem Dualitatssatz 4.1.7 sind die beiden Maxima genau dann gleich,wenn die zugehorigen dualen Aufgaben gleiche Minima besitzen. Nach der Dualitatsta-belle 4.1.11 ist das Duale der um den moglichen Zukauf erweiterten Aufgabe

min bT y

AT y ≥ cy = sy ≥ 0.

Die beiden Maxima stimmen also genau dann uberein, wenn es einen fur das Duale derursprunglichen Produktionsaufgabe optimalen Vektor y∗ gibt, der auch y∗ = s erfullt.Insgesamt folgt damit die Behauptung.

Page 80: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

80

Literaturverzeichnis

[Aig04] Aigner, M.: Diskrete Mathematik. Vieweg Studium: Aufbaukurs Mathema-tik. Vieweg, 5. Auflage, 2004.

[Alt02] Alt, W.: Nichtlineare Optimierung. Vieweg Studium: Aufbaukurs Mathema-tik. Vieweg, 2002.

[Alt04] Alt, W.: Numerische Verfahren der konvexen, nichtglatten Optimierung.Teubner, 2004.

[Bar02] Barvinok, A.: A course in convexity. American Mathematical Society, Pro-vidence, RI, 2002.

[Bea96] Beasley, J.E. (Herausgeber): Advances in linear and integer programming.Oxford lecture series in mathematics and its applications. Oxford UniversityPress, 1996.

[Bor01] Borgwardt, K.H.: Optimierung, Operations Research, Spieltheorie: Mathe-matische Grundlagen. Birkhauser, 2001.

[BTN01] Ben-Tal, A. und A. Nemirovski: Lectures on Modern Convex Optimization:Analysis, Algorithms, and Engineering Applications. MPS-SIAM Series onOptimization, 2001.

[BW05] Bertsimas, D. und R. Weismantel: Optimization over Integers. DynamicIdeas, Belmont, Mass., 2005.

[Cas00] Cassels, J.W.S.: An Introduction to the Geometry of Numbers. Springer,2nd Printing Auflage, 2000.

[Chv83] Chvatal, V.: Linear programming. Freeman, 1983.

[Die00] Diestel, R.: Graphentheorie. Springer, 2nd Auflage, 2000.

[DS06] Dempe, S. und H. Schreier: Operations Research: Deterministische Modelleund Methoden. Teubner, 2006.

[GJ79] Garey, M.R. und D.S. Johnson: Computers and intractability: A guide tothe theory of NP–completeness. Freeman, 1979.

[GK99] Geiger, C. und C. Kanzow: Numerische Verfahren zur Losung unrestrin-gierter Optimierungsaufgaben. Springer, 1999.

[GK02] Geiger, C. und C. Kanzow: Theorie und Numerik restringierter Optimie-rungsaufgaben. Springer, 2002.

[GL87] Gruber, P.M. und C.G. Lekkerkerker: Geometry of Numbers. North-Holland, 1987.

Page 81: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

81

[GLS93] Grotschel, M., L. Lovasz und A. Schrijver: Geometric algorithms andcombinatorial optimization, Band 2 der Reihe Algorithms and Combinatorics.Springer, 2. Auflage, 1993.

[Gr”93] Grunbaum, B.: Convex Polytopes. Springer, 2. Auflage, 1993.

[GT97] Großmann, Ch. und J. Terno: Numerik der Optimierung. Teubner, 2.Auflage, 1997.

[HPT95] Horst, R., P.M. Pardalos und N. Thoai: Introduction to Global Gptimi-zation. Nonconvex Optimization and Applications. Kluwerr, 1995.

[JS04] Jarre, F. und J. Stoer: Optimierung. Springer, 2004.

[Kel99] Kelley, C.T.: Iterative Methods for Optimization. SIAM, 1999.

[KN05] Krumke, S. O. und H. Noltemeier: Graphentheoretische Konzepte und Al-gorithmen. Teubner, 2005.

[KV06] Korte, B. und J. Vygen: Combinatorial Optimization, Band 21 der ReiheAlgorithms and Combinatorics. Springer, 3. Auflage, 2006.

[LLKe] Lawler, E.L., J.K. Lenstra, A.H.G. Rinnooy Kan und D. Smoys(eds.).

[LPV05] Lovasz, L., J. Pekikan und K. Vesztergombi: Diskrete Mathematik.Springer, 2005.

[Min86] Minoux, M.: Mathematical programming: Theory and Algorithms. Wiley–interscience publications. Wiley, 1986.

[NN93] Nesterov, Y. und A. Nemirovski: Interior-point polynomial algorithms inconvex programming. SIAM Studies in Applied Mathematics, 1993.

[NW88] Nemhauser, G. L. und L. A. Wolsey: Integer and combinatorial optimi-zation. Wiley–interscience series in discrete mathematics and optimization.Wiley, 1988.

[PGW81] P.E. Gill, W. Murray und M.H. Wright: Praktical Optimization. Aca-demic Press, 1981.

[PS82] Papadimitriou, C.H. und K. Steiglitz: Combinatorial optimization: Algo-rithms and complexity. Prentice–Hall, 1982.

[PS02] Promel, H.J. und A. Steger: The Steiner Tree Problem. Vieweg, 2002.

[Rei94] Reinelt, G.: The Traveling Salesman: Computational Solutions for TSP Ap-plications. Springer, Lecture Notes in Computer Science 840, 1994.

[Ren01] Renegar, J.: A Mathematical View of Interior-Point Methods in ConvexOptimization. MPS-SIAM Series on Optimization, 2001.

[Roc72] Rochafellar, R.T.: Convex Analysis. Princeton University Press, 2. print.Auflage, 1972.

Page 82: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

82 4 Literaturverzeichnis

[Sch86] Schrijver, A.: Theory of Linear and Integer Programming. Wiley–Interscience series in discrete mathematics and optimization. Wiley, first edi-tion Auflage, 1986.

[Sch93] Schneider, R.: Convex Bodies: The Brunn-Minkowski Theory. Encyclopediaof Mathematics and its Applications. Cambridge University Press, 1993.

[Sch03] Schrijver, A.: Combinatorial Optimization A – C. Algorithms and Combi-natorics 24. Springer, first edition Auflage, 2003.

[Van97] Vanderbei, R.J.: Linear programming: Foundations and extensions. Int. Ser.Oper. Res. Manag. Sci. Kluwer, 2. print. Auflage, 1997.

[Wan06] Wanka, R.: Approximationsalgorithmen. Teubner, 2006.

[Ye97] Ye, Y.: Interior point algorithms: Theory and analysis. Wiley–InterscienceSeries in Discrete Mathematics and Optimization. Wiley, 1997.

[Zie95] Ziegler, G.M.: Lectures on polytopes, Band 152 der Reihe Graduate texts inmathematics. Springer, 2nd Auflage, 1995.

Page 83: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

Index 83

Index

H<(a,β), siehe Halbraum

H>(a,β), siehe Halbraum

H≥(a,β), siehe Halbraum

H≤(a,β), siehe Halbraum

I(x), siehe aktive NebenbedingungenNC(x∗), siehe Kegel der auseren Normalen,

siehe StutzkegelH-Darstellung, 4V-Darstellung, 39— irredundant, 39V-Polytop, 16ext , siehe Extremalpunktls , siehe Linealitatsraumrec , siehe Rezessionskegeld( , ), siehe Abstandk-Seite, 31

Abbildung— affin, 16abhangig— linear, 15Abschluß, 19Abstand, 19aff, siehe affine Hulleaffin abhangig, 15affin unabhangig, 15affine Hulle, 16affiner Unterraum, 15Affinkombination, 15aktive Nebenbedingungen, 29Alternativsatz, 24Aufgabe— Produktionsplanung, 5— Wire Spacing, 8

bd, siehe Rand

Caratheodory, 19cl, siehe Abschlussconv, siehe konvexe Hulle

Dilatat, 15dim, siehe Dimension, siehe DimensionDimension, 15, 20

Ebene, 15Ecke, 36Einheitskugel, siehe KugelEinheitssphare, siehe SphareEinheitsvektoren— Standard, 14

ext, siehe ExtremalpunktExtremalpunkt, 31Extremalstrahl, 31

Facette, 36Farkas, 30— Lemma von, 24, 30Fourier-Motzkin Eliminationsverfahren, 12Fourier-Motzkin-Elimination, 12

Gerade, 15— Halb-, 22

Hulle— konische, 25— konvex, 16— positive, 25Halbgerade, 22Halbraum, 21— abgeschlossener, 21, 22— offen, 22— Stutzhalbraum, 24Halbunterraum, 22Hulle— affin, 16— linear, 16Hyperebene, 15— eigentliche Stutzhyperebene, 24— Stutzhyperebene, 24— streng trennende, 22— strikt trennende, 22— trennende, 22— uneigentliche Stutzhyperebene, 24

ILP-Problem, 4Innenkegel, 27Inneres, 19— relatives, 20int, siehe Inneresirredundant, siehe V-Darstellung oderH-Darstellung

Kante, 36Kegel, 25— der auseren Normalen, 27— Innen-, 27— polyederisch, 25— Stutz-, 27— Tangential-, 27konische Kombination, 26konvex, 16konvexe Hulle, 16Konvexkombination, 16

Page 84: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

84 Index

Kreuypolytop, 18Kreuzpolytop— Einheits-, 18— regular, 18— Standard-, 18Kugel— Einheitskugel, euklidisch, 19

Lagrange-Multiplikatoren, 9Lemma— von Farkas, 30— von Farkas, 24lin, siehe lineare HulleLinealitatsraum, 33lineare Hulle, 16lineare Optimierungsaufgabe, 3— naturliche Form, 3LP-Problem, 4ls, siehe Linealitatsraum

Maximierungsaufgabe— linear-konvex, 21Maximierungsproblem— linear-konvex, 21Maximierungssaufgabe, 3Maximierungssproblem, 3MILP-Problem, 4Minimierungsaufgabe, 3— linear-konvex, 21Minimierungsproblem, 3— linear-konvex, 21Minkowski, 35Minkowski-Summe, 15

nearest-point-map, 24Nebenbedingungen— aktiv, 29Nichtnegativkombination, 26Norm— euklidisch, 19Normale, 21— außere, 21Normalenkegel, 27Normalenvektor, 21— außerer, 21

Optimalpunkt, 3Optimierung— restringiert, 3— unrestringiert, 3Optimierungsaufgabe— allgemein, 3— ganzzahlig, 4— gemischt-ganzzahlig, 4— linear, 3

— linear-konvex, 21— unzulassig, 3Optimierungsproblem, 3— ganzzahlig, 4— gemischt-ganzzahlig, 4— linear, 4— linear-konvex, 21

Parallelotop, 18Polyeder, 4— H-, 4— H-Darstellung eines, 4— V-, 39— V-Darstellung, 39— geradenfrei, 33— irredundante V-Darstellung, 39Polytop, 4— H-, 4— H-Darstellung eines, 4— V-Polytop, 16pos, siehe Hulle, positiveProblem— Wire Spacing, 8Produktionsaufgabe, 5— Preisvektor, 5— Technologiematrix, 5— verfugbare Ressourcen, 5Produktionsplan, 5— optimal, 5— zulassig, 5Produktionsplanung, 4Produktionsproblem, 5Prozedur— Fourier-Motzkin-Elimination, 12Punkt, 15

Rand, 19— relativ, 20Raum— Halbunter-, 22rec, siehe RezessionskegelRezessionskegel, 33Rundreiseproblem, 7

Satz— von Caratheodory, 19— von Minkowski, 35Seite, 31— k-, 31— eigentlich, 31— uneigentlich, 31— von C, 31— von x in C, 31Simplex, 18— Standard-, 18

Page 85: Optimierung 1...(b) ϕ heißt Zielfunktion [engl.: objective function], F heißt zul¨assiger Bereich [engl.: feasible region] der gegebenen Aufgabe. Jeder Punkt x∈ F heißt zul¨assig

Index 85

Sphare— Einheitssphare, euklidisch, 19Stutzhalbraum, 24Stutzhyperebene, 24— eigentlich, 24— uneigentlich, 24Stutzkegel, 27Stutzpunkt, 24Standardeinheitsvektoren, 14Standardsimplex, 18Strahl, 22— Extremal-, 31

Tangentialkegel, 27Transformation— affin, 16Traveling Salesman Problem, 7trennen, siehe Hyperebene, trennendeTSP, 7

unabhangig— affin, 15Unterraum— affiner, 15

Wurfel, 18— Einheitswurfel, 18— Standardwurfel, 18Wire Spacing Aufgabe, 8Wire Spacing Problem, 8

Zielfunktion, 3Zulassigkeitsaufgabe, 3Zulassigkeitsproblem, 3zulassiger Bereich, 3zulassiger Punkt, 3