Zuf¨allige Graphen - uni- · PDF file1 Einleitung und grundlegende Definitionen Diese...

114
Zuf ¨ allige Graphen SS 2009

Transcript of Zuf¨allige Graphen - uni- · PDF file1 Einleitung und grundlegende Definitionen Diese...

Zufallige Graphen

SS 2009

Inhaltsverzeichnis

1 Einleitung und grundlegende Definitionen 1

2 Die Gradfolge 4

3 Schwellenfunktionen und Teilgraphen 15

4 Asymptotische Verteilungen 29

5 Verzweigungsprozesse 54

6 Der Poisson-Verzweigungsprozess 65

7 Der Phasenubergang im Erdos-Renyi-Graph 75

8 Der kritische Erdos-Renyi-Graph 95

9 Der Zentrale Grenzwertsatz fur die riesige

Komponente 100

10 Inhomogene Zufallsgraphen 106

2

1 Einleitung und grundlegende Definitionen

Diese Vorlesung beschaftigt sich mit der Theorie zufalliger Graphen. Darunter wollen wirdie Mengen aller Graphen auf einer Vertexmenge, versehen mit einem Zufallsmechanismus,verstehen. Es bietet sich an, zunachst zu definieren, was ein Graph ist.

Definition 1.1 Ein Graph G ist ein Tupel (V,E). Dabei ist V eine Menge von Punkten,die man Knoten oder Vertices nennt. E ist entweder eine Teilmenge der Menge

(i, j) : i, j ∈ V ,

in welchen Fall man von eiem gerichteten Graphen spricht, oder

i, j : i, j ∈ V ;

dies ist der Fall eines ungerichteten Graphen.

Wir werden in dieser Vorlesung ausschließlich mit dem ungerichteten Fall befasst sein.

Beim Zufallsgraphen unterscheidet man nun zwischen verschiedenen Modellen. Dabei istein Modell durch die Wahrscheinlichkeit bestimmt, mit der bestimmte Teilgraphen aus-gewahlt werden. Da wir V fur gewohnlich endlich wahlen, mussen (und werden) wir unsum die Wahl einer σ-Algebra keine Bedanken machen: Wir nehmen einfach die Potenz-menge der Menge aller moglichen Kanten.

Definition 1.2 Es sei V eine hochstens abzahlbare Menge von Vertices. Ein Zufallsgra-phenmodell ist ein Wahrscheinlichkeitsmaß P auf der Menge

(

V

2

)

:= i, j : i, j ∈ V .

Beispiel 1.3 a) Das wohl bekannteste Modell ist der sogenannte Erdos-Renyi-GraphG(n, p). Hierbei ist

V = 1, . . . , n.Das Maß P wahlt alle Kanten i.i.d. mit Wahrscheinlichkeit p, also hat jeder Graph

G = (V,E) mit |E| = k, 0 ≤ k ≤(

n2

)

die Wahrscheinlichkeit P(G) = pk(1 − p)(n2)−k

aufzutreten.

b) Eng verwandt mit dem Erdos-Renyi-Graphen ist das ModellG(n,M). Wieder wahlenwir als V = 1, . . . , n. Uber V wahlt man jede Eckenmenge E mit |E| = M mitgleicher Wahrscheinlichkeit, also

P(G) =1

((n2)M

)

1l|E|=M.

1

c) (Perkolation) Eine geometrisch geordnete Version des Erdos-Renyi-Graphen ist dasPerkolationsmodell. Hierbei nimmt man ein zumeist regelmaßiges Gitter, oft denZ

d, d ≥ 1, loscht Kanten daraus mit Wahrscheinlichkeit 1 − p und behalt sie mitWahrscheinlichkeit p bei – dies unabhangig fur alle Kanten.

Man kann sich naturlich fragen, wozu man Zufallsgraphen betrachtet. Wir werden zumeistden Standpunkt vertreten, dass es sich bei Zufallsgraphen um interessante mathematischeObjekte handelt, die bei unterschiedlicher Parameterwahl einen Wechsel im Verhaltenzeigen, einen sogenannten Phasenubergang. Daruber hinaus sind einzige Zufallsgraphengute und handhabbare Modelle fur nicht-mathematische Phanomene, etwa:

• porose Medien

• soziale Strukturen

• Internet

uvm. Die erstmalige Einfuhrung von Zufallsgraphen geht allerding auf Paul Erdos zuruck,der sie als eine neue Beweistechnik, die probabilistische Methode, in die Graphentheorieeinfuhrte:

Beispiel 1.4 Ein Km, m ≥ 2, ist ein vollstandiger Graph auf m Kanten. In der Gra-phentheorie sind nun die Ramsey-Zahlen bekannt geworden. Wir sagen, dass die (k, l)’teRamseyzahl R(k, l) = n ist, wenn jede Farbug der Kanten des kn mit blau und rot immerentweder einen blauen Kl oder einen roten Kl liefert. Beispielsweise ist R(2, 2) = 2, weilman die eine Kante zwischen den beiden Punkten entweder rot oder blau farben muss.Man sieht auch sofort, dass R(m, 2) = R(2, m) = m gilt, denn entweder ist eine Kanterot (bzw. blau) gefarbt oder man hat einen blauen (bzw. roten) Km.

Die Frage nach anderen Ramsey-Zahlen R(k, l) ist aber schwierig, insbesondere ist fur dieDiagonalzahlen R(k, k) nur wenig bekannt: Man weiß, dass R(3, 3) = 6 und R(4, 4) = 18gilt. Fur R(5, 5) ist bekannt, dass

43 ≤ R(5, 5) ≤ 49

gilt und ahnlich102 ≤ R(6, 6) ≤ 165.

Von Erdos ist die Anekdote uberliefert, dass wir, falls uns eine weit uberlegene außerir-dische Macht angriffe und drohte, die Welt zu zerstoren, falls wir nicht R(5, 5) angebenkonnen, alles daran setzen sollten, alle Computer und Wissenschaftler, die wir besitzen,um R(5, 5) zu berechnen. Sollten die Aliens allerdings R(6, 6) willen wollen, so sollten wirversuchen, sie zu zerstoren.

Die probabilistische Methode gibt nun eine Moglichkeit, eine untere Schranke fur R(k, k)zu berechnen (dass R(l, l) fur alle k, l endlich ist, zeigte Ramsey 1929). Es gilt

R(k, k) ≥ 2k/2.

Dieses Resultat geht auf Erdos (1947) zuruck.

2

Beweis: Da R(2, 2) = 2 und R(3, 3) = 6 gilt, nehmen wir k ≥ 4 an. Sei N < 2k/2.Wir farben alle Kanten unabhangig mit Wahrscheinlichkeit 1

2rot oder blau. Also hat jede

Farbung die Wahrscheinlichkeit 2−(n2). Sei

A ⊂ 1, . . . , n, |A| = k.

SeiAR = Die Farbe jeder Kante in A ist rot.

Also istP(AR) = 2−(k

2).

Damit folgt

P(∃A ⊆ 1, . . . , n, |A| = k, A ist rot gefarbt)

= P

|A|=k

AR) ≤∑

|A|=k

P(AR)

=

(

N

k

)

2− k2 .

Nun lasst sich zeigen (einfache Ubung)

(

N

k

)

≤ Nk

2k−1.

Da außerdem N < 2k/2 und k ≥ 4 vorausgesetzt war, folgt(

N

k

)

2−(k2) ≤ Nk

2k−12−(k

2) < 2k2

2−(k

2)−k+1 = 2− k2+1 ≤ 1

2.

Aus Symmetriegrunden folgert man analog

P(∃A : |A| = k, A ist blau gefarbt) <1

2.

Somit ist

P(∃A : |A| = k, A ist entweder ganz rot oder ganz blau gefarbt) < 1.

Also gibt es Farbungen, bei denen |A| = k auftreten, die beide Farben tragen. 2

Die probabilistische Methode hat heutzutage in viele Gebiete Einzug gehalten (vgl. dasBuch von Noga Alon und Joel Spencer).

Im Laufe dieser Vorlesung werden wir zunachst (und vielleicht ausschließlich) mit den Mo-dellen G(n, p) und G(n,M) beschaftigt sein. Dabei werden verschiedene Aspekte dieserModelle betrachtet. Fur manche wird es wichtig sein, den festen WahrscheinlichkeitsraumG(n, p) bzw. G(n,M) zu betrachten. Bei anderen werden wir eher einen Prozessaspektbetrachten, also beispielsweise einen Graphen allmahlich mit Kanten fullen und daherzueinander passende Realisierungen von (G(n,M))0≤M≤(n

2)betrachten. Beide Gesichts-

punkte illustrieren unterschiedliche Phanomene der Zufallsgraphen.

3

2 Die Gradfolge

Definition 2.1 Es sei G = (V,E) ein Graph und v ∈ V . Der Grad v, deg(v), ist definiertals die Anzahl aller Nachbarn von v:

deg(v) = |w : v, w ∈ E|.

Die Folge der Grade ist eine der wichtigsten Charakteristika eines Graphen. Mit ihr wollenwir uns in diesem Abschnitt befassen. Dabei legen wir stets das Modell G(n, p) zugrunde.Sei also G ∈ G(n, p) (womit wir meinen, der Graph G wird gemaß G(n, p) gezogen). Sei(di)

ni=1 die Folge der Grade der Vertices, die wir schon in absteigender Reihenfolge sortiert

haben, also

d1 ≥ d2 ≥ . . . ≥ dn.

Den maximalen Grad d1 und den minimalen Grad dn bezeichnen wir auch mit ∆(G) bzw.δ(G). Es sei Xk(G) die Anzahl der Knoten in G mit Grad genau k, Yk sei die Anzahl derKnoten mit Grad mindestens k und Zn die Anzahl an Vertices mit Grad hochstens k, also

Yk =∑

l≥k

Xk und Zk =∑

l≤k

Xl.

Offenbar ist

dr ≥ k ⇔ Yk ≥ r und

dn−r ≤ k ⇔ Zk ≥ r + 1.

Wir beginnen mit einem langweiligen Fall.

Proposition 2.2 Falls p = o(n−3/2), so besteht G aus unabhangigen (unverbundenen)Kanten.

Beweis: Es gilt

EY2 =n∑

j=2

EXj ≤ nn−1∑

j=2

(

n− 1

j

)

pj

≤ n ·n−1∑

j=2

(pn)j

j!= o(1),

aufgrund der Voraussetzung. 2

Gilt zudem pn2 → 0, so gibt es in G asymptotisch P-f.s. gar keine Kanten, d. h.

P(G hat Kanten) → 0,

4

ist pn2 → ∞, aber p = o(n−3/2), so gibt es ein M , so dass

d1 = . . . = d2M = 1 und d2M+1 = . . . = dn = 0

gilt. M ist dabei von der Großenordnung p(

n2

)

∼ pn2/2. Mehr gibt es in diesem Fall kaum

zu sagen, daher nehmen wir von nun an p≫ n−3/2 an (wobei wir a(n) ≫ b(n) schreiben,wenn b(n) = o(a(n)) gilt).

Satz 2.3 Sei ε > 0 fest und

εn−3/2 ≤ p = p(n) ≤ 1 − εn−3/2.

Es sei k = k(n) ∈ N. Setze

λk = λk(n) = nB(k;n− 1, p).

Dann gilt:

(i) Falls limn→∞ λk(n) = 0, dann ist lim P(Xk = 0) = 1.

(ii) Falls limn→∞ λk(n) = ∞, dann ist

lim P(Xk ≥ t) = 1 ∀ t fest.

(iii) Falls0 < limλk(n) = limλk(n) < +∞,

dann ist Xk asymptotisch Poi(λk)-verteilt.

Beweis: OBdA sei ρ ≤ 12. Bemerke, dass

λk = nB(k;n− 1, p) = EXk.

Daher:P(Xk ≥ 1) ≤ EXk = λk(n).

Daraus folgt (i).

Sei also von nun an limλk(n) > 0. Wir zeigen nun, dass fur jedes r ≥ 1, das r-te faktorielleMoment von Xk

ErXk := EXk(Xk − 1) . . . (Xk − r + 1) (2.1)

asymptotisch wie λrk(n) geht. Da Xk die Anzahl der Vertices vom Grad k ist, ist ErXk

die erwartete Anzahl geordneter r-Tupel von Vertices vom Grad k. Um also ErXk zuberechnen, fragen wir nach der Wahrscheinlichkeit, dass gegebene Knoten x1, . . . , xr al-lesamt den Grad k haben. Dazu betrachten wir zunachst die Kanten, die die x1, . . . , xr

untereinander verbinden. Wir nehmen an, dass es l solcher Kanten gibt, und dass xi zudi ≤ k der x1, . . . , xr verbunden ist, dann folgt

r∑

i=1

di = 2l

5

und xi muss mit k−di der Knoten verschieden von x1, . . . , xr verbunden werden. Aufgrundder Unabhangigkeit der Kanten hat dieses Ereignis die Wahrscheinlichkeit

r∏

i=1

B(k − di;n− r, p).

Wir unterscheiden zwei Falle: Zum einen sei (p(n)) von 0 weg beschrankt. Dann folgt auslimλk(n) > 0, dass die relevanten Werte k(n) von der Ordnung pn sind, z. B.

1

2pn ≤ k(n) ≤ 3

2pn

(dies lasst sich schon aus der Chebyshev-Ungleichung ablesen, genauer gilt sogar

k(n) = pn+√

O(n logn),

wie man aus dem Gesetz vom iterierten Logarithmus erkennt). Hieraus leitet man ab(Ubung), dass es eine Funktion φr(n) mit limn→∞ φr(n) = 0 gibt, so dass

B(k − d, n− r, p)

B(k;n− 1, p)− 1

≤ φr(n)

fur alle festen r und d gilt. Aus (2.1) folgt dann

Er(Xk) ∼ (n)rB(k;n− 1, p)r ∼ λrk

(wobei(n)r := n(n− 1) . . . (n− r + 1)).

Der zweite Fall ist, dass p = o(1) gilt. Dann schatzen wir ErXk folgendermaßen ab:

ErXk ≤ (n)r

R∑

l=0

(

R

l

)

plqR−l maxP

d∗i =2l

r∏

i=1

B(k − d∗i ;n− r, p), (2.2)

wobei (n)r die Auswahlmoglichkeiten fur die xi beschreibt, R =(

r2

)

und q = 1− p ist, dieSumme fur die inneren und das Maximum fur die außeren Verbindungen steht. Es wirdhierbei naturlich uber alle d∗i mit d∗i ≤ minr − 1, k maximiert. Da limλk(n) > 0 undp = o(1) gilt, folgt k(n) = o(n) fur alle relevanten k. Ist also 0 ≤ d ≤ minr − 1, k(n)und ist n genugend groß, so folgt

B(k − din− r, p)

b(K,N − R,P )≤ (k)d

(n− r − k)dp−d < 2

(

k

pn

)d

.

Also folgt aus (2.2)

Er(Xk) ≤ nrB(k, n− r, p)r

1 +

R∑

l=1

(

R

l

)

pl2r

(

k

pn

)2l

(2.3)

≤ nrB(k, n− r, p)r

1 + 2r2R∑

l=1

(

k2

pn2

)l

.

6

Die Annahme, dass limλk(n) > 0 impliziert, dass k2 = o(pn2). Ware namlich fur einη > 0 k ≥ η

√pn fur beliebig große n, so folgte

limλk(n) ≤ limn

(

n

k

)

pk ≤ limn(en

k

)k

pk

= limn(epn

k

)k

≤ limn

(

e√p

η

)η√

pn

≤ limn2−n1/5

= 0,

im Gegensatz zur Annahme. Da k2 = o(pn2), folgt aus (2.3)

ErXk ≤ nrB(k, n− r, p)r1 + o(1) = λrk1 + o(1).

Betrachtet man nur unabhangige, d. h. unverbundene, Vertices, so ergibt sich

ErXk ≥ qR(n)rB(k, n− r, p)r = λrk1 + o(1),

da q → 1 konvergiert. Also giltErXk ∼ λr

k.

Berechnet man umgekehrt das r-te faktorielle Moment einer Poi(λk)-verteilten Zufallsva-riablen Y , so ergibt sich

ErY ∼ λrk. (Ubung)

Gilt nun lim λk(n) = +∞, dann folgt aus E2(Xk) ∼ λ2k auch

EX2k = λ2

k(1 + o(1)).

Mithilfe der Chebyshev-Ungleichung ergibt sich

limn→∞

P(Xk ≥ t) = 1

fur jedes feste t. Gilt schließlich lim supλk < +∞, so folgt die Behauptung aus demuntenstehenden Satz 2.4 und

Er(Xk) ∼ λrk.

2

Satz 2.4 Sei λ = λ(n) eine nicht-negative beschrankte Funktion auf N. Seien X1, X2, . . .ganzzahlige Zufallsvariablen, so dass

limn→∞

(Er(Xn) − λr) = 0 r = 0, 1, . . . .

Dann gilt auchdTV (PXn , Pλ) → 0

fur die totale Variationsdistanz dTV .

7

Beweis: Siehe Bollobas, Random Graphs, Theorem 1.22. 2

Man kann den Beweis von Satz 2.3 so modifizieren, dass man entsprechende Resultate furYk und Zk erhalt:

Satz 2.5 Sei ε > 0 und

εn−3/2 ≤ p(n) =: p ≤ 1 − εn−3/2

und sei k = k(n) ∈ N. Setze

µk = nB(k, n− 1, p) und νk = n(1 − B(k + 1, n− 1, p)),

wobeiB(l,m, p) =

j≥l

B(j;m, p).

Dann gelten die Behauptungen aus Satz 2.3, wenn wir Xk und λk durch Yk und µk oderZk und νk ersetzen.

Dieses Resultat erlaubt es uns, die ersten und letzten Elemente der Gradfolge in Verteilungzu bestimmen. Ein paar Resultate fur moderat große Werte von p sehen folgendermaßenaus:

Satz 2.6 Sei p = p(n) so dassp(1 − p)

(logn)3→ ∞.

Seien c > 0 und m ∈ N fest und x = x(c, n) so, dass

n ·∫ ∞

x

e−y2/2dy = c,

d. h. approximativ fur großes x,

1√2π

n

xe−x2/2 = c.

Dann gilt

limn→∞

P(dm < pn+ x(pqn)1/2) = e−cm−1∑

k=0

ck

k!

mit q := 1 − p.

Beweis: SetzeK := ⌈pn+ x(pqn)1/2⌉.

Dann istdm < pn+ x(pqn)1/2

8

gleichbedeutend damit, dass hochstens m− 1 Vertices mindestens Grad K haben. Also:

YK ≤ m− 1.

Gemaß Satz 2.5 konvergiert die Verteilung von YK gegen Poi(µK), wobei

µK := nB(K;n− 1, p)

ist. Nach Definition x gilt:x(pqn)1/2 = o((pqn)2/3).

Aus dem Satz von de Moivre-Laplace folgt daher

µK ∼( c

n

)

· n = c.

Daraus folgt der Satz. 2

Der Wert von x in diesem Satz ist ungefahr√

2 logn fur jedes c. Außerdem gilt

x(1, n) = (2 logn)1/2

(

1 − log logn

4 logn− log(2

√π)

2 logn

)

+ o

(

1√log n

)

.

Also gilt fur jedes δ = o(1), dass x′ = x(1, n) + δ zu einem Wert c′ ∼ exp(−(2 logn)1/2δ)gehort. Somit lasst sich Satz 2.6 auch schreiben als

Satz 2.7 Sei pqn(log n)3

→ ∞ und y ∈ R fest. Dann gilt

limn→∞

P

(

dm < pn +√

2pq log n

(

1 − log log n

4 logn− log(2

√π)

2 logn+

y

2 logn

))

= e−e−ym−1∑

k=0

e−ky

k!.

Betrachtet man d1, so erhalt dieses Resultat eine aus der Extremwerttheorie sehr bekannteForm.

Korollar 2.8 Sei pqn(log n)3

→ ∞ und y ∈ R fest. Dann gilt fur den Maximalgrad ∆ = d1

limn→∞

P

(

d1 < pn+√

2pq logn

(

1 − log logn

4 logn− log(2

√π)

2 logn+

y

2 logn

))

= e−e−y

.

Fur p-Werte, die sehr nahe bei 0 oder 1 sind, lassen sich noch aus Satz 2.4 uber denmaximalen und minimalen Grad ableiten. Der Beweis des folgenden Satzes ist eine (etwaslangere) Ubung.

Satz 2.9 Seien k, x und y fest, k ≥ 2, x > 0 und y ∈ R. Falls

p ∼ x n− k+1k

9

ist, dann folgtP(∆(G) = k) → 1 − e−xk/k!

undP(∆(G) = k − 1) → e−xk/k!.

Falls

p ≈ (log n+ k log logn + y)

n

gilt, so folgt

P(δ(G) = k) → 1 − e−e−y

k!

undP(δ(G) = k + 1) → e−e−y/k!

.

Wir wollen uns nun fragen, ob es eine Art Gesetz der großen Zahlen gibt, also Werte von p,fur die fur fast alleG ∈ G(n, p) der Maximalgrad derselbe ist. Ahnliches lasst sich naturlichauch fur den Minimalgrad fragen. Schließlich konnen wir auch die Frage untersuchen, obdie Knoten maximalen (oder minimalen) Grades eindeutig sind. Diese Analyse basiert aufSatz 2.3. Zunachst zeigen wir, dass, falls fast alle G ∈ G(n, p) den gleichen Maximalgradhaben, p = o( log n

n) gilt. Wir werden auch sehen, dass diese Bedingung beinahe hinreichend

ist.

Satz 2.10 Sei p ≤ 12. Angenommen, es gibt eine Funktion D(n), so dass in G(n, p) gilt

limn→∞

P(∆(G) = D(n)) = 1.

Dann folgt

p = o

(

log n

n

)

.

Beweis: Nach Satz 2.3 mussen wir

limn→∞

nB(D;n− 1, p) = +∞

undlim

n→∞nB(D + 1;n− 1, p) = 0

haben, um das gewunschte Resultat zu erzielen. Daher gilt

limn→∞

B(D + 1;n− 1, p)

B(D;n− 1, p)= lim

n→∞p(n−D − 1)

(1 − p)(D + 1)= 0,

also pnD

→ 0, da n − D − 1 nicht gegen 0 geht und 1 − p auch nicht gegen ∞. UnterAusnutzung von

nB(D;n− 1, p) = +∞erhalten wir, dass auch fur jedes c > 1

limnB(⌈cpn⌉, n− 1, p) = +∞

10

gilt (denn cnpD

→ 0). Also:

limn→∞

n

(

epn

cpn

)cpn

= limn→∞

n(e

c

)cpn

= +∞

Dies ist fur alle c > 0 nur moglich, wenn p = o( log nn

) ist. 2

Satz 2.11 Sei p = o( log nn

) und k = k(n) ≥ pn so, dass maxλk(n), λk(n)−1 minimal ist.Dann gilt:

(i) Ist 0 < limλk(n) ≤ limλk(n) <∞, dann ist

P(∆(G) = k(n)) ∼ 1 − e−λk(n)

undP(∆(G) = kn(n) − 1) ∼ e−λk(n).

(ii) Gilt limλk(n) = +∞, so hat G P-f.s. maximalen Grad k(n) und gilt limλk(n) = 0,dann hat G P-f.s. maximalen Grad k(n) − 1.

Beweis: Man rechnet nach, dass

k

pn→ ∞,

λk+1

λk

∼ pn

k + 1→ 0

undλk

λk−1∼ pn

k→ 0

gilt. Also gilt λk+1 → 0 und λk−1 → ∞. Nach Satz 2.3 bedeutet λk−1 → ∞, dass G P-f.s.einen Vertex mit Grad k(n) − 1 enthalt. Also ist der Maximalgrad von G mindestensk(n) − 1. Daruber hinaus gilt

P(∆(G) ≥ k + 1) = P(

n−1∑

j=k+1

Xj ≥ 1) ≤ E

n+1∑

j=k+1

EXj = O(λk+1) = o(1).

Also ist der Grad von G P-f.s. k(n)− 1, es sei denn es gibt einen Knoten vom Grad k(n),in diesem Fall ist der Maximalgrad k(n).

P(∆(G) = k(n)) ∼ P(Xk ≥ 1)

undP(∆(G) = k(n) − 1) ∼ 1 − P(∆(G) = k(n)).

Schließlich kennen wir das Verhalten von P(Xk ≥ 1) aus Satz 2.3. 2

Fur p ≤ 12

ist das Verhalten des Minimalgrades etwas anders als das des Maximalgrades.Es gelten die folgenden Satze:

11

Satz 2.12 (i) Sei p ≤ 12. Angenommen, es gebe eine Funktion d(n), so dass in G(n, p)

limn→∞

P(δ(n) = d(n)) = 1

gilt. Dann folgtp ≤ (1 + o(1)) logn/n.

(ii) Gilt p ≤ (1+o(1)) log nn

, dann gibt es eine Funktion d(n), so dass δ(n) P-f.s. entwederd(n) oder d(n) − 1 ist.

Beweis:

(i) Wir schreiben als p = log n+ω(n)n

. Ist dann ω(n) = o(logn), so ist

λ0 = nB(0, n− 1, p) = n(1 − p)n−1 ∼ n

ne−ω(n) = e−ω(n).

Dann folgt aber mit Satz 2.3, dass G P-f.s. einen isolierten Knoten hat, wenn ω(n) →−∞ geht. Daher konnen wir annehmen, dass p ≥ log n+C

nfur eine Konsante C gilt.

Wie im Beweis von Satz 2.10 sieht man ein, dass, falls

limn→∞

P(δ(n) = d(n)) = 1

gilt, fur jedes feste ε mit 0 < ε < 12, gilt

n√εpn

(

e

εp

)εpn

pεpne−pn+p2εn → ∞.

Also:

log n− 1

2log pn+ pn(ε+ ve log

1

ε+ ε− 1) → ∞.

Da dies fur beliebig kleine ε > 0 gilt, folgt, dass

p ≤ logn

n+ o

(

log n

n

)

.

(ii) Geht wie im Beweis von Satz 2.11.

2

Wir wenden uns nun der Eindeutigkeit des Vertex mit maximalem Grad zu:

Satz 2.13 (i) Sei p ≤ 12

undpn

log n→ ∞,

dann hat P-f.s. G einen eindeutigen Knoten von maximalem Grad und einen ein-deutigen Knoten von minimalem Grad.

(ii) Ist p ≤ 12

und hat P-f.s. G einen endeutigen Knoten von maximalem und eineneindeutigen Knoten von minimalen Grad, dann gilt

pn

log n→ ∞.

12

Beweis:

(i) Sei k maximal mit

n ·n−1∑

l=k

B(l, n− 1, p) ≥ 1.

Man uberpruft schnell, dass

k > pn, k ∼ pn, nB(k − 1;n− 1, p) → 0

undB(k;n− 1, p)

B(k − 1;n− 1, p)→ 1

gilt. Also kann man l = l(n) so wahlen, dass

pn < l < k und nB(l, n− 1, p) → 0

und nn−1∑

k=l

B(l, n− 1, p) → ∞

gilt. Variiert man l so, dass dies wahr bleibt, kann man ein m, pn < m < k finden,so dass

n

n−1∑

k=m

B(i;n− 1, p) → ∞ und

n

n−1∑

i=m

B(i, n− 1, p)nB(m;n− 1, p) → 0

gilt. Wir behaupten nun, dass P-f.s. einen, aber nur einen Knoten vom Grad min-destens m gibt. Dies folgt, da die erwartete Anzahl von Knoten vom Grad m

E[Ym] = nn−1∑

i=m

B(i;n− 1, p)

ist. Also gilt E[Yn] → ∞. Aus Satz 2.4 folgt daher, dass ∆(G) ≥ m P-f.s. Ande-rerseits berechnet sich die Wahrscheinlichkeit, dass zwei Vertices den gleichen Gradvon mindestens m haben als

j≥m

P[Xj ≥ 2] ≤∑

j≥m

E2(Xj)

(wobei E2 das 2te faktorielle Moment bezeichnet). Nun gilt∑

j≥m

E2(Xj) =∑

j≥m

n(n− 1)(pB(j − 1, n− 2, p)2 + (1 − p)B(j;n− 2, p)2)

≤∑

j≥m

n2B(j;n− 2, p)2

≤ nB(m− 1;n− 2, p)n∑

j≥m−1

B(j;n− 2, p)

∼ nB(m,n− 1, p)n∑

j≥m

B(j;n− 1, p) → 0.

Also∑

j≥m P(Xj ≥ 2) → 0. Dies beweist die Behauptung.

13

(ii) Ist eine Ubung.

2

Das Gesamtbild ist also dieses:

• Ist p = 0( log nn

), so sind Minimal- und Maximalgrad P-f.s. festgelegt (und es gibtmehrere Vertices von diesem Grad).

• Ist ε log nn

≤ p ≤ (1 + o(1)) log nn

fur ein ε > 0, so ist der Minimalgrad festgelegt(und es gibt viele Knoten von diesem Grad), waahrend das Maximalgrad nicht mitWahrscheinlichkeit 1 konzentriert ist.

• Ist (1 + ε) log nn

≤ p ≤ C log nn

fur ε0, C > 0, dann sind weder Maximal- nochMinimalgrad f.s. festgelegt.

• Scließlich ist fur pnlog n

→ ∞, p ≤ 12

P-f.s. ein eindeutiger Knoten von maximalenbzw. minimalem Grad.

14

3 Schwellenfunktionen und Teilgraphen

Einer der bemerkenswertesten Entdeckungen von Erdos und Reny bei der Untersuchungvon Zufallsgraphen ist das Auftreten von Schwellen. Damit meinen wir, dass fur vieleEigenschaften eines Zufallsgraphen sich die Wahrscheinlichkeit ihres Auftretens in einemsehr kleinen Fenster von 0 auf 1 (oder 1 auf 0) andert, wenn man p varriiert.

Definition 3.1 Wir nennen A eine wachsende Eigenschaft (und schreiben G ∈ A, wennder G die Eigenschaft A hat), falls p→ P[G ∈ A] wachsend ist. Ist p 7→ P[G ∈ A] fallend,so heißt A fallend.

Bemerkung: Diese Definition ist ursprunglich nur eine Folgerung aus der ursprunglichenDefinition, die besagt, dass fur G ∈ A und G′ ⊇ G auch G ∈ A gilt.

Definition 3.2 p = p(n) heißt Schwellenfunktion fur die wachsende Eigenschaft A, falls

P[G ∈ A] →

0, falls p≪ p(n)

1, falls p≫ p(n).

Dabei schreiben wir p≪ p, fallsp(n)

p(n)→ 0

und p≫ p, fallsp(n)

p(n)→ ∞

gilt.

Ahnliches ließe sich auch im Modell G(n,M) definieren, aber wir werden in Rahmen dieserVorlesung zunachst beim Modell G(n, p) verharren. Wir zeigen zunachst

Satz 3.3 Jede monotone Eigenschaft hat eine Schwellenfunktion.

Beweis: OBdA sei A eine monoton wachsende Grapheneigenschaft. Sei 0 < ε < 1 undm ∈ N mit

(1 − ε)m ≤ ε.

Sei p so klein, dass P(G ∈ A) ≤ ε in G(n, p). Betrachte unabhangige Kopien G(1), . . . , G(m)

von G ∈ G(n, p) auf derselben Knotenmenge. G sei ihre Vereinigung. Beachte, dass G ∈G(n, p′) mit

p′ = 1 − (1 − p)m ≤ mp

gilt. Daher giltP(G(1) ∪ . . . ∪G(m) ∈ A) ≤ P(Gmp ∈ A).

15

Andererseits ist A wachsend und daher hat G(1) ∪ . . . ∪ G(m) die Eigenschaft A, fallsG(i) ∈ A fur irgendein i gilt. Daher folgt

P[G(1) ∪ . . . ∪G(m) /∈ A] ≤ P[G(i) /∈ A fur jedes i]

= (1 − P[G ∈ A])m = (1 − ε)m ≤ ε.

Also giltP(G ∈ A) ≥ P[G(1) ∪ . . . ∪G(m) ∈ A] ≥ 1 − ε.

Also ist fur alle p ≥ mp Pp(G ∈ A) ≥ 1 − ε. Bezeichne nun p(ε) den P -Wert fur den

Pp(ε)[G ∈ A] = 1 − ε

gilt. Dann folgt fur ε < 12

p(ε) ≤ p(1

2) ≤ p(1 − ε) ≤ mp(ε),

wobei m von ε, aber nicht von n abhangt. Also ist

p(ε) ≍ p

(

1

2

)

≍ p(1 − ε).

Aus der folgenden Proposition folgt dann, dass beispielsweise p(12

eine Schwellenfunktionist. 2

Proposition 3.4 Angenommen, A ist eine wachsende Eigenschaft von Teilmengen inG(n, p). Es sei p(ε) definiert, so dass Pp(ε)[G ∈ A] = ε. p(n) ist genau dann eine Schwel-lenfunktion, wenn

p(ε) =: p(ε;n) ≍ p(n) fur jedes ε ∈ (0, 1).

Beweis: Wir verweisen auf das Buch “Random graphs” von Janson, Luczak, Rucinski,Proposition 1.23. 2

Ein beruhmtes Beispiel fur Schwellenfunktionen sind die Situationen, wo wir untersuchen,ob ein G ∈ G(n, p) einen gegebenen Graphen, sagen wir Γ, als Teilgraphen enthalten, alsobeispielsweise ob ein G ∈ G(m, p) ein Dreieck enthalt. Offenbar ist dies eine wachsendeEigenschaft, sie sollte also nach dem Vorhergehenden eine Schwellenfunktion sein.

Die Technik, dies herzuleiten, ist die Methode des ersten und zweiten Moments, die eigent-lich nur aus der Tschebyschev-Ungleichung besteht. Da die Zufallsgraphen-Theoretikerdarauf sehr stolz sind, werden wir sie abstrakt und an einem Beispiel vorstellen.

Die erste Momentenmethode ist eine einfache Anwendung der Markov-Ungleichung: Furjede Zufallsvariable X mit Werte in N0 gilt

P[X > 0] ≤ EX.

16

Die Methode des ersten Moments besteht nun darin zu zeigen, dass EXn = o(1) gilt undsonst Xn = 0 asymptotisch fast sicher (das ist Graphentheorie-Slang fur P[Xn = 0] → 1).

Die zweite Momentenmethode oder Methode des 2. Moments besteht aus einer Anwen-dung der Chebyschev-Ungleichung. Sei X eine Zufallsvariable mit EX > 0. Dann istX = 0 ≤ |X − EX| ≥ EX, also

P(X = 0) ≤ P(|X − EX| ≥ EX) =VX

(EX2). (3.1)

Kann man also zeigen, dass die rechte Seite gegen 0 geht, so folgt Xn 6= 0 asymptotischfast sicher. Ahnlich sieht man, dass fur Zufallsvariablen X mit VX

(EX)2= o(1) gilt Xn

EXn

p−→ 1.

Bemerkung 3.5 Ungleichung (3.1) lasst sich noch verbessern. Aus der Cauchy-Schwarz-Ungleichung (angewandt auf X = X1lX 6=0) lasst sich z. B. gewinnen:

(EX)2 ≤ EX2P(X 6= 0),

also

P(X 6= 0) ≥ (EX)2

EX2

und daher

P(X = 0) ≤ 1 − (EX)2

EX2=

VX

EX2=

VX

(EX)2 + VX.

Dies ist manchmal besser als (3.1).

Beispiel 3.6 Wir wenden uns fur einen Moment von der Graphentheorie ab: Sei [n]pder Wahrscheilichkeitsraum, der aus allen Teilmengen von 1, . . . , n besteht, wobei jedesElement A ⊆ 1, . . . , n mit Wahrscheinlichkeit p|A|(1 − p)n−|A| gezogen wird, wir werfenalso fur jede Zahl eine p-Munze und entscheiden, ob diese Zahl teilnimmt. Wir fragen nachder Anzahl der arithmetischen Progressionen der Lange k in einem zufalligen Element aus[n]p. Sei diese Xk und k ≥ 2 fest. Wir mussen zunachst eine asymptotische Abschatzungder Anzahl der arithmetischen Progressionen der Lange k in 1, . . . , n, f(n, k), haben.Wir wahlen f(n, k) ∼ n2, da eine Progression durch die ersten beiden Elemente festgelegtist und es knapp n2 Wahlen dafur gibt. Fur i = 1, . . . , f(n, k) sei nun Ii der Indikator,der angibt, ob die i-te Progression in [n]p auftaucht oder nicht. Dann ist

Xk =

f(n,k)∑

i=1

Ii

und daher

EXk = f(n, k)pk = Θ(n2pk),

wobei wir an = Θ(bn) schreiben, falls es Konstanten gibt, so dass fur hinreichend großesn gilt:

can ≤ bn ≤ Cbn

17

(also an = O(bn) und bn = O(an)). Gilt also p≪ n−2/k, so folgt E(Xk) → 0 und nach derersten Momentenmethode gilt

P(Xk > 0) = o(1),

d. h. Xk = 0 asymptotisch f.s.

Ist andererseits p ≫ n−2/k, so gilt EXk → ∞, was naturlich alleine nicht genugt, umP(Xk > 0) → 1 zu zeigen. Hier benutzen wir die zweite Momentenmethode. Beachte,dass Ii und Ij unabhangig sind, falls die i-te und die j-te arithmetische Progression keinegemeinsamen Elemente besitzt; in diesem Fall ist Cov(Ii, Ij) = 0. Ansonsten schatzen wirab:

Cov(Ii, Ij) ≤ EIiIj .

Es gibt O(n3) Paare (Ii, Ij), die ein Element gemeinsam haben und O(n2) Paare mit zweiElementen oder mehr gemeinsam. Im ersten Fall ist

Cov(Ii, Ij) = p2k−1,

im zweiten

Cov(Ii, Ij) ≤ pk.

Also gilt

VXk =

f(n,k)∑

i=1

f(n,k)∑

j=1

Cov(Ii, Ij) = O(n3p2k−1 + n2pk).

Also folgt mit der zweiten Momentenmethode

P(Xk = 0) = O

(

1

np+

1

n2pk

)

= o(1).

Also ist die Schwellenfunktion fur das Auftreten einer arithmetischen Progression derLange k n−2/k.

Wir wollen nun sehen, was die Schwelle fur das Auftreten von Teilgraphen ist.

Sei also Γ ein Graph und XΓ die Anzahl von Kopien von Γ, die in einer Realisation einesGraphen G gemaß G(n, p) enthalten ist. Seien v = vΓ und e = eΓ die Anzahl von Knotenbzw. Kanten von Γ. Betrachtet man den vollstandigen Graphen auf n Knoten, Kn, danngibt es in Kn genau

f(n,Γ) =

(

n

v

)

v!/aut(Γ)

Kopien von Γ, wobei aut(Γ) die Große der Automorphismengruppe von Γ ist. Fur jedeKopie Γ′ von Γ in Kn sei

IΓ′ = 1lΓ′⊆G(n,p)

der Indikator dafur, dass Γ′ in G(n, p) auftritt. Dann ist

EXΓ = f(n,Γ)pe = Θ(nvpe) →

0, falls p≪ n−v/e

∞, falls p≫ n−v/e

18

und gemaß der Methode des ersten Moments folgt

P[XΓ > 0] = o(1), falls p≪ n−v/e. (3.2)

Stimmt es auch, dass

P[XΓ > 0] = 1 − o(1), falls p≫ n−v/e.

Wir betrachten ein Beispiel:

Beispiel 3.7 Es sei H0 der Graph mit 4 Knoten und 5 Kanten:und G0 und der Graph, der aus H0 entsteht, wenn man einen weiteren Knoten mit einereinzigen Kante zu H0 hinzufugt (es gibt zwei nicht-isomorphe Arten dies zu tun, es isthier aber unerheblich, welche wir wahlen):

An diesem Beispiel werden wir sehen, dass n−v/e nicht stets die Schwellenfunktion fur dasAuftreten eines Subgraphen sein kann. Sei p(n) = n−9/11, wobei daran nur wichtig ist,dass

n−5/6 ≪ p≪ n−4/5

gilt. Dann giltEXG0 = Θ(n5p6) → ∞,

aber wendet man (3.2) auf H0 an, so sieht man, dass asymptotisch fast sicher keine Kopienvon H0 in G vorhanden sind, also konnen auch keine Kopien von H0 vorhanden sein.

Also ist die Lage fur Teilgraph-Zahlungen etwas komplizierter als fur arithmetische Pro-gressionen. Warum hat die Methode im vergangenen Beispiel nicht geklappt? Wenn manetwas uberlegt, ist die Antwort einfach. Der Graph H0, der ein Teilgraph von G0 ist, hateine hohere “Dichte” v

eals G0. Man muss zunachst sicherstellen, dass p so groß ist, dass

H0 auftreten kann. Die “Extrakante” bekommt man dann gratis.

Wenn wir dies formal machen wollen, sollten wir daher zunachst die maximale Dichteeines Teilgraphen definieren: Es sei Γ ein Graph. Wir setzen

m(Γ) = max

e(H)

v(H): H ⊆ Γ, v(H) > 0

.

Hierbei sind e(H) und v(H) die Kanten bzw. Knoten des Graphen H ⊆ Γ.

Satz 3.8 Sei Γ ein beliebiger Graph mit mindestens einer Kante. Dann gilt

limn→∞

P(Γ ⊆ G(n, p)) =

0, falls p≪ n− 1m(Γ)

1, falls p≫ n− 1

m(Γ)

.

Beweis: Wir beweisen die beiden Konvergenzen einzeln. Sei also zunachst p ≪ n− 1m(Γ) .

Sei H ′ ⊆ Γ, so dass e(H′)v(H′)

= m(Γ) gilt. Dann folgt aus (3.2), dass es asymptotisch f.s. keine

Kopien von H ′ in G(n, p) gibt, also auch keine Kopie von Γ.

19

Um die umgekehrte Richtung zu beweisen, benutzen wir die Methode des zweiten Mo-ments. Dazu brauchen wir eine obere Schranke fur die Varianz von XΓ, die Anzahl derKopien von Γ in G(n, p), finden. Diese Abschatzung gleidern wir als Lemma aus. Setze

ΦΓ = ΦΓ(n, p) = minEXΓ : H ⊆ Γ, eH > 0.Bemerke, dass

ΦΓ ≍ minH⊆Γ,eH>0

nv(H)pe(H)

gilt.

Lemma 3.9 Sei Γ ein Graph mit wenigstens einer Kante. Dann gilt

VXΓ ≍ (1 − p)∑

H⊆ΓeH>0

n2vΓ−vHp2eΓ−eH

≍ (1 − p) maxH⊆Γ,eH>0

(E(XΓ))2

EXH

= (1 − p)(EXΓ)2

ΦΓ.

Hierbei hangen die Konstanten (wir schreiben an ≍ bn, falls es Konstanten c, C > 0 gibtmit

can ≤ bn ≤ Can

fur schließlich alle n) von Γ ab, aber nicht von n und von p ab. Insbesondere gilt

VXΓ = O

(

(EXΓ)2

ΦΓ

)

und, falls p von 1 weg beschrankt ist,

VXΓ ≍ (EXΓ)2

ΦΓ

.

Beweis: Falls fur Γ′,Γ′′ gilt, dass ihre Kantenmengen disjunkt sind, also

E(Γ′) ∩E(Γ′′) = ∅,dann sind die Indikatoren IΓ′ und IΓ′′ stochastisch unabhangig. Daruber hinaus gibt esfur jedes H ⊆ Γ

Θ(nvHn2(vΓ−vH)) = Θ(n2vΓ−vH )

Paare (Γ′,Γ′′), von denen jedes eine Kopie von Γ ist und die in H uberlappen. Also folgt

V(XΓ) =∑

Γ′,Γ′′∼Γ

Cov(IΓ′, IΓ′′)

=∑

E(Γ′)∩E(Γ′′)6=∅E(IΓ′IΓ′′) − E(IΓ′E(IΓ′′)

≈∑

H⊆Γ,eH>0

n2vΓ−vH (p2eΓ−eH − p2eΓ)

≈∑

H⊆Γ,eH>0

n2vΓ−vHp2eΓ−eH (1 − p)

20

das letztere, weil der wesentliche Beitrag von H mit eH = 1 kommt. 2

Die folgende Beobachtung ist oft sehr nutzlich:

Lemma 3.10 Sei Γ ein Graph mit eΓ > 0. Dann sind die folgenden Eigenschaften aqui-valent:

(i) npm(Γ) → ∞;

(ii) nvHpeH → ∞ fur jedes H ⊆ Γ mit vH > 0;

(iii) E(XH) → ∞ fur jedes H ⊆ Γ mit vH > 0;

(iv) ΦΓ → ∞.

Beweis: Gemaß der Definition von m(Γ) und da p ≤ 1 gilt, ist (i) aquivalent zu

npeH/vH → ∞ fur jedes H ⊆ Γ mit vH > 0.

DaEXH ≈ nvHpeH = (npeH/vH )vH ,

ist dies aquivalent zu (ii) und (iii). Schließlich ist nach Definition von ΦΓ (iv) aquivalentzu

EXH → ∞ fur jedes H ⊆ Γ mit eH > 0.

Dies ist aquivalent zu (iii), denn der Fall vH > 0 und eH = 0 ist trivial. 2

Nun konnen wir den Beweis von Satz 3.8 fertigstellen: Beachte, dass, falls p≫ n− 1m(Γ) gilt,

nach Lemma 3.10 ΦΓ → ∞ gilt. Die Methode des zweiten Moments ergibt dann mithilfevon Lemma 3.9

P(Γ 6⊆ G(n, p)) = P(XΓ = 0) ≤ V(XΓ)

(EXΓ)2= O(

1

ΦΓ

) = o(1).

2

Bemerkung 3.11 Aus dem obigen Beweis folgt auch, dass, falls

ΦΓ(n, p) → ∞,

dann gilt nicht nurP(Γ 6⊆ G(n, p)) → 1,

sondern auchXΓ

E(XΓ)→ 1 in Wahrscheinlichkeit.

21

Bemerkung 3.12 Der obige Satz wurde in der hier gezeigten Form von Bollobas 1981gezeigt. Schon 1960 bewiesen Erdos und Renyi dasselbe Resultat fur balancierte Graphen,das sind solche Graphen, fur die m(Γ) = eΓ

vΓgilt.

Man kann sich nun fragen, wie schnell die Wahrscheinlichkeit, dass Γ 6⊆ G(n, p) im 2. Fallvon Satz 3.8 gegen 0 geht. Offenbar spielt die Große ΦΓ dabei eine entscheidende Rolle.Wir bereiten ein entsprechendes Resultat vor. Wichtig ist dabei eine Ungleichung, die ausder mathematischen statistischen Mechanik stammt. Fur einen Beweis verweisen wir aufGrimmett/Stirzaker (1992, Problem 3.11.18b). Diese Ungleichung ist nach den Mathe-matikern und Physikern Fortuin, Kosteleyn und Ginibre als FKG-Ungleichung bekanntgeworden. Sei gehort zur Klasse der sogenannten Korrelationsungleichungen.

Hierzu betrachten wir 1, . . . , n mit seiner Potenzmenge. Wir sagen, dass eine Funktion

f : P(1, . . . , n) → R

wachsend ist, falls fur A ⊂ B stets folgt f(A) ≤ f(B). f heißt fallend, falls aus A ⊆ Bfolgt, dass f(A) ≥ f(B) gilt. Auf P(1, . . . , n) konstruieren wir eine Wahrscheinlichkeit,indem wir i mit Wahrscheinlichkeit pi an einer Teilmenge von 1, . . . , n teilnehmen lassenund mit Wahrscheinlichkeit 1 − pi nicht. Die so erhaltete zufallige Menge heißt Γp1,...,pn.Dann gilt

Satz 3.13 (FKG-Ungleichung)Falls X1 und X2 beide wachsende oder beide fallende Zufallsvariablen von Γp1,...,pn sind,dann gilt

EX1X2 ≥ EX1EX2,

also Cov(X1, X2) ≥ 0. Insbesondere gilt fur zwei wachsende (oder fallende) Familien vonTeilmengen von 1, . . . , n Q1 und Q2

P(Γp1,...,pn ∈ Q1 ∩Q2) ≥ P(Γp1,...,pn ∈ Q1)P(Γp1,...,pn ∈ Q2).

Bemerkung 3.14 Eine wachsende Familie von Teilmengen Q ist ein System von Teil-mengen, so dass aus A ∈ Q und A ⊆ B auch B ∈ Q folgt, 1lQ ist also im obigen Sinnewachsend.

Analog definiert man fallend. Den zweiten Teil der Aussage von Satz 3.13 erhalt man ausdem ersten, wenn man fur Xi = 1lQi

betrachtet.

Eine wichtige Anwendung der FKG-Ungleichung erhalt man ganz ahnlich: Sei S eineFamilie nicht-leerer Teilmengen von 1, . . . , n. Fur A ∈ S sei 1lA definiert als

1lA := 1l[A⊆Γp1,...,pn ],

wobei Γp1,...,pn wieder die zufallige Teilmenge von 1, . . . , n ist, die man erhalt, wennman i unabhangig von den anderen mit Wahrscheinlichkeit pi wahlt. Offenbar ist jedes1lA wachsend. Schließlich sei

X =∑

A∈S1lA,

d. h. X ist die Anzahl von A ∈ S, die in der zufalligen Menge Γp1,...,pn enthalten sind.

22

Korollar 3.15 Fur X =∑

A∈S 1lA wie oben gilt

P(X = 0) ≥ exp

(

− EX

1 − maxi pi

)

.

Beweis: Man verwendet die FKG-Ungleichung folgendermaßen: Sei zu A ∈ S

A = B ⊆ 1, . . . , n, B ⊇ A.

A ist wachsend. Fur A,B ∈ S mit entsprechend definierten A und B gilt dann

P(IA + IB = 0) = P(Γp1,...,pn ∈ Ac ∩ Bc)

≥ P(Γp1,...,pn ∈ Ac)P(Γp1,...,pn ∈ Bc)

= (1 − E1lA)(1 − E1lB).

Induktiv ergibt sich

P(X = 0) ≥∏

A∈S(1 − EIA).

Wegen 1 − x ≥ e−x

1−x und EIA ≤ max pi folgt

P(X = 0) ≥ exp

− EX

1 − maxA EIA

≥ exp

(

− EX

1 − maxi pi

)

.

2

Wir werden nun versuchen, eine ganz ahnliche obere Schranke herzuleiten. Dazu sei wiederS ⊆ P(1, . . . , n) und

X =∑

A∈S1lA. (3.3)

Es gilt dann

Satz 3.16 Fur X wie in (3.3) und

λ = EX =∑

A

E1lA und ∆ =∑

A,BA∩B 6=∅

E1lA1lB,

sowie

ϕ(x) = (1 + x) log(1 + x) − x

gilt fur 0 ≤ t ≤ EX

P(X ≤ EX − t) ≤ exp

(

−ϕ(− tλ)λ2

)

≤ exp(− t2

2∆).

23

Bemerkung 3.17 a) Beachte, dass die Definition von ∆ auch die Diagonale A = Bmit einschließt. Es ist manchmal zweckmaßig, diese separat zu betrachten; zu diesemZweck definieren wir

∆ =1

2

A6=BA∩B 6=∅

E1lA1lB.

Damit ist ∆ dann die Summe uber alle verschiedenen geordneten Paare und esgilt

∆ = λ+ 2∆.

b) Offenbar gilt ∆ ≥ 0 und daher ∆ ≥ λ. Gleichheit kann dabei nur gleten, wenn ∆ = 0ist, d. h. wenn die Mengen A ∈ S disjunkt und damit die Indikatoren unabhangigsind.

c) Eine entsprechende exponentielle obere Schranke fur die unteren Enden P(x ≥Ex + t) gibt es i. a. nicht, wie das folgende Beispiel zeigt. Sei λ ∈ N und Γ =0, 1, . . . , 2λ2. Wir wahlen nun Γp0,p1,...,p2λ2 aus Γ zufallig wie oben mit

p0 = λ−4, pi = 1 − λ−4 fur 1 ≤ i ≤ λ2 und

pi = λ−1 − λ−4 + λ−8 fur λ2 + 1 ≤ i ≤ 2λ2.

S bestehe aus den Mengen

Ai =

0, i fur 1 ≤ i ≤ λ2

i fur λ2 + 1 ≤ i ≤ 2λ2.

Dann gilt

EX =∑

A∈SEIA =

i∈A1,...,2λ2P(Γp0,...,p2λ2

⊇ Ai

=λ2∑

i=1

λ−4 + λ−8 +2λ2∑

i=λ2+1

λ−1 − λ−4 + λ−8

= λ2 · 1

λ= λ.

Außerdem gilt

∆ =1

2

A6=BA∩B 6=∅

E1lA1lB

=1

2

1≤i<j≤λ2

E1lAi1lAj

=1

2

1≤i<j1≤λ2

λ−4(1 − λ−4)2

<∑

1≤i,j≤λ2

λ−4 ≤ λ4 · λ−4 = 1.

24

Trotzdem gilt fur c <∞ und ε > 0, falls λ groß genug ist,

P(X > cλ) ≥ λ−4(1 − λ−4)λ2 ≥ 1

2λ−4 > exp(−ελ).

Beweis von Satz 3.16: Sei

ψ(s) = Ee−sX , s ≥ 0.

Zuerst zeigen wir, dass−(logψ(s))′ ≥ λe−s∆/λ, s > 0, (3.4)

woraus wir

− logψ(s) ≥∫ s

0

λe−v∆/λdu =λ2

∆(1 − e−s∆/λ) (3.5)

folgern. Um (3.4) zu zeigen schreiben wir ψ′(s) als

−ψ′(s) = E[Xe−sX ] =∑

A

E[1lAe−sX ]. (3.6)

Fur festes A ∈ S teilen wir X = YA + ZA auf, wobei

YA =∑

B∩A 6=∅1lB.

Wir wenden die FKG-Ungleichungen auf Γp1,...,pn bedingt auf 1lA = 1 an. Bedenken wir,dass ZA und 1lA unabhangig sind und setzen pA := E1lA, so ergibt sich

E[1lAe−sX ] = pAE[e−sYA−sZA|1lA = 1]

≥ pAE[e−sYA|1lA = 1]E[e−sZA] (3.7)

≥ pAE[e−sYA|1lA = 1]ψ(s).

Nun ist λ =∑

A∈S E1lA =∑

A∈S pA, (3.6) und (3.7) zusammen ergeben mit der Jensen-Ungleichung (einmal angewandt auf die bedingte Erwartung, einmal auf die Summe):

−(logψ(s))′ =−ψ(s)′

ψ(s)≥∑

A

pAE[e−sYA |1lA = 1]

≥ λ∑

A

1

λpA exp−E(sYA|1lA = 1)

≥ λ exp(−∑

A

1

λpAE[sYA|1lA = 1])

= λ exp(− s

λ

A

E(YA1lA))

= λe−s∆/λ.

Somit gilt (3.4), also auch (3.5). Mithilfe der exponentiellen Markov-Ungleichung folgtdann

log P(X ≤ λ− t) ≤ log Ee−sX + s(λ− t) ≤ −λ2

∆(1 − e−s∆/λ) + s(λ− t).

25

Die rechte Seite wird fur d = − log(1 − tλ· λ

∆minimiert, dies ergibt die erste Schranke.

Die zweite ergibt sich aus ϕ(x) ≥ x2/2 fur x ≤ 0 (Ubung). Somit ist alles gezeigt. 2

Wenn wir in Satz 3.16 t = EX setzen, erhalten wir eine Abschatzung fur die Wahrschein-lichkeit, dass uberhaupt keine der Mengen aus S auftritt. Dies geben wir als eigenen Satzan.

Satz 3.18 Sei wieder X =∑

A∈S 1lA, λ = EX und ∆ wie oben. Dann gilt:

(i) P(X = 0) ≤ exp(−λ + ∆);

(ii) P(X = 0) ≤ exp(− λ2

2(λ+2∆)) = exp(− λ2

2P

A,BA∩B 6=∅

E1lA1lB).

Bemerkung 3.19 Beide Abschatzungen gelten fur jedes λ und ∆, aber (i) ist langweilig,wenn nicht ∆ < λ gilt. Tatsachlich ist (i) besser als (ii), wenn ∆ < λ

2, wahrend (ii) fur

großere ∆ besser ist (Ubung).

Beweis von Satz 3.18: Wahlt man in Satz 3.16 t = λ oder lasst in (3.5) direkt s→ ∞gehen und beachtet, dass

lims→∞

ψ(s) = P(X = 0),

erhalt man (ii).

(i) leiten wir aus dem Beweis von Satz 3.16 ab. Wir setzen dort

Y ′A = YA − 1lA.

Damit ergibt sich

− log P(X = 0) = −∫ ∞

0

(log(ψ(s)))′ds

≥∫ ∞

0

A

pAE[e−sYA |1lA = 1]ds

=∑

A

pAE[1

YA

|1lA = 1].

Ist 1lA = 1, so gilt1

YA=

1

YA′ + 1≥ 1 − 1

2YA′,

da YA′ eine ganze Zahl ist, und daher

− log P(X = 0) ≥∑

A

pA(1 − 1

2YA′|1lA = 1)

=∑

A

(pA − 1

2E(1lAYA′))

= λ− ∆.

26

2

Diese Abschatzungen wollen wir nun einsetzen, um Abschatzungen fur die Wahrschein-lichkeit, dass ein Graph aus G(n, p) einen festen Graphen Γ nicht als Teilgraph enthalt,zu bekommen. Hierzu schauen wir uns den Beweis von Satz 3.8 noch einmal an. Hierauskann man ableiten, dass

1 − ΦΓ ≤ P(Γ 6⊆ G(n, p)) ≤ O(1

ΦΓ).

Das Schone hieran ist, dass sich beide dieser Ungleichungen zu exponentiellen Ungleichun-gen verscharfen lassen.

Satz 3.20 Sei Γ ein Graph mit wenigstens einer Kante. Dann gilt fur jede Folge p =p(n) < 1

exp(− 1

1 − pφΓ) ≤ P(Γ 6⊆ G(n, p)) ≤ exp(−Θ(ΦΓ)).

Beweis: Die linke der beiden Ungleichungen folgt aus Korollar 3.15. Hierbei setzen wirin Korollar 3.15 X als XH′ , die Anzahl von Kopien von H ′ in G(n, p), wobei H ′ ⊆ Γ derTeilgraph mit der großten Dichte ist. Beachte, dass

E[XH′ ] = ΦΓ.

Die andere Ungleichung folgt aus Satz 3.18 (ii). Hier setzen wir S = XΓ, die Anzahl derKopien von Γ in G(n, p) und 1lA = 1lΓ. Dann wird der Nenner des Exponenten zu

H⊆ΓeH>0

Γ′

Γ′′

p2eΓ−eH = Θ((EXΓ)2/ΦΓ).

Daraus folgt die rechte Seite der Behauptung. 2

Wir schließen noch eine kleine Bemerkung uber das Verhalten der Anzahl induzierterSubgraphen an. Hierbei ist ein Graph Γ in G(n, p) induziert enthalten, wenn es vΓ

Knoten in G(n, p) gibt, dergestalt, dass alle Kanten, die in Γ enthalten sind, auch aufdiesen Kanten sind und alle Kanten, die nicht in Γ sind auch auf diesen Knoten nichtvorhanden sind.

Fur einen Graphen Γ sei YΓ die Anzahl der induzierten Kopien von Γ. Fur festes p konnensich XΓ, die Zahl der Kopien von Γ und YΓ unterscheiden. Wir wollen aber sehen, dassXΓ > 0 und YΓ > 0 dieselbe Schwellenfunktion haben. Der erste Teil von Satz 3.8 (die

Behauptung, dass fur p≪ n− 1m(Γ) YΓ = 0 ist) gilt sofort, denn es ist ja stets XΓ ≥ YΓ.

Fur die andere Richtung sei JΓ′ eine 0-1-wertige Zufallsvariable, die fur eine Kopie Γ′ vonΓ in Kn angibt, ob sie eine induzierte Kopie von Γ in G(n, p) ist (und dann 1 wird). Istp = o(1), so ist

E[JΓ′ ] = peΓ(1 − p)(vΓ2 )−eΓ ∼ E[1lΓ′ ].

27

Also gilt auchE[XΓ] ≈ E[YΓ].

Um auch die Varianz abzuschatzen, bemerke, dass fur zwei Kopien Γ′ und Γ′′ von Γ diewenigstens eine gemeinsame Kante haben, gilt:

Cov(JΓ′, JΓ′′) < E[JΓ′JΓ′′ ]

≤ E[1lΓ′1lΓ′′]

≈ Cov(1lΓ′ , 1lΓ′′),

und wie fur die 1lΓ′ gilt, dass fur Γ′,Γ′′, die hochstens einen Knoten gemeinsam habenCov(JΓ′, JΓ′′) = 0.

Schließlich gibt es (anders als fur gewohnliche Teilgraphen) noch einen dritten Fall: Γ′

und Γ′′ teilen sich t ≥ 2 Vertices, sind aber kantendisjunkt. Dann gilt

Cov(JΓ′, JΓ′′) < E[JΓ′ , JΓ′′ ] < p2eΓ

und es gibt O(n2vΓ−t) solcher Paare. Also gibt die Methode des zweiten Moments

P(YΓ = 0) ≤ V(YΓ)

(EYΓ)2

Γ′,Γ′′

v(Γ′)∩v(Γ′′) 6=∅

Cov(1lΓ, 1lΓ′)

(EXΓ)2+

Γ′,Γ′′

v(Γ′)∩v(Γ′′)=∅

Cov(JΓ′, JΓ′′)

E(YΓ)2

≈ o(1) +

∑v(Γ)−1t=2 n2v−tp2eΓ

n2vp2eΓ= o(1).

Somit haben in der Tat die Ereignisse XΓ > 0 und YΓ > 0 die gleichen Schwellen-funktionen. Das ist deshalb bemerkenswert, weil YΓ > 0 keine monotone Eigenschaftist. In der Tat konnen ja sus Graphen mit mehr Kanten induzierte Subgraphen wiederverschwinden. Es gibt daher auch noch eine zweite Schwellenfunktion fur YΓ > 0 fur pnahe bei 1, an der die induzierten Kopien von Γ wieder verschwinden.

28

4 Asymptotische Verteilungen

Nachdem wir uns im letzten Kapitel den Schwellenfunktionen gewidment haben, also einerArt 0-1-Gestz fur die Existenz von Teilgraphen, wollen wir nun ihre asymptotische Ver-teilung genauer studieren. Dies ist besonders interessant, wenn es uberhaupt Teilgrapheneiner gewissen Gestalt gibt. Sind wir also an der Verteilung von XΓ interessiert (richtig

skaliert), so sollte zumindest p 6≪ b− 1

m(Γ) sein. Dabei sind zwei verschiedene Regime in-teressant. Ist p von der Großenordnung 1

n1

m(Γ), so sollte man zumindest fur balancierte

Graphen Γ erwarten, dass es nicht zu viele Kopien von Γ in G(n, p) gibt, denn E(XΓ)bleibt fur wachsendes n endlich. Das Auftreten einer Kopie von Γ an einer festen Stelleist ein seltenes Ereignis, dies legt eine Poisson-Approximation fur die Verteilung von XΓ

nahe. Ist hingegen p ≫ n− 1m(Γ) , so enthalt G(n, p) viele Kopien von Γ und man konn-

te eventuell eine asymptotische Normalverteilung von XΓ−EXΓ√VXΓ

vermuten. Wir behandelnbeide Falle separat, da sie auch methodisch Interessantes zu bieten haben.

Wir wollen fur den Poisson-Ansatz etwas ausholen. Dieser wird mit der sogenanntenSteinschen Methode bewiesen, die in der 70er Jahren des 20. Jahrhunderts eingefuhrtwurde, zunachst fur die Approximation durch die Normalverteilung, spater auch furdie Poissonverteilung, in der neuesten Forschung spielen auch andere Verteilungen ei-ne wichtige Rolle. Wir haben eine Diat-Version der Steinschen Methode schon in derStochastik-Vorlesung gesehen. Nun stellen wir sie zunachst fur die Poisson-Approximationder Binomial-Verteilung vor. Wesentlich ist dabei stets eine charakteristische Gleichungfur eine Verteilung. Dies sieht bei der Poisson-Verteilung wie folgt aus: Sei g : N0 → R

eine beschrankte Abbildung und es sei Z eine Zufallsgroße, die Poi(λ)-verteilt ist. Danngilt

Eλg(Z + 1) =∑

j≥0

λg(j + 1)λj

j!e−λ

und

E(Zg(Z)) =∑

l≥1

lg(l)λl

l!e−λ =

j≥0

λg(j + 1)λj

j!e−λ.

Zusammen ergibt dies

E[λg(Z + 1) − Zg(Z)] = 0

fur alle beschrankten Abbildungen g : N0 → R und Z ∼ Poi(λ). Dies ist die sogenannteSteinsche Gleichung (im Poisson-Fall auch Stein-Chen-Gleichung). Ist nun f : N0 → R

beschrankt mit

Ef(Z) = 0 (fur Z ∼ Poi(λ)),

so lasst sich f schreiben as

f(j) = λgf,λ(j + 1) − jgfλ(j), j ≥ 0.

29

Dabei ist die beschrankte Abbildung gf,λ definiert durch

gf,λ(j + 1) =j!

λj+1

j∑

k=0

πλ(k)eλf(k)

= − j!

λj+1

∞∑

k=j+1

πλ(k)eλf(k) (4.1)

gf,λ(0) : = 0

(letztere Gleichung gilt, da

0 = Ef(Z) =

j∑

k=0

πλ(k)f(k) +

∞∑

k=j+1

πλ(k)f(k)

gilt und dies konnen wir naturlich mit jeder positiven Zahl, z. B. j!λj+1 e

λ multiplizieren).

Der Nachweis erfolgt induktiv: Fur j = 0 ist

gf,λ(1) =f(0)

λ=f(0)

λeλπλ(0)

und

gf,λ(j + 1) = (f(j) + jgf,λ(j))1

λ

=1

λf(j)πλ(j)

1

πλ(j)+j

λ

(j − 1)!

λj

j−1∑

k=0

πλ(k)eλf(k)

=j!

λj+1f(j)πλ(j)eλ +

j!

λj+1

j−1∑

k=0

πλ(j)eλf(k).

Die Beschranktkeit von gf,λ folgt mit den Bezeichnungen

‖gf,λ‖ := supj≥0

|gf,λ(j)| und

‖f‖ := supj

|f(j)|

aus der eben gezeigten Darstellung:

‖gf,λ‖ ≤ ‖f‖∞∑

k=j+1

λk−(j+1)

k!j! ≤ ‖f‖eλ.

Wir haben also gezeigt

Lemma 4.1 Sei f eine beschrankte Funktion von N0 nach R. Dann ex. eine beschrankteLosung gf,λ : N0 → R von

λgf,λ(j + 1) − jgf,λ(j) = f(j), j ≥ 0

genau dann, wennEf(Z) = 0 mit Z ∼ Poi(λ).

30

Bemerkung 4.2 (i) Ist Z ∼ Poi(λ) und f : N → R mit Ef(Z) 6= 0, so folgt

|gf,λ(j)| → ∞ fur j → ∞

(Ubung).

(ii) Es sei X eine Zufallsvariable mit Werten in N0. Dann gilt sogar: X ist Poi(λ)-verteilt genau dann, wenn fur jede beschrankte Funktion g : N0 → R gilt

E[λg(X + 1) −Xg(X)] = 0.

Diese Gleichung charakterisiert also die Poisson-Verteilung zum Parameter λ. Diesist schnell einzusehen. Betrachte

f(j) := h(j) − e−λ

∞∑

k=0

h(k)λk

k!

fur jedes j ∈ N0. Hierbei sei h : N0 → R eine beschrankte Funktion. f ist beschrankt,z. B. durch 2‖h‖ und erfullt

Ef(Z) = 0 fur Z ∼ Poi(λ)

(so ist f gerade gebaut). Nach Lemma 4.1 gibt es eine beschrankte Funktion gf,λ mit

0 = E[λgf,λ(X + 1) −Xgf,λ(X)] = E[h(X) − e−λ

∞∑

k=0

h(k)λk

k!].

Wahlen wir speziellhA(j) := 1lj∈A

fur A ⊆ N0, so folgt aus der rechten Gleichung

P(X ∈ A) − Poi(λ)(A) = 0 ∀ A ⊆ N0

(mit Poi(λ)(A) =∑

j∈A πλ(j)). Also ist X ∼ Poi(λ).

Schreibe nun gf := gf,λ und es sei Z ∼ Poi(λ). Weiter sei A ⊆ N0 und

fA(j) := 1lj∈A − Poi(λ)(A), j ≥ 0.

Offenbar ist fA beschrankt und

EfA(Z) = 0 ∀ A ≤ N0.

Nach Lemma 4.1 existiert also eine (beschrankte) Losung der Gleichung

λgA,λ(j + 1) − jgA,λ(j) = 1lj∈A − Poi(λ)(A) (4.2)

fur j ≥ 0 und jedes A ⊆ N0. Mit der Bezeichnung

Um := 0, 1, . . . , m

31

folgt aus der allgemeinen Form der Losung (4.1) fur gf,λ:

gA,λ(j + 1) =j!

λj+1eλ(Poi(λ)(A ∩ Uj) − Poi(λ)(A)Poi(λ)(Uj)). (4.3)

Dies ist die sogenannte Stein-Losung. Wir setzen (ohne Einschrankung) gA,λ(0) = 0.

Den Nutzen der Stein-Gleichungen (4.2) und ihrer Losung (4.3) sieht man schnell ein:Ersetzen wir j ∈ N0 durch eine Zufallsvariable W mit Werten in N0, so folgt aus (4.2)durch Bilden des Erwartungswertes

E[λgA,λ(W + 1) −WgA,λ(W )] = P(W ∈ A) − Poi(λ)(A). (4.4)

Da wir uns fur Poisson-Approximationen interessieren, wollen wir die rechte Seite gleich-maßig in A abschatzen. Nach (4.4) konnen wir dies ebenso gut in der linken Seite von(4.4) tun. Wir werden in der Folge sehen, dass sich dies recht gut bewerkstelligen lasstund dass die Schranken, die wir erhalten, keine a priori-Kenntnis uber die Verteilung vonW erfordern. Allgemein besteht die Steinsche Methode aus den Schritten:

(i) Stelle eine fur die potenzielle Limesverteilung charakteristische Gleichung auf undlose diese. Untersuche die Losungen.

(ii) Setze die zu approximierende Zufallsvariable W in die Losung ein und schatze ab.

Wir fuhren dies nun am Beispiel der Poisson-Verteiung aus. Es seien I1, . . . , In unabhangi-ge Zufallsvariablen mit

P(Ij = 1) = pj = 1 − P(Ij = 0) 0 < pj < 1 1 ≤ j ≤ n.

Sei ferner

W =n∑

j=1

Ij : λ := EW =n∑

j=1

pj

und

Wi =

n∑

j=1j 6=i

Ij .

Schreibe wieder gA := gA,λ. Es folgt nun

E(IigA(W )) = E[IigA(Wi + 1] = piEgA(Wi + 1),

denn definitionsgemaß ist Ii stochastisch unabhangig von Wi. Also ist

E[λgA(W + 1) −WgA(W )] =

n∑

i=1

pi(E(gA(W + 1) − E(gA(Wi + 1))).

Nun ist W = Wi, es sei denn Ii = 1, was mit Wahrscheinlichkeit pi eintritt. Also folgt:

|P(W ∈ A) − Poi(λ)(A)| ≤ 2 supj≥0

|gA(j)|n∑

i=1

p2i

32

bzw.

|P(W ∈ A) − Poi(λ)(A)| ≤ supj

|gA(j + 1) − gA(j)|n∑

i=1

p2i .

Dies fuhrt zu einer Abschatzung der Gute der Poisson-Approximation im unabhangigenFall, falls wir

‖g‖ := ‖gA,λ‖ := supj

|gA,λ(j)| oder

∆g := ∆gA,λ := supj

|gA,λ(j + 1) − gA,λ(j)|

gleichmaßig in A ⊆ N0 beschranken konnen. Wir entscheiden uns fur ∆g: Sei Z ∼ Poi(λ).Dann ist

fA(j) =∑

k∈A

(1lj=k − P(Z = k)).

Sei nun gk die Losung der Stein-Gleichung zu

fk(j) := 1lj=k − P(Z = k), j ≥ 0.

Es sollte danngA(j) =

k∈A

gk(j) (4.5)

gelten, denn bei endlich vielen Summanden folgt dies sofort aus der Linearitat der Stein-Gleichung. Um (4.5) einzusehen, sei A ⊆ N0 beliebig. Wir fuhren eine Abschneidetechnikein, um (4.5) auf den endlichen Fall zu reduzieren. Es ist fur ein M > 0

fA =∑

k∈Ak≤M

fk + fA∩k:k>M.

Sei> M := k : k > M.

Da wir fA als endliche Summe dargestellt haben, gilt fur die zugehorige Stein-Losung:

gA =∑

k∈Ak≤M

gk + gA∩>M.

Nun ist definitionsgemaß

fA∩>M(j) = −P(Z ∈ A ∩ > M)

fur alle j ≤M . Es sei j < M , dann gilt fur die Stein-Losung gemaß (4.3)

gA∩>M(j + 1) =−P(Z ∈ A ∩ > M)

λ

(

1 +j

λ+j(j − 1)

λ2+ . . .+

j!

λj

)

,

also

|gA(j + 1) −∑

k∈Ak≤M

g(j + 1)| ≤ const(λj)P(Z ∈ A ∩ > M) ≤ const(λj)P(Z > M).

33

Die rechte Seite konvergiert fur M → ∞ gegen 0, also folgt (4.5). Aus (4.1) erhalten wirnun

gk(j + 1) =1

λ(fk(j) +

j

kfk(j − 1) +

j(j − 1)

λ2fk(j − 2) + . . .+

j!

λjfk(0)).

Nach Definition ist:

fk(j) =

−P(Z = k) j < k

1 − P(Z = k) j = k

−P(Z = k) j > k

.

Also folgt fur j < k

gk(j + 1) = −P(Z = k)

λ(1 +

j

λ+ . . .+

j!

λj) ≤ 0.

Daher istgk(j + 1) − gk(j) ≤ 0,

also gk monoton fallend. Sei nun j > k. Mit der Stein-Losung (4.3) ist

gk(j + 1) = eλj!λ−j−1(πλ(k)1lk≤j − πλ(k)Poi(λ)(Uj))

= eλj!λ−j−1πλ(k)(1 − Poi(λ)(Uj))

≥ 0.

Verwenden wir diese Darstellung und k ≤ j − 1 (denn k < j), so folgt

gk(j + 1) − gk(j) =1

λ(j − 1)!πλ(k)

(

j

λ

∞∑

l=j+1

λl

l!−

∞∑

l=j

λl

l!

)

≤ 1

λ(j − 1)!πλ(k)

( ∞∑

l=j

λl

l!−

∞∑

l=j

λl

l!

)

= 0.

Somit ist gk auch in diesem Bereich monoton fallend, womit nur der Zuwachs gk(k+ 1)−gk(k) positiv ist. Hierfur gilt:

gk(k + 1) − gk(k) =k!

λk+1P(Z = k)(

∞∑

j=k+1

λj

j!) +

(k − 1)!

λkP(Z = k)(

k−1∑

j=0

λj

j!)

= e−λ(1

λ

∞∑

j=k+1

λj

j!+

1

k

k−1∑

j=0

λj

j!)

≤ e−λ(1

λ

∞∑

j=k+1

λj

j!+

1

λ

k∑

j=1

λj

j!)

=e−λ

λ(eλ − 1)

=1

λ(1 − e−λ)

≤ min(1,1

λ).

34

Hierbei ist die Ungleichung in Zeile 3 fur k = 1 eine Gleichheit. Aus dem soeben Gezeigtenfolgt mit (4.5)

gA(j + 1) − gA(j) =∑

k∈A

(gk(j + 1) − gk(j));

hier sind alle Summanden negativ, bis auf den Fall j = k. Also ist

gA(j + 1) − gA(j) ≤ gj(j + 1) − gj(j),

falls j ∈ A, sonst ist gA(j + 1) − gA(j) ≤ 0. Es gilt also

gA(j + 1) − gA(j) ≤ 1

λ(1 − e−λ)

fur alle A ⊆ N und alle j > 0. Wenn

gA(j + 1) − gA(j) ≥ 0 ∀ j ≥ 0,

so folgt

∆g ≤ 1

λ(1 − e−λ).

Im Fall gA(j + 1) − gA(j) < 0 ist

0 < −gA(j + 1) + gA(j) = gAc(j + 1) − gAc(j) ≤ 1

λ(1 − e−λ),

denn

fA + fAc = fZ+ ≡ 0.

Somit folgt fur die zugehorigen Stein-Losungen

gA = −gAc .

Wir haben somit gezeigt

Satz 4.3 Fur die Zuwachse der Stein-Losungen gilt gleichmaßig in A ⊆ N0:

∆g ≤ 1

λ(1 − e−λ) ≤ min(1,

1

λ).

Bemerkung 4.4 Ist A = 1, so ist die erste Schranke exakt

∆g =1

λ(1 − e−λ).

Wir bekommen so auch eine Schranke fur die Poisson-Approximation fur eine Summe vonBer(pi) verteilten unabhangigen Zufallsvariablen.

35

Satz 4.5 (Barbour, Hell 1984)Seien Ii Ber(pi)-verteilt und unabhangig und es sei W =

∑ni=1 Ii. Es sei λ =

∑ni=1 EIi =

∑ni=1 pi, dann gilt

dTV (L(W ), P oi(λ)) ≤ 1

λ(1 − e−λ)

n∑

i=1

p2.

Hierbei bezeichnet L(W ) die Verteilung von W und dTV ist der Abstand der totalen Va-riation zweier Maße µ, ν auf demselben Raum (Ω,F):

dTV (µ, ν) =1

2supA∈F

|µ(A) − ν(A)|.

Wir wollen nun versuchen an der Schranke, bei der uberhaupt Graphen einer gewissenGestalt Γ auftreten, in G(n, p) eine Poisson-Approximation fur diese Anzahl zu liefern.

Wir haben im vorhergehenden Kapitel gesehen, dass diese Schwelle bei p− 1

m(Γ) liegt, weiloberhalb dieser Schwelle garantiert ist, dass auch der dichteste Teilgraph von Γ auftritt.

Allerdings kann es geschehen, dass wenn Γ nicht selbst dieser Teilgraph ist, bei p−1

m(Γ)

“explosionsartig” viele Kopien von Γ auftreten, weil wir zu jeder Kopie von H ⊆ Γ, derdichtesten Teilmenge von Γ, “gratis” alle Anhangsel bekommen. Daher werden wir unsauf Graphen konzentrieren, die keine dichteren Teilgraphen besitzen.

Definition 4.6 Ein Graph Γ heißt strikt balanciert, falls

m(Γ) =eΓvΓ

und fur alle H ⊆ G gilt eH

vH< m(Γ).

Anders als in der vorhergehenden Diskussion betrachten wir nun zwar wieder eine Zu-fallsvariable W der Gestalt

W =∑

α∈Ξ

Iα,

wobei Iα Indikatoren sind, diese sind aber nicht mehr unabhangig. Wir stellen eine vonmehreren Ansatzen vor, um dieses Problem zu behandeln. Sei also W wie oben. Zu jedemα ∈ Ξ (der Indexmenge) sei Ξα definiert als

Ξα := β ∈ Ξ : β 6= α, Iβ und Iα sind stochastisch abhangig.

Setze weiterhinZα :=

β∈Ξα

Iβ und W ′α =

β∈Ξcα

β 6=α

Iβ .

Also ist fur jedes αW = Iα + Zα +W ′

α.

Weiter seiπα := EIα und λ := EW =

α∈Ξ

πα.

Dann gilt

36

Satz 4.7 Mit obiger Notation gilt

dTV (L(W )), P oi(λ)) ≤ min(1,1

λ)(∑

α

π2α +

α

παEZα +∑

α

β∈Ξα

EIαIβ).

Bemerkung 4.8 Offenbar ist diese Schranke qualitativ “gut”, so lange die πα klein unddie Abhangigkeiten

α

β∈ΞαEIαIβ klein sind.

Beweis: Nach dem eingangs gesagten gilt fur alle A ⊆ N0

P(W ∈ A) − Poi(λ)(A) = E(λgA(W + 1) −WgA(W )),

wobei gA = gA,λ die Stein-Losung (4.3) ist. Wir bestimmen wieder fur jedes A ⊆ N0 dierechte Seite der obigen Gleichung. Zunachst berechnen wir E[IαgA(W )]. Es gilt offenbar

IαgA(W ) = IαgA(Zα +W ′α + 1),

da Ia ∈ 0, 1. Wir schreiben die rechte Seite als

IαgA(W ′α + 1) + Iα(gA(Zα +W ′

α + 1) − gA(W ′α + 1)).

Somit folgt ahnlich wie eben fur die Zuwachste von gA

|IαgA(W ) − IαgA(W ′α + 1)| ≤ IαZα∆g

bzw. nach Bildung des Erwartungswertes

|E(IαgA(W )) − E(IαgA(W ′α + 1))| ≤ E(IαZα)∆g.

Nun ist nach Definition W ′α unabhangig von Iα, also ist

E(IαgA(W ′α + 1)) = παE(gA(W ′

α + 1)).

Summiert man uber α ∈ Ξ, so folgt

|E(WgA(W )) −∑

α∈Ξ

παE(gA(W ′α + 1))| ≤ ∆g

α∈Ξ

β∈Ξα

EIαIβ.

Weiter gilt

E(λgA(W + 1) =∑

α∈Ξ

παE(gA(W + 1))

und mit W −W ′α = Iα + Zα folgt

|gA(W + 1) − gA(W ′α + 1)| ≤ ∆g(Iα + Zα).

Also

|E(λgA(W + 1)) −∑

α∈Ξ

παE(gA(W ′α + 1))| ≤ ∆g

α∈Ξ

παE[Iα + Zα]

= ∆g∑

α∈Ξ

(π2α + παEZα).

37

Zusammen folgt somit unsere Behauptung durch Anwendung der Dreiecksungleichung:

|P(W ∈ A) − Poi(λ)(A)| = |E(λgA(W + 1) −WgA(W )|

≤ ∆g(∑

α∈Ξ

π2α +

α∈Ξ

παEZα +∑

α∈Ξ

β∈Ξα

EIαIβ).

Die obige Abschatzung von ∆g vervollstandigen den Beweis. 2

Bemerkung 4.9 Fur unabhangige Zufallsvariable ist fur jedes α ∈ Ξ die Menge Ξα leer,also Zα = 0 und

α∈Ξ

β∈ΞαEIαIβ = 0, also folgt

|P(W ∈ A) − Poi(λ)(A)| ≤ ∆g∑

α

π2α ≤ min(1,

1

λ)∑

α

π2α,

also die Schranke aus Satz 4.5.

Beispiel 4.10 (k-Runs)Es seien X1, . . . , Xn iid Zufallsvariablen mit

P(Xi = 1) = p = 1 − P(Xi = 0) i = 1, . . . , n.

Sei k ∈ N fix. Sei fur α ∈ 1, . . . , n

Iα =

α+k−1 mod(n)∏

i=α

Xi

undW =

α

Iα.

Somit beschreibt W die Anzahl der 1-Runs der Lange k unter der Xi (wenn wir siekreisformig anordnen). Naturlich sind die Iα abhangig, wenn die zugehorigen Indexmengenuberlappen. Es gilt

EIα = pk =: π, also EW = npk.

Zu α ∈ 1, . . . , n sei

Ξα = α− (k − 1), . . . , α− 1, α+ 1, . . . , α+ (k − 1),

wobei die Additionen und Subtraktionen wieder “modulo n” zu verstehen sind. Wir wollennun mittels Satz 4.5 einsehen, dass fur kleine p eine Poisson-Approximation fur W gultigist. Es ist

α

(π2α + παEZα) =

α

π2 + π2(2k − 2) = nπ2(2k − 1).

Weiter rechnet man nach, dass

α

β∈Ξα

EIαIβ = 2nπ

k−1∑

i=1

pi

38

gilt. Beispielsweise ist fur β = α + 1

EIαIβ = P(Iα = Iβ = 1) = pk · p = πp

oder fur β = α+ 2

EIαIβ = P(Iα = Iβ = 1) = pkp2 = πp2.

Setzen wir λ := EW = nπ und wenden Satz 4.5 an, so ergibt sich

dTV (L(W ), P oi(λ)) ≤ 1

nπ(1 − e−λ)((2k − 1)kπ2 + 2πn

k−1∑

i=1

pi)

= (1 − e−λ)((2k − 1)pk + 2

k−1∑

i=1

pi)

= (1 − e−λ)((2k − 1)pk +2p(1 − pk−1)

1 − p)

= O(p).

Wendet man eine Approximation durch eine zusammengesetzte Poisson-Approximationan, so lasst sich die Gute der Approximation noch verbessern; darauf soll hier aber nichteingegangen werden.

Wir wollen nun Satz 4.8 verwenden, um eine Poisson-Approximation fur die Anzahl derTeilgraphen, die isomorph zu einem gegebenen, strikt balancierten Graphen sind, abzu-leiten. Wir zeigen:

Satz 4.11 (Barbour, 1982)Sei H strikt balanciert mit vH = k und eH = l ≥ 1. Ist p(n) so, dass

limn→∞

p(n)nk/l = c > 0 gilt,

so folgt fur

λ =cl

|aut(H)|(wobei |aut(H)| die Große der Automorphismengruppe von H ist) und

W =∑

IH = XH

die Konvergenz

limn→∞

dTV (L(W ), P oi(λ)) = 0.

Zunachst uberlegen wir, dass λ die richtige Große hat. Es gibt auf Kn

(

n

k

)

k!|aut(H)|

39

(|autH| sei die Große der Automorphismengruppe von H) Kopien von H . Jede hat dieWahrscheinlichkeit pl aufzutauchen in G(n, p). Also ist

EW = EXH = pl

(

n

k

)

k!/|aut(H)| ≈ nkpl/|aut(H)|

= (pnk/l)l/|aut(H)| ≈ cl

|aut(H)| = λ.

Wir fuhren noch ein wenig Notation ein: Sei H wie oben strikt balanciert. Dann sei

(i) mt(H) = maxρ(F ) := e(F )v(F )

: F ⊂6=H : |v(F )| = t; offenbar gilt mt(H) < ρ(H) fur

1 ≤ t ≤ v(H).

(ii) it(H) = ρ(H) −mt(H) fur 1 ≤ t ≤ k. Es gilt i1(H) = ρ(H), da m1(H) = 0 gilt.

(iii) ε = ε(H) := min1≤t≤k it(H) heißt der Balance-Index. Es gilt

ε ≤ i1(H) = ρ(H) und ε > 0.

Lemma 4.12 Sei H strikt balanciert, Γ beliebig mit H 6⊆ Γ und |V (Γ ∩H)| ≥ 1. Danngilt

|E(H ∪ Γ)| ≥ |E(H)| + |E(Γ)| − ρ(H)|V (H ∩ Γ)| + ε.

Bemerkung 4.13 Dieses Lemma ist fur Γ mit Γ ⊇ H nicht wahr, denn dann ist

|E(H)| + |E(Γ)| − ρ(H)|V (H ∩ Γ)| = |E(H)| + |E(Γ)| − |E(H)| = |E(H ∪ Γ)|.

Beweis von Lemma 4.12: Es ist

|E(H ∩ Γ)| = ρ(H ∩ Γ)|V (H ∩ Γ)|≤ m|V (H∩Γ)||V (H ∩ Γ)|= (ρ(H) − i|V (H∩Γ)|)|V (H ∩ Γ)|≤ ρ(H)|V (H ∩ Γ)| − ε.

Wegen|E(H ∪ Γ)| = |E(H)| + |E(Γ)| − |E(H ∩ Γ)|

folgt die Behauptung. 2

Lemma 4.14 Sei H strikt balanciert und H1 6= H2 Kopien von H in Kn mit

|V (H1 ∩H2)| > 0.

Sei F := H1 ∪H2. Dann gilt

|E(F )| ≥ ρ(H)|V (F )| + ε.

40

Beweis: Wir setzen in Lemma 4.12 H := H1 und Γ := Hi. Dann ist nach VoraussetzungH1 ⊆ H2. Also folgt aus Lemma 4.12

|E(F )| = |E(H1 ∪H2|≥ 2|E(H)| − ρ(H)|V (H1 ∩H2)| + ε

= 2|E(H)| − ρ(H)(2|V (H)| − V (H1 ∪H2)| + ε

= ρ(H)|V (H1 ∪H2)| + ε.

2

Beweis von Satz 4.11: Wahle Indizes α, β so, dass

|V (α ∩ β)| = s

gilt. Also α ∪ β genau 2k − s Knoten. Es gilt dann

E(IαIβ) ≤ pρ(H)(2k−s)+ε = p2|E(H)|−sρ(H)+ε

(da 0 < p < 1) und somit

α∈Ξ

β∈Ξα

E(IαIβ) ≤ |Ξ|k∑

s=2

(

k

s

)(

n− k

k − s

)

k!p2l− slk

= O(k∑

s=2

nknk−sp2l− slk

+ε)

= O(k∑

s=2

(npl/k)2k−spε)

= O(pε(npl/k)2k−2)

= O(pε).

Satz 4.7 liefert daher

dTV (L(W ), P oi(λ)) ≤ O(pl) +O(n−2) +O(pε),

denn mit πα = EIα = pl und

Zα :=∑

β∈Ξα

Iβ =

k∑

s=2

|V (α∩β)|=s

folgt∑

α∈Ξ

π2α = |Ξ|p2 =

(

nk

)

k!

|aut(H)|p2l = λpl = O(pl)

41

und

EZα ≤k∑

s=2

(

k

s

)(

n− k

k − s

)

plk!

= O(

k∑

s=2

plnk−s)

= O(nk−2pl)

= O(n−2).

2

Wir wollen uns nun dem Fall zuwenden, in dem wir wieder die Graphen in G(n, p) zahlen,die zu einem gegebenen blau?? Graphen Γ isomorph sind, aber in dem

p≫ n− 1m(Γ)

gilt. Wie schon eingangs dieses Kapitels erwahnt, sollte man hier eine asymptotischeNormalverteilung von XΓ (richtig normiert) erwarten. Es gibt mehrere Techniken, diesesResultat zu zeigen. Wir verwenden hier ebenfalls die Steinsche Methode, diesmal fur dieNormalverteilung. Wir stellen auch diese Methode zunachst fur Folgen von i.i.d. Zufalls-variablen vor. Wir zeigen also

Satz 4.15 Es sei (Xn) eine Folge von i.i.d. Zufallsvariablen mit EXn = 0 und V(Xn) > 0fur alle n. Sei

σ2 = V(Xn) und Sn =n∑

i=1

Xi.

Dann gilt

L(

Sn√nσ2

)

⇒ N (0, 1).

Im Vergleich zum (bekannten) Beweis uber Fourier-Transformierte hat der Beweis uberdie Steinsche Methode den Vorteil, auch eine Konvergenzgeschwindigkeit zu liefern, etwain dem Sinn von

Satz 4.16 (Berry, Esseen 1945)In der Situation von Satz 4.15 sei zusatzlich ξ := E(X3

1 ) < +∞. Dann gilt

supt∈R

|P(

Sn√nσ2

≤ t

)

− Φ(t)| ≤ kξ

σ3√n,

wobei Φ die Verteilungsfunktion der N (0, 1)-Verteilung ist.

Wie im Poisson-Fall beginnen wir mit einer Charakterisierung der Grenzverteilung.

42

Lemma 4.17 Es sei Z eine reellwertige Zufallsvariable. Z ist N (0, 1)-verteilt genaudann, wenn fur jede stetige, stuckweise differenzierbare Funktion f : R → R mit

|f ′(x)|e−x2/2dx < +∞ (4.6)

giltE[f ′(Z) − Zf(Z)] = 0.

Beweis: Sei Z ∼ N (0, 1) und es gelte (4.6). Mittels partieller Integration folgt

Ef ′(Z) =1√2π

R

f ′(w)e−w2/2dw

=1√2π

R

f(z)ze−z2/2dz

= E(Zf(Z)).

Nun zeigen wir die umgekehrte Richtung: Es gelte fur jede reelle, stetige, stuckweisedifferenzierbare Funktion mit (4.6)

E[f ′(Z) − Zf(Z)] = 0.

Dann konnen wir dies insbesondere fur

fω0(y) := ey2/2

∫ y

−∞(hω0(x) −N (hω0))e

−x2/2dx

mit

hω0(x) :=

1 fur x ≤ ω0

0 fur x > ω0

und

N (hω0) :=1√2π

hω0(x)e−x2/2dx = Φ(ω0)

anwenden. Es gilt

f ′ω0

(y) = ey2/2(hω0(y) −N (hω0))e−y2/2 + yey2/2

∫ y

−∞(hω0(x) −N (hω0))e

−x2/2dx

= hω0(y) −N (hω0) + yfω0(y).

Also lost fω0 die Differentialgleichung

f ′ − yf = hω0 − Φ(ω0).

Somit folgt

0 = E[f ′ω0

(Z) − Zfω0(Z)]

= E[hω0(Z) −N (hω0)]

= P(Z ≤ ω0) − Φ(ω0).

43

Bleibt zu zeigen, dass fω0 stetig und stuckweise differenzierbar ist und∫

R

|f ′ω0

(x)|e−x2/2dx < +∞

gilt. Da f ′ω0

existiert, ist fω0 stetig. Da allgemein h−N (h) und mit

UN (h)(y) := ey2/2

∫ y

−∞(h(x) −N (h))e−x2/2dx

auch yUN(h)(y) stuckweise stetige Funktionen sind, ist UN(h)(·) stuckweise stetig diffe-renzierbar, also insbesondere fω0 . Zeigen wir noch, dass

1√2π

R

|U ′N(h)(x)|e−x2/2dx < +∞,

ist das Lemma bewiesen. Nach Voraussetzung gilt∫

|h(x) −N (h)|e−x2/2dx < +∞.

Nach Definition von N (h) gilt ferner∫

R

(h(x)) −N (h)e−22/2dx = 0

und daher

UN(h)(ω) = eω2/2

∫ ω

−∞(h(x) −N /h))e−x2/2dx

= −e+ω2/2

∫ ∞

ω

(h(x) −N (h))e−x2/2dx.

Daraus leiten wir mittels partieller Integration ab:∫ ∞

0

|xUN(h)(x)|e−x2/2dx ≤∫ ∞

0

x(

∫ ∞

x

|h(y) −N (h)|e−y2/2dy)dx

=

∫ ∞

0

|h(y) −N (h)|e−y2/2y2

2dy.

Dieses Integral ist fur h = hω0 endlich. Analog schatzt man das Integral uber Rn ab. Diesergibt die Behauptung. 2

Die Idee, die wir aus dem letzten Lemma gewinnen ist: Wenn wir

E[f ′(W ) −Wf(W )]

fur eine große Klasse von Funktionen f durch eine kleine Zahl kontrollieren konnen, soist L(W ) dicht bei N (0, 1). Die obigen Rechnungen zeigen zudem, dass fur glatte h dieSteingleichung

f ′(x) − xf(x) = h(x) −N (h)

durch UN(h)(x) gelost wird und dass außerdem gilt:

E[U+N (h)′(W ) −WUN (h)(W )] = Eh(W ) −N (h).

Wieder besteht die Idee darin, die rechte Seite dieser Gleichung zu kontrolieren, um dielinke Seite unter Kontrolle zu halten. Hierzu zeigen wir

44

Lemma 4.18 Ist h : R → R beschrankt und differenzierbar und UN(h) wie oben

UN(h)(y) = ey2/2

∫ y

−∞(h(x) −N (h))e−x2/2dx

die Losung der Stein-Gleichung. Dann gilt

‖UN (h)‖ ≤√

π

2‖h−N (h)‖ (4.7)

‖UN(h)′‖ ≤ 2‖h−N (h)‖ (4.8)

und‖UN(h)′′‖ ≤ 2‖h′‖. (4.9)

Beweis: Wie schon oben bemerkt ist

UN(h)(w) = ew2/2

∫ w

−∞(h(x) −N (h))e−x2/2dx

= −e+w2/2

∫ ∞

w

(h(x) −N (h))e−x2/2dx.

Fur (4.7) beachte, dass fur w ≤ 0

|UN(h)(w)| ≤ supx≤0

|h(x) −N (h))(

∫ w

−∞e−y2/2dy)ew2/2

und fur w ≥ 0

|UN (h)(w)| ≤ supx≥0

|h(x) −N (h)|ew2/2

∫ ∞

w

e−y2/2dy.

Dad

dw(ew2/2

∫ w

−∞e−x2/2dx) = 1 + wew2/2

∫ w

−∞e−x2/2dx

und

Φ(w) ≤ 1√2π

∫ w

−∞− x

|w|e−x2/2dx =

e−w2/2

|w|√

folgtd

dw(ew2/2

∫ w

−∞e−x2/2dx) > 0.

Somit wird das Maximum von |UN (h)(w)| bei w = 0 angenommen. Hier ergibt sich

‖UN(h)‖ ≤√

π

2‖h−N (h)‖.

Fur (4.8) bemerken wir, dass die Steingleichung fur UN(h) fur w ≥ 0 impliziert:

supw≥0

|(UN(h)′(w)| ≤ ‖h−N (h)‖(1 + supw≥0

wew2/2

∫ ∞

w

e−x2/2dx).

45

Da

1 − Φ(w) ≤ 1√2π

∫ ∞

w

x

we−x2/2dx =

e−w2/2

w√

folgtsupw≥0

|(UN(h)′(w)| ≤ 2‖h−N (h)‖.

Setzen wir h∗(w) = h(−w), so gilt

UN (h∗)(w) = UN(h)(−w),

daraus folgt (4.8).

Zum Beweis von (4.9) leiten wir die Steingleichung

U ′N (h) − wUN(h) = h−N (h)

ab:

(UN (h))′′(w) = UN (h)(w) + w(UN(h))′(w) + h′(w)

= (1 + w2)UN (h)(w) + w(h(w) −N (h)) + h′(w).

Wir drucken (UN(h))′′ in Termen von h′ aus. Dazu berechnen wir mittels partieller Inte-gration:

h(x) −N (h) =1√2π

(h(x) − h(y))e−y2/2dy

=1√2π

(

∫ x

−∞(

∫ x

y

h′(z)dz)e−y2/2 −∫ ∞

x

(

∫ y

x

h′(z)dz)e−y2/2dy)

=1√2π

(

∫ x

−∞h′(z)(

∫ z

−∞e−y2/2dy) −

∫ ∞

x

h′(z)(

∫ ∞

x

e−y2/2dy)dz)

=

∫ x

−∞h′(z)Φ(z)dz −

∫ ∞

x

h′(z)(1 − Φ(z))dz.

Somit folgt

(UN(h))(w) = ew2/2

∫ w

−∞(h(x) −N (h))e−x2/2dx

= ew2/2

∫ w

−∞(

∫ x

−∞h′(z)Φ(z)dz −

∫ ∞

x

h′(z)(1 − Φ(z))dz)e−x2/2dx

= ew2/2(

∫ w

−∞h′(z)Φ(z)(

∫ w

z

e−x2/2dx)dz

−∫ w

−∞h′(z)(1 − Φ(z))(

∫ z

−∞e−x2/2dx)dz

−∫ ∞

w

h′(z)(1 − Φ(z))(

∫ w

−∞e−x2/2dx)dz)

= −√

2πew2/2((1 − Φ(w))

∫ w

−∞h′(z)Φ(z)dz + Φ(w)

∫ ∞

w

h′(z)(1 − Φ(z))dz).

46

Damit erhalten wir

(UN(h))′′(w) = h′(w) + (w −√

2π(1 + w2))ew2/2(1 − Φ(w))

∫ w

−∞h′(z)Φ(z)dz

+(−w −√

2π(1 + w2)Φ(w)

∫ ∞

w

h′(z)(1 − Φ(z))dz.

Offenbar ist fur alle w > 0

w +√

2π(1 + w2)ew2/2Φ(w) > 0. (4.10)

Fur w < 0 ist aber (wieder mittels partieller Integration)

w +√

2π(1 + w2)ew2/2Φ(w)

= w + ew2/2

∫ w

−∞e−x2/2dx+ w2ew2/2(−e

w2/2

w−∫ w

−∞

e−x2/2

x2dx)

= ew2/2

∫ w

−∞(1 − w2

x2)e−x2/2dx > 0.

Also stimmt (4.10) fur alle w. Wendet man es auf −w an, so ergibt sich

−w +√

2π(1 + w2)ew2/2(1 − Φ(w)) > 0 fur alle w. (4.11)

Weiter ist∫ w

−∞Φ(z)dz = wΦ(w) +

e−w2/2

√2π

> 0

und∫ ∞

w

(1 − Φ(z))dz = −w(1 + Φ(w)) +e−w2/2

√2π

> 0.

Mit der Positivitat all dieser Ausdrucke erhalten wir

‖UN(h)′′‖ ≤ (1 + supw

([−w +√

2π(1 + w2)ew2/2(1 − Φ(w))][wΦ(w) +e−w2/2

√2π

]

+[w +√

2π(1 + w2)ew2/2Φ(w)][−w(1 − Φ(w)) +e−w2/2

√2π

])‖h′‖

= 2‖h′‖.Dies beweist (4.9). 2

Wir wollen nun sehen, dass sich unsere Arbeit gelohnt hat:

Beweis von Satz 4.15: Die Klasse aller stetig differenzierbaren Abbildungen von R

nach R ist konvergenzdeterminierend fur die schwache Konvergenz (das findet man z. B.in “Weak Convergence of Probability Measures” von Billingsley und beweist es wie imPortmanteau-Theorem). Sei also σ = 1 und ξ = E|Xi|3 <∞. Sei Wn := Sn√

nund h : R → R

stetig differenzierbar mit ‖h′‖ <∞. Sei wieder

UN(h) =: f := ey2/2

∫ y

−∞(h(x) −N (h))e−x2/2dx.

47

Weiter sei

W in := Wn − Xi√

n.

Wir entwickeln f mit Hilfe der Taylor-Formel

f(Wn) − (f(W in) + (Wn −W i

n)f ′(W in)) =

∫ wn

W in

(Wn − t)f ′′(t)dt.

Also:

E

[

Xi√nf(Wn) − Xi√

nf(W i

n) − X2i

nf ′(W i

n)

]

= E

[

Xi√n

∫ Wn

W in

(Wn − t)f ′′(t)dt

]

.

Die rechte Seite konnen wir kontrollieren:

|E[

Xi√n

∫ Wn

W in

(Wn − t)f ′′(t)dt

]

|

≤ E| Xi√n

∫ Wn

W in

|Wn −W in|‖f ′′‖dt|

≤ ‖f ′′‖E|Xi|3n3/2

.

Die Zufallsvariablen Xi und W in sind stochastisch unabhangig, also ist

E(Xif(W in)) = EXiEf(W i

n) = 0

undE(X2

i f′(W i

n)) = EX2i Ef ′(W i

n) = Ef ′(W in).

Somit erhalten wir

|E(

Xi√nf(Wn)

)

− 1

nEf ′(W i

n)| ≤ ‖f ′′‖ ξ

n3/2.

Dies ergibt:

|Eh(Wn) −N (h)| = |E[f ′(Wn) −Wnf(Wn)]|

≤ |E(f ′(Wn) − 1

n

n∑

i=1

f ′(W in))| + |E[

1

n

n∑

i=1

f ′(W in) −

n∑

i=1

Xi√nf(Wn)]|

≤ 1

n

n∑

i=1

E|f ′(Wn) − f ′(W in)| +

n∑

i=1

| 1n

Ef ′(W in) − E(

Xi√nf(Wn)|.

Den ersten Summanden konnen wir mithilfe des Mittelwertsatzes durch

1

n

n∑

i=1

E|f ′(Wn) − f ′(W in)| ≤ 1

n

n∑

i=1

‖f ′′‖E|Xi|√n

abschatzen. Aufgrund der Jensen-Ungleichung ist

E|Xi| ≤ ξ1/3,

48

also insgesamt mit den Voruberlegungen und ‖f ′′‖ ≤ 2‖h′‖

Eh(Wn) −N (h)| ≤ 2‖h′‖ξ1/3

√n

+2‖h′‖ξ√

n.

2

Bemerkung 4.19 Wir haben hier zusatzlich zu den Voraussetzungen von Satz 4.15 nochangenommen, dass E|Xi|3 < ∞ ist. Einen Beweis ohne diese Annahme findet man imSkript “Wahrscheinlichkeitstheorie I”. Dort bekommt man naturlich auch keine Schrankean die Konvergenzgeschwindigkeit. Der Beweis liefert nicht ganz Satz 4.16, denn dortmusste man Indikatoren

h(x) = 1l(−∞,w](x)

betrachten, diese sind im entscheidenden Punkt schlecht differenzierbar. Approximiert manh durch stetig differenzierbare Funktionen, so muss man eine Balance halten: Je genauerdie Approximation wird, desto großer wird die Schranke an die Ableitung. Ohne weitereIdeen lasst sich so eine Ordnung von C · 1

n1/4 erzielen. Ein induktiver Beweis von Bolt-

hausen (1984) zeigt allerdings, dass sich Satz 4.16 mit einer Schranke der Form c/n1/2

mithilfe der Steinschen Methode beweisen lasst. Wir wollen hier davon absehen.

Wir wenden uns nun der Situation mit abhangigen Zufallsvariablen zu: Hier gilt die fol-gende Verallgemeinerung von Satz 4.15, die 1989 von Barbour, Karonski und Rucinskigezeigt wurde (wir verzichten darauf, einen Beweis zu geben):

Satz 4.20 Sei W eine Zufallsvaria¡ble, die folgendermaßen zerlegen werdenkann: Fureine endliche Indexmenge Ξ und Ξα ⊆ Ξ fur α ∈ Ξ und quadratisch integrierbare Zufalls-variablen Xα,Wα, Zα, Zαβ,Wαβ und Vαβ, α ∈ Ξ, β ∈ Ξα gilt:

W =∑

α∈Ξ

W = Wα + Zα furjedes α ∈ Ξ

Zα =∑

β∈Ξα

Zαβ fur jedes α ∈ Ξ

Wα = Wαβ + Vαβ fur α ∈ Ξ, β ∈ Ξα,

wobei weiterhin gelte: EXα = 0 ∀α, Wα ist unabhangig von Xα und Wαβ ist unabhangigvon dem Paar (Xα, Zαβ). Dann gibt es eine universelle Konstante C, so dass fur σ2 =V W und

W =1

σW

gilt

d1(L(W ),N (0, 1)) ≤ C

σ3(∑

α∈Ξ

E(|Xα|Z2α)+

α∈Ξ

β∈Ξα

(E|XαZαβVαβ|+E|XαZαβ|E|Zα +Vαβ |).

49

Bemerkung 4.21 Die Abstandsfunktion d1 zwischen zwei Zufallsvariablen X und Y istgegeben durch

d1(X, Y ) = sup(|Eh(X) − Eh(Y )| : supx

|h(x)| + supx

|h′(x)| ≤ 1.

Wir schreiben in Missbrauch von Notationen N (0, 1) fur eine Gaußsche Zufallsvariableebenso wie fur ihre Verteilung. Konvergenz in d1 impliziert Verteilungskonvergenz.

Naturlich besteht die wesentliche Herausforderung in Anwendungen in der Konstrukti-on einer geeigneten Zerlegung der Indexmenge. Haben die (Xα)α∈Ξ genugend viel Un-abhangigkeit, so geht das recht gut. Um dies in ein quantifizierbares Resultat umzuwan-deln fuhren wir den Abhangigkeitsgraphen der (Xα) ein. Dieser hat Ξ als Knotenmengeund eine Kante zwischen α und β, wenn Xα und Xβ abhangig sind. Sind also A,B ⊆ Ξ so,dass A und B in diesem Graphen keine verbindenden Kanten haben, so sind die Familie(Xα)α∈A und (Xβ)β∈B unabhangig. Man definiert in diesem Abhangigkeitsgraphen L aufnaturliche Weise die Umgebung NL(α1, . . . , αr) einer Knotenmenge α1, . . . , αr ⊆ V (L).

NL(α1, . . . , αr) =r⋃

i=1

β ∈ V (L)∃i, so dass β = αi oder αi, β ∈ E(L). (4.12)

Dann gilt das folgende Resultat

Satz 4.22 SeiW =

α∈Ξ

Xα,

wo (Xα)α∈Ξ eine Familie von Zufallsvariablen mit Abhangigkeitsgraph L ist und fur dieEXα = 0 ∀ α ∈ Ξ gilt. Sei

σ2 = VW

mit 0 < σ2 < ∞. Dann gilt fur die Umgebung NL(α) wie in (4.12) und eine universelleKonstante C:

d1(L(W ),N (0, 1)) ≤ C

σ3

α

β,γ∈NL(α)

(E|XαXβXγ| + E|XαXβ|E|Xγ).

Beweis: Wir verwenden Satz 4.20 mit

Ξα = NL(α)

Wα =∑

β /∈NL(α)

Zα =∑

β∈NL(α)

Zαβ = Xβ

Wαβ =∑

γ /∈NL(α)∪NL(β)

und Vαβ =∑

γ∈NL(β)\NL(γ)

Xγ.

50

Dann sieht man, dass

α∈Ξ

E(|Xα|Z2α) +

α

β∈Bα

(E|XαZαβVαβ| + E|XαZαβ |E|Zα + Vαβ|)

≤ 2∑

α

β,γ∈NL(α)

(E|XαXβXγ| + E|XαXβ|E|Xγ|),

was das Resultat impliziert (hierbei durfen wir annehmen, dass EX2α < +∞ gilt, denn

sonst ist die rechte Seite unserer Behauptung sowieso unendlich). 2

Als Konsequenz hieraus erhalten wir

Satz 4.23 Sei (Sn)n∈N eine Folge von Zufallsvariablen mit

Sn =∑

α∈Ξn

Xnα,

wobei fur jedes n (Xnα)α eine Familie von zentrierten Zufallsvariablen mit Abhangigkeits-graph Ln ist. Angenommen, es gibt Zahlen Mn und Qn, so dass

α∈Ξn

E|Xnα| ≤Mn (4.13)

und fur alle α1, α2 ∈ Ξn

α∈NLn (α1,α2)

E(|Xnα| |Xnα1, Xnα2) ≤ Qn. (4.14)

Sei σ2n = VSn. Dann gilt fur Sn = Sn

σn

d1(L(Sn),N (0, 1)) = O

(

MnQ2n

σ3n

)

.

Insbesondere gilt

Snd−→ N (0, 1),

fallsMnQ

2n

σ3n

→ 0.

Beweis: OBdA EXnα = 0 (sonst ersetzen wir Xnα durch Xnα − EXnα). Bemerke, dassdies nichts an den Bedingungen (4.13) und (4.14) andert, wenn wir Qn und Mn durch 2Qn

und 2Mn ersetzen. Das folgende Lemma (dessen Beweis wir allerdings schuldig bleiben)zeigt, dass

α

β,γ∈NL(α)

(E|XαXβXγ| + E|XαXβ|E|Xγ|) ≤ 2MnQ2n. (4.15)

Damit folgt die Behauptung aus Satz 4.22. 2

51

Lemma 4.24 Unter den Voraussetzungen von Satz 4.23 gilt (4.15).

Beweis: Ubung, siehe Janson, Luczak, Ruczinski, Lemma 6.17. 2

Als eine Anwendung betrachten wir wieder die Statistik, die die Anzahl von Teilgraphenin G(n, p) zahlt. Sei Γ dazu wieder ein fester Graph mit eΓ > 0. Es sei p(n) diesmal so,dass mit n→ ∞

npm(Γ) → ∞und desweiteren

n2(1 − p) → ∞gilt. Sei (Γα)α∈Ξn die Familie von Teilgraphen in Kn, die zu Γ isomorph sind, sei

Iα = 1lΓα⊆G(n,p)

und

Xα = Iα − EIα.

Sei

XΓ =∑

α∈Ξn

Iα.

Dann ist

XΓ − EXΓ =∑

α∈Ξn

Xα.

Wir uberprufen zunachst (4.13) und (4.14). Sei dazu Ln der Abhangigkeitsgraph der Iα,d. h. α, β ∈ Ξn sind in Ln verbunden, falls die zu α und β gehorigen Graphen Gα und Gβ

in Kn eine gemeinsame Kante haben. Nun beachte, dass

E|Xα| = 2EIα(1 − EIα) ≤ const(Γ)(1 − p)EIα

und daher∑

α

E|Xα| ≤ const(Γ)(1 − p)EXΓ,

also gilt (4.13) mit

Mn = const(Γ)(1 − p)EXΓ = O((1 − p)EXΓ).

Nun seien α1, α2 ∈ Ξn gegeben. Setze

F = Γα1 ∪ Γα2

und fur jedes α ∈ Ξn

Fα = Γα ∩ F.Bemerke, dass

α ∈ NLn(α1, α2) ⇔ |e(Fα)| 6= 0.

52

Es gibt weniger als 2vF ≤ 22vΓ solcher Teilgraphen F und fur jedes H ⊆ F gibt esO(nvΓ−vH ) Wahlen von α, so dass Fα = H gilt, wobei

E(|Xα| |Xα1, Xα2) ≤ E(|Iα| |Xα1, Xα2) + EIα ≤ 2peΓ−eH .

Da weiterhin jedes Fα isomorph zu einem Subgraphen von Γ ist, folgt, dass

α∈NL(α1,α2)

E(|Xα| |Xα1 , Xα2) ≤ B supH⊂ΓeH≥1

EXΓ

EXH

= BEXΓ

ΦΓ

fur ein geeignetes B, das von Γ abhangt und ΦΓ wie in Abschnitt 3. Also gilt auch (4.14)mit

Qn = BEXΓ

ΦΓ

= O

(

EXΓ

ΦΓ

)

.

Also gilt:MnQ

2n

σ3n

=const(Γ)(1 − p)(EXΓ)3Φ−2

Γ

σ3n

= O

(

1√1 − p

Φ−1/2Γ

)

,

denn aus Lemma 3.9 folgt

σ2n ≈ V(XΓ) ≈ (1 − p)

(EXΓ)2

ΦΓ

.

Da nunΦΓ = minEXH : H ⊆ Γ : eH > 0

gegen ∞ geht, wenn p≫ n− 1

m(Γ) , folgt

Satz 4.25 Sei Γ fest mit eΓ > 0. Falls nun mit n→ ∞

npm(Γ) → ∞ und

n2(1 − p) → ∞,

dann giltXΓ → N (0, 1).

Bemerkung: Es gilt sogar:

d1(L(XΓ),N (0, 1)) = O

(

1√1 − p

1

Φ1/2Γ

)

→ 0.

53

5 Verzweigungsprozesse

Da wir in der Folge einen kritischen Zufallsgraphen haufig mit einem Verzweigungspro-zess vergleichen wollen, stellen wir ein kurzes Kapitel uver Verzweigungsprozesse voran.Ein Verzweigungsprozess ist das einfachste Modell einer sich zeitlich entwickelnden Po-pulation. Wir stellen uns vor, dass jeder Organismus in einer Population zu diskretenZeitpunkten eine Anzahl von Kindern zeugt und dann stirbt. Wir nehmen an, dass dieVerteilung der Nachkommenzahl uber alle Organismen die gleiche ist und wir bezeichnendiese mit (pi)i, wobei pi die Wahrscheinlichkeit sei, dass ein Organismus i Kinder zeugt.Es sei Zn die Große der Population zur Zeit n, mit Z0 = 1 und

Zn =

Zn−1∑

i=1

Xn,i.

Es ist dabei Xn,i ein Dreiecksschema von unabhangigen Zufallsvariablen, die gemaß (pi)i

verteilt sind, oftmals nennen wir eine wolche Zufallsvariable auch X.

Der erste zentrale Satz der Theorie der Verzweigungsprozesse besagt nun, dass der Prozessausstirbt, wenn E[X] ≤ 1 (mit der Ausnahme, dass fur X ≡ 1 der Prozess naturlichuberlebt), wahrend es mit positiver Wahrscheinlichkeit uberlebt, wenn EX ≥ 1. Sei

η = P[∃n : Zn = 0]

die Aussterbewahrscheinlichkeit des Prozesses. Dann gilt:

Satz 5.1 Sei der Verzweigungsprozess Zn wie oben definiert. Dann gilt:

• EX < 1 ⇒ η = 1;

• EX = 1, P(X = 1) < 1 ⇒ η = 1;

• EX > 1 ⇒ η < 1.

Ist weiter GX die erzeugende Funktion von X

EsX =: GX(s),

dann ist η die kleinste Losung von

η = GX(η).

Beweis: Sei ηn = P(Zn = 0). Da Zn = 0 ⊆ Zn+1 = 0 gilt, dass ηn steigend ist, daηn ≤ 1 ∀ n, gilt

ηn → η fur n→ ∞.

SeiGn(s) = EsZn

54

die erzeugende Funktion der n-ten Generation. Wenn X nur Werte in N0 annimmt, istP(X = 0) = GX(0). Also folgt

ηn = Gn(0).

Zerlegt man nach der Große der ersten Generation, folgt

Gn(s) = EsZn =

∞∑

i=0

piE[sZn |Z1 = i] =

∞∑

i=0

piGin−1(s).

Schreiben wir also GX fur GX1,1 , so gilt

Gn(s) = GX(Gn−1(s)).

Setzen wir s = 0 ein, bekommen wir fur ηn die Gleichung

ηn = GX(ηn−1).

Fur n→ ∞ konvergiert ηn gegen η, also folgt wegen der Stetigkeit von G:

η = GX(η).

Ist P(X = 1) = 1, so gibt es stets ein Individuum, und mehr ist nicht zu sagen. Ist

P(X1 ≤ 1) = 1 und p0 > 0,

so folgtP(Zn = 0) = 1 − (1 − p0)

n → 1.

Sei also P(X ≤ 1) < 1. Angenommen, ψ ∈ [0, 1] erfullt

GX(ψ) = ψ.

Dann ist η ≤ ψ, denn η0 = 0 ≤ ψ und da GX monoton wachsend ist, folgt dann induktiv

ηn = GX(ηn−1) ≤ GX(ψ) = ψ.

Lassen wir n → ∞ gehen, so folgt η ≤ ψ. Also ist η der kleinste Fixpunkt von GX .Bemerke, dass GX (wachsend, wie schon bemerkt und) konvex ist, denn

G|n|X (s) = E[X(X − 1)sX−2] ≥ 0.

Ist, wie angenommen, P(X ≤ 1) < 1, so ist

G|n|X (s) > 0,

also GX strikt konvex. Also kann die Gleichung

s = GX(s) (5.1)

hochstens 2 Losungen in [0, 1] haben. Eine Losung ist stets s = 1. Da GX(0) > 0, gibtes genau eine Losung von (5.1), wenn G′

X(1) ≤ 1 gilt, wahrend es fur G′X(1) > 1 zwei

Losungen gibt. Also ist

55

• η = 1, wenn G′X(1) < 1,

• η < 1, wenn G′X(1) > 1.

Ist G′X(1) = 1, so gibt es wieder genau eine Losung, es sei denn GX(s) = s, was zu

P(X = 1) aquivalent ist. DaG′

X(1) = EX,

folgt die Behauptung. 2

Oftmals werden wir statt η die Uberlegenswahrscheinlichkeit ζ verwenden, die durch

ζ = 1 − η,

d. h.ζ = P(Zn > 0, ∀n ∈ N)

definiert ist. Wir studieren nun die Große der gesamten Nachkommenschaft T des Ver-zweigungsprozesses, definiert durch

T =∞∑

n=0

Zn.

Sei GT die erzeugende Funktion von T :

GT (s) = EsT .

Das zentrale Resultat ist hier

Satz 5.2 Fur einen Verzweigungsprozess mit i.i.d. Nachkommenverteilung (sei X diezugehorige Zufallsvariable) gilt

GT (s) = sGX(GT (s)).

Beweis: Wir bedingen wieder auf die Große der ersten Generation und benutzen, dass,wenn Z1 = i die totale Nachkommenschaft Tj des j-ten Kindes der ersten Generation furj = 1, . . . , i aus i.i.d. Zufallsvariablen besteht, die so verteilt sind wie T . Benutzt manalso

T = 1 +

i∑

j=1

Tj

(wobei∑0

j=1 Tj ≡ 0), erhalt man

GT (s) =

∞∑

i=0

piE[sT |Z1 = i]

= s∞∑

i=0

piE[sT1+...+Ti ]

= s∞∑

i=0

piGT (s)i

= sGX(GT (s)).

56

2

Wir wollen uns nun der mittleren Generationsgroße eines Verzweigungsprozesses zuwendenund daraus Folgerungen ableiten.

Satz 5.3 Fur alle n > 0 giltE[Zn] = µn,

wobeiµ := EZ1 = EX.

Beweis: Da

Zn =

Zn−1∑

i=1

Xα,i,

folgt durch Bedingen auf Zn−1

EZn = µE[Zn−1].

2

Ubung 5.4 Zn

µn ist ein Martingal.

Satz 5.5 Fur einen Verzweigungsprozess mit i.i.d. verteilter Nachkommenschaft, die soverteilt ist wie die Zufallsvariable X, fur die EX = µ < 1 gelte, gilt

ET =1

1 − µ.

Beweis: Ubung. 2

Vergleicht man einen Verzweigungsprozess mit einem Zufallsgraphen, so ist es oftmalspraktischer, einen Markov-Kette-Standpunkt einzunehmen. Seien also X1, X2, . . . i.i.d.mit P

X1 = PX1,1 . Sie S0, S1, . . . rekursiv definiert durch

S0 = 1 (5.2)

Si = Si−1 +Xi − 1 =

i∑

j=1

Xj − (i− 1).

Sei T der kleinste Index, fur den St = 0 gilt, d. h.

T = mint : St = 0 = mint : X1 + . . .+Xt = t− 1.

Gibt es so ein t nicht, setzen wir T = +∞. Diese Beschreibung ist aquivalent zu der Be-schreibung eines Verzweigungsprozesses, aber beschreibt den Verzweigungsprozess anders,

57

so ist es beispielsweise aus dieser Beschreibung die Generationsgroße abzulesen. Um zusehen, dass die beiden Beschreibungen ubereinstimmen, zeigen wir, dass die Verteilungder Zufallsvariable T im Markovkettenbild mit der Zufallsvariable T im normalen Bild desVerzweigungsprozesses, der totalen Nachkommenschaft ubereinstimmt. Um dies zu sehen,beachte, dass sich der zum Verzweigungsprozess gehorige Baum folgendermaßen erkundenlasst: Sei X1 die Anzahl der Kinder des ursprunglichen Individuums und sei S1 = X1 − 1.Starten wir in der Wurzel, so gibt es S1 Individuen, deren Nachkommenschaft wir nochnicht untersucht haben. Wir behaupten, dass sich fur alle Si eine solche Interpretationgeben lasst.

Lemma 5.6 Der Prozess (Si)i hat dieselbe Verteilung wie der Prozess (S ′i)

∞i=1, wobei S ′

i

die Anzahl der nocht nicht untersuchten Nachkommen in dem Explorationsprozess der Po-pulation eines Verzweigungsprozesses, nachdem man sukzessiv i Nachkommen untersuchthat.

Beweis: Wir beweisen dies induktiv nach i. Fur i = 0 ist nichts zu zeigen. Sei dieBehauptung fur Si−1 gezeigt. Ist Si−1 = 0, so gilt die Behauptung, denn dann ist dergesamte Stammbaum untersucht, und die Anzahl der untersuchten Individuen ist so großwie der Stammbaum, also T .

Sei also Si−1 > 0. Dann wahlen wir ein beliebiges noch nicht untersuchtes Individuumund bezeichnen mit der Zufallsvariable Xi die Anzahl seiner Nachkommen. Da die Nach-

kommenzahla verschiedener Individuen unabhangig ist, ist XiD= Z1. Somit haben wir,

nachdem wir die Kinderzahl des i-ten Individuums festgestellt und somit das i-te Indivi-duum erkundet haben, Xi Individuen hinzugewonne, die wir erkunden mussen, wahrendwir eines (das i-te) erkundet haben. Die Anzahl der noch nicht erkundeten Individuen istalso Si−1 +Xi − 1 = Si. 2

Es folgt also auch, dass T als Stoppzeit definiert in Verteilung gleich der gesamten Nach-kommenschaft ist.

Der zu der Rekursion gehorige Verzweigungsprozess ist der folgende: Wir beginnen miteinem aktiven Individuum. Zur Zeit i, wahlen eines der aktiven Individuen aus, geben ihmXi Kinder und setzen es selbst auf inaktiv, wahrend die Kinder (falls Xi > 0) auf “aktiv”gesetzt werden. Das wird fortgesetzt, bis es keine aktiven Mitglieder der Population mehrgibt. Dann ist Si die Anzahl der aktiven Knoten, nachdem i Individuen untersucht wurden.Der Prozess stoppt fur St ≡ 0, kann aber fur alle t definiert werden, weil der Wert vonT dabei unberuhrt bleibt. Tatsachlich macht der Explorationsprozess nur fur i ≤ T Sinn,da nur dann Si ≥ 0 ∀ i ≤ T gilt. Er kann aber fur alle i ≥ 0 definiert werden, was wirbei Gelegenheit benutzen werden.

Sei weiter H = (X1, . . . , XT ) die Geschichte des Prozesses bis zur Zeit T . Wir lassenauch T = ∞ zu, in welchem Fall H unendliche Lange hat. Eine Folge (x1, . . . , xt) ist einemogliche Geschichte genau dann, wenn si > 0 fur alle i < t und st = 0 gilt, dabei ist

si =

i∑

j=1

xj − (i− 1).

58

Dann gilt fur jedes endliche t <∞

P(H = (x1, . . . , xt)) =

t∏

i=1

pxi. (5.3)

(5.3) legt die Verteilung des Verzweigungsprozesses fest, bedingt darauf, dass er ausstirbt.Wir konnen diese Perspektive also einnehmen, um die Verteilung des Verzweigungsprozes-ses bedingt darauf, dass er ausstirbt, zu beschreiben. Wir nennen dafur zwei Verteilungenp und p′ ein konjugiertes Paar, falls

p′x = ηx−1px

fur alle x gilt. Hierbei ist η die Aussterbewahrscheinlichkeit, die zur Nachkommenvertei-lung (px) gehort, also

η = GX(η).

Ubung 5.7 Zeigen Sie, dass p′ = (p′x), x ∈ N, eine Wahrscheinlichkeitsverteilung ist.

Der Grund, p′ einzufuhren ist der folgende:

Satz 5.8 Seien p und p′ konjugierte Wahrscheinlichkeiten. Dann hat der Verzweigungs-prozess mit Nachkommenverteilung p bedingt darauf, dass er ausstirbt, die gleiche Vertei-lung wie ein Verzweigungsprozess mit Nachkommenverteilung p′.

Beweis: Es genugt zu zeigen, dass fur jede endliche Geschichte (x1, . . . , xn) die Wahr-scheinlichkeit (5.3) die gleiche ist fur einen Verzweigungsprozess mit Nachkommenvertei-lung p, bedingt darauf, dass er ausstirbt und fur einen Verzweigungsprozess mit Nach-kommenverteilung p′. Sei also t <∞ fest. Beachte zunachst, dass

P(H = (x1, . . . , xt)|Aussterben)

=P(H = (x1, . . . , xt) ∩ Aussterben)

P(Aussterben)(5.4)

= P(H = (x1, . . . , xt))/η,

da jede endliche Geschichte impliziert, dass der Prozess ausstirbt. Benutzen wir nun (5.3)zusammen mit

t∏

i=1

pxi=

t∏

i=1

p′xi

1

ηxi−1

= ηt−Pti=1 xi

t∏

i=1

p′xi

= η∏

i=1

p′xi,

59

da x1 + . . .+ xt = t− 1. Setzt man in (5.4) ein, erhalt man

P(H = (x1, . . . , xr)|Aussterben) = P′(H(x1, . . . , xr)),

wobei P′ die zu p′ Verteilung von H ist. 2

Ubung 5.9 a) Zeigen Sie, dass fur die erzeugende Funktion des dualen ProzessesGd(s) = E

′sX1 gilt

Gd(s) =1

ηGX(ηs).

b) Zeigen Sie, dass, falls fur den Originalprozess η > 1 gilt,

E′[X] < 1

gilt, der zu p′ gehorige Verzweigungsprozess ist also subkritisch.

Ein weiterer Aspekt der Markov-Ketten-Perspektive ist, dass man handlich die Ausster-bewahrscheinlichkeit berechnen kann, wenn der Baum eine gewisse Große hat:

Satz 5.10 Habe ein Verzweigungsprozess wieder i.i.d. Nachkommen, die verteilt sind wieX mit µ = EX > 1. Dann gilt

P[k ≤ T <∞] ≤ e−Ik

1 − e−I,

wobei I gegeben ist durch

I = supt≤0

(t− log EetX).

Bemerkung 5.11 Eine Kernaussage von Satz 5.10 ist, dass die Uberlebenswahrschein-lichkeit hoch ist, wenn wir erst einmal eine gewisse Populationsgroße erreicht haben. Be-merke, dass fur µ > 1 und EetX <∞ fur alle t ∈ R gilt

I = supt

(t− log EetX).

Allerdings wird EetX ∀ t ∈ R nicht in Satz 5.10 vorausgesetzt. Da X ≥ 0 ist, ist aller-dings EetX fur t ≤ 0 immer endlich. Da auch die Ableitung von

t 7→ t− log EetX

in t = 0 1 − EX < 0 ist, wird das Supremum in t < 0 angenommen. Daher folgt auchI > 0 ohne weitere Annahmen.

60

Beweis von Satz 5.10: Wenn T = s ist, so folgt Ss = 0, also

X1 + . . .+Xs = s− 1 ≤ s.

Daher folgt

P(k ≤ T <∞) ≤∞∑

s=k

P(Ss = 0) ≤∞∑

s=k

P(X1 + . . .+Xs ≤ s).

Benutzt man die obere Schranke aus dem Satz von Cramer, dann ist

P(n∑

s=1

Xi ≤ n) = e−nJ(1)

mit

J(a) = supt≤0

[ta− log EetX1 ]

(da 1 < EX1), so ergibt sich

P(k ≤ T <∞) ≤∞∑

s=k

e−sI =e−Ik

1 − e−I.

2

Wir wollen uns nun der Konvergenz der Populationen der n-ten Generation zuwenden.Da diese im kritischen und subkritischen Fall ausstirbt, konvergiert Zn gegen 0 und mehrist nicht zu sagen. Fur µ > 1 gilt

limn→∞

P(Zn = k) = 0,

es sei denn, k = 0 und

P( limn→∞

Zn = 0) = 1 − P(limZn = ∞) = η,

wobei η eben wieder die Aussterbewahrscheinlichkeit des Prozesses ist. Sei η < 1, d. h.die Population uberlebt mit positiver Wahrscheinlichkeit, und in diesem Fall ist

limZn = +∞.

Satz 5.12 Fur einen Verzweigungsprozess mit i.i.d. Nachkommenverteilung (wie X) mitµ = EX > 1, gilt

Zn

µn→W∞ P-f.s.

fur eine P-f.s. endliche Zufallsvariable W∞.

61

Beweis: Da Zn

µn ein Martingal mit

EZn

µn=

1

µnEZn = 1

ist, folgt die Behauptung aus dem Martingalkonvergenzsatz. 2

Allerdings lasst sich uber W∞ wenig sagen.

Ein wichtiger Satz uber die Konvergenz im superkritischen Fall ist der folgende

Satz 5.13 (Kesten-Stigun)Fur einen Verzweigungsprozess mit i.i.d. Nachkommenvertielung (wie X) mit EX = µ > 1gilt

P(W∞ = 0) = η ⇔ E[X logX] <∞.

In diesem Fall gilt auch E[W∞] = 1, wahrend fur E[X logX] = ∞ gilt P[W∞ = 0] = 1.

Der Beweis soll hier nicht gegeben werden. Er befindet sich z. B. im Buch von Arthreyaund Ney, Branching Processes.

Satz 5.11 impliziert, dassP[W∞ > 0] = 1 − η,

so dass W∞ > 0 bedingt darauf, dass der Prozess uberlebt.

Es bleibt die Frage, was passiert, wenn EX logX = +∞. In diesem Fall hat Seneta gezeigt,dass es eine geeignete Normalisierung (cn)∞n=1 gibt, so dass

limn→∞

c1/nn = µ

undZn

cnkonvergiert gegen einen nicht-entarteten Grenzwert

gilt. Allerdings ist cn = 0(µn), so dass P(W∞ = 0) = 1 gilt. Wir wollen uns nun mitden Individuen beschaftigen, die fur immer uberleben. Diese formen wieder einen Ver-zweigungsprozess, wie wir gleich sehen werden. Dazu seien Z∞

n diejenigen Individuen dern-ten Generation, deren Nachkommen nie aussterben. Dann gilt

Satz 5.14 Der Prozess (Z∞n )∞n=1 ist wieder ein Verzweigungsprozess mit Nachkommen-

verteilung (p(∞)) = (p∞k )∞k=0, die durch p(∞)0 = 0 und

p(∞)k =

1

ζ

∞∑

j=k

(

j

k

)

ηj−k(1 − η)kpj (5.5)

fur k ≥ 1 gegeben ist. Daµ(∞) = EZ

(∞)1 = µ = EZ1, (5.6)

ist dieser Verzweigungsprozess superkritisch mit der gleichen durchschnittlichen Anzahlder Nachkommen wie der ursprungliche Prozess.

62

Bemerkung 5.15 Es ist interessant, dieses Resultat mit Satz 5.8 zu vergleichen. Im su-perkritischen Regime ist der Verzweigungsprozess bedingt darauf, dass er ausstirbt, wiederein Verzweigungsprozess mit der dualen Verzweigungsrate, wahrend die Individuen, be-dingt auf Uberleben, wieder einen superkritischen Verzweigungsprozess formen.

Beweis: Sei A∞ := Zn → ∞. Wir zeigen induktiv, dass fur jedes n ≥ 0 die Verteilung

von (Z(∞)k )n

k=0 bedingt auf A∞ gleich ist zu der von (Zk)nk=0, wobei (Zk) ein Verzweigungs-

prozess mit Nachkommenverteilung p(∞) wie in (5.5) ist. Fur n = 0 gilt naturlich

Z(∞)0 = 1 = Z0.

Angenommen, die Annahme gelte fur n. Die Behauptung fur n + 1 folgt dann, falls wirzeigen konnen, dass die bedingte Verteilung von Z

(∞)n+1 gegeben (Z

(∞)k )n

k=0 gleich der von

Zn+1 gegeben (Zk)nk=0 ist. Letztere ist naturlich gleich der einer unabhangigen Summe

von Zn unabhangigen Zufallsvariablen. Die Verteilung von Z(∞)n+1 gegeben (Z

(∞)k )n

k=0 ist

gleich PZ

(∞)n+1|Z

(∞)n und jedes Individuum mit unendlich vielen Nachkommen, das wir in der

n-ten Generation betrachten, erzeugt eine zufallige i.i.d. Zahl von Nachkommen in dern + 1-sten Generation mit der gleichen Verteilung wie Z

(∞)1 bedingt auf A∞. Also bleibt

zu zeigenP(Z

(∞)1 = k|A∞) = p

(∞)k .

Fur k = 0 sind offenbar beide Seiten 0. Fur k ≥ 1 bedingen wir auf Z1. Fur k ≥ 1impliziert Z

(∞)1 = k, dass Z1 ≥ k und dass A∞ auftritt, also

P(Z(∞)1 = k|A∞) =

1

ζP(Z

(∞)1 = k)

=1

ζ

j≥k

P[Z(∞)1 = k|Z1 = j]P(Z1 = j)

=1

ζ

j≥k

(

j

k

)

ηj−k(1 − η)k · pj,

da jedes der j Partikel mit Wahrscheinlichkeit ζ = 1 − η unendlich viele Nachkommenhat, so dass

P(Z(∞)1 = k|Z1 = j) = B(k; j, 1 − η).

Nun zeigen wir noch (5.6). Wir beginnen mit dem Fall µ <∞. Dann ist

µ(∞) =

∞∑

k=0

kp(∞)k

=∞∑

k=0

k

ζ

∞∑

j=k

(

j

k

)

ηj−k(1 − η)kpj

=1

ζ

∞∑

j=0

pj

j∑

k=0

k

(

j

k

)

ηj−k(1 − η)k

=1

ζ

∞∑

j=0

pjζj =

∞∑

j=0

jpj = µ.

63

Der Fall µ = +∞ wird ahnlich bewiesen, indem man geeignet abschneidet. (Ubung) 2

Die Satze 5.12 und 5.14 ergeben folgendes Bild: Es gilt

Zn

µn

f.s.−→W∞,

wobei P(W∞ > 0) = ζ , falls EX logX < +∞. Andererseits folgt aus Satz 5.14, dass

bedingt auf A∞ (Z(∞)n )∞n=0 auch ein Verzweigungsprozess mit durchschnittlicher Nach-

kommenzahl µ ist, der mit Wahrscheinlichkeit 1 uberlebt. Also

Z(∞)n

µn−→

P−f.s.W (∞)

∞ ,

wobei – bedingt auf A∞ – gilt:P(W (∞)

∞ > 0) = 1,

wahrend aber andererseits Z(∞)n ≤ Zn ∀ n gilt. Dies wirft automatisch die Frage auf,

was die bedingten Großen von Z(∞)n und Zn auf A∞ sind. Die Antwort hierauf gibt

Satz 5.16 Bedingt darauf, dass der Prozess uberlebt, gilt

Z(∞)n

Zn

f.s.−→ ζ.

Beweis: Sei zunachst µ <∞. Wendet man die Satze 5.14 und 5.12 an und dass, bedingtaufs Uberleben, E[Z

(∞)1 ] = µ gilt, erhalten wir, dass es W (∞) gibt mit

Z(∞)n

µn→W (∞) fast sicher.

Außerdem folgt aus Satz 5.13 und der Tatsache, dass die Aussterbewahrscheinlichkeit vonZ

(∞)n 0 ist, dass

P(W (∞) > 0) = 1.

Weiter folgt abermals aus Satz 5.12 angewandt auf (Zn) bedingt auf das Uberleben, dassZn

µn gegen W∞ bedingt auf W∞ > 0 konvergiert. Also konvergiert Z(∞)n

Znfast sicher gegen

einen endlichen und positiven Grenzwert R.

Um zu sehen, dass dieser gleich ζ ist, benutzen wir, dass die Verteilung von Z(∞)n gegeben

Zn = k, B(k, ζ) ist. Also gilt fur n → ∞, dass bedingt auf das Uberleben Z(∞)n

Zn→ ζ

konvergiert.

Fur µ = +∞ bleiben wir den Beweis hier schuldig.

2

64

6 Der Poisson-Verzweigungsprozess

Wir betrachten in diesem Abschnitt einen besonderen Verzweigungsprozess, den Poisson-schen Verzweigungsprozess, bei dem die Nachkommenzahl Poi(λ)-verteilt ist. Wir schrei-ben zur Abkurzung Xλ fur die Poi(λ)-verteilte Zufallsvariable und Tλ fur die gesamteNachkommenschaft. Wir berechnen als erstes

GXλ(s) =

∞∑

i=0

sie−λλi

i!= eλ(s−1).

Daher gilt fur die Aussterbewahrscheinlichkeit ηλ

ηλ = eλ(ηλ−1). (6.1)

Fur λ ≤ 1 hat (6.1) nur eine Losung ηλ = 1, also stirbt der Prozess sicher aus (was auchklar ist, weil λ = E[Xλ]). Fur λ > 1 gibt es zwei Losungen von (6.1), die kleinere derbeiden erfullt ηλ ∈ (0, 1). Da in diesem Fall fur die Gesamtpopulationsgroße Tλ gilt

Pλ(Tλ <∞) < 1

gilt, wissen wirPλ(Tλ <∞) = ηλ.

Wir erinnern, dass H = (Xλ,1, . . . , Xλ,Tλ) die Geschichte des Verzweigungsprozesses ist.

Dann gilt, bedingt auf Aussterben, dass der Poissonsche Verzweigungsprozess eine Ver-zweigungsrate p′λ gegeben durch

p′λ,i = ηi−1λ pλ,i = e−ληλ

(ληλ)i

i!

gilt. Dies ist wieder eine Poisson-Verteilung, diesmal mit Rate

µλ = ληλ.

Es gilt mit µ := µλ

µe−µ = ληλe−ληλ = λe−λ.

Daher nennen wir (µ, λ), 0 < µ < 1 < λ ein konjugiertes Paar, falls µe−µ = λe−λ gilt. Da

x→ xe−x

erst wachsend und dann fallend mit einem Maximum von 1e

bei x = 1 ist, hat dieseGleichung genau zwei Losungen, eine kleiner als 1(µ) und eine großer as 1(λ). Satz 5.8liest sich somit fur Poisson-verteilte Nachkommen so:

Satz 6.1 Sei µ < 1 < λ konjugiert. Der Poissonsche Verzweigungsprozess mit Rate λ hat,bedingt auf das Aussterben, dieselbe Verteilung wie ein Poissonscher Verzweigungsprozessmit Rate µ.

Fur die gesamte Nachkommenschaft Tλ gilt

65

Satz 6.2 Fur einen Verzweigungsprozess mit i.i.d. Poi(λ)-verteilten Nachkommenzahlengilt

Pλ(Tλ = n) =(λn)n−1

n!e−λ.

Ubung 6.3 Fur alle λ und alle genugend großen k gilt

Pλ(k ≤ Tλ <∞) ≤ e−kIλ,

wobeiIλ = λ− 1 − log λ.

Fur den Beweis von Satz 6.2 benotigen wir ein paar Begriffe. Wir nennen einen Baumauf n Knoten einen markierten Baum auf 1, . . . , n, wenn alle Knoten eine Marke aus1, . . . , n tragen und jede dieser Marken genau einmal vorkommt. Damit konnen wirauch die Kanten in einem solchen Graphen markieren (durch die Knoten). Zwei markierteBaume auf 1, . . . , n sind gleich, wenn sie die gleichen n−1 Kanten besitzen. Jeder solcheBaum ist naturlich aquivalent zu einem aufspannenden Baum des Kn.

Der folgende Satz ist auch als Satz von Cayley bekannt:

Satz 6.4 (Satz von Cayley)Es gibt genau nn−2 markierte Baume der Große n oder aquivalent nn−2 aufspannendeBaume des Kn.

Beweis: Wir beweisen den zweiten Teil der Aussage. Dazu zeigen wir zuerst, dass jederaufspannende Baum eines endlichen Graphen einen Vertex vom Grad 1 hat. Nimmt mannamlich das Gegenteil an, so hat jeder Vertex einen Grad von mindestens 2. Dann konnenwir von irgendeinem Vertex eine Tour beginnen, indem wir eine seiner Kanten durchlaufen,von da an laufen wir weiter, indem wir nur unbenutzte Kanten verwenden. Da der Graphendlich ist, kommen wir irgendwann mit diesem Prozess am ein Ende. Da aber jederVertex einen Grad mindestens zwei hatte, sind wir an einem Punkt angekommen, den wirschon einmal besucht haben. Also ist der Graph kein Baum.

Nun sei t(n, d1, . . . , dn) die Anzahl der aufspannenden Baume desKn mit Graden d1, . . . , dn,d. h. deg(vi) = di. Daher ist

d1,...,dn

t(n, d1, . . . , dn)

die Gesamtzahl der aufspannenden Baume des Kn. Ist eines der di gleich 0, so istt(n, d1, . . . , dn) = 0. Aus Symmetriegrunden hangt t(n, d1, . . . , dn) nur von d1, . . . , dnab, aber nicht von deren Reihenfolge. Daher konnen wir

d1 ≥ . . . ≥ dn = 1

annehmen. Fur n = 2 ist nichts zu zeigen. Fur n ≥ 3 ist vn (der Vertex mit Grad dn = 1)mit einem der vi verbunden und es gilt di ≥ 2. Da dafur jeder andere Vertex in Fragekommt, gilt

t(n, d1, . . . , dn) =

n−1∑

i=1

t(n− 1, d1, . . . , di − 1, . . . , dn−1). (6.2)

66

Fur n = 3 gilt offenbar

t(3, d1, d2, d3) =

(

1

d1 − 1, d2 − 1, d3 − 1

)

=

(

n− 2

d1 − 1, . . . , dn−1 − 1

)

(6.3)

(nachrechnen).

Nun gilt fur die linke Seite von (6.3) die Rekursion (6.2). Die rechte Seite erfullt offenbardie Rekursion fur Multinomialkoeffizieten

(

n

d1, . . . , dn

)

=n∑

i=1

(

n− 1

d1, . . . , di − 1, . . . , dn

)

.

Daraus leitet man induktiv ab, dass

t(n, d1, . . . , dn) =n−1∑

i=1

t(n− 1, d1, . . . , di − 1, . . . , dn)

=

n−1∑

i=1

(

n− 3

d1 − 1, . . . , di − 2, . . . , dn−1 − 1

)

=

(

n− 2

d1 − 1, . . . , di − 1, . . . , dn−1 − 1, dn − 1

)

(wobei der letzte Eintrag dn − 1 nichts andert, da dn = 1 ist). Nun lassen sich die Multi-nomialkoeffizienten aus der Gleichung

(x1 + . . .+ xk)n =∑

(

n

r1, . . . , rk

)

xr11 . . . xrk

k

gewinnen. Ersetzen wir hier k durch n, n durch n − 2 und ri durch di − 1 und xi durch1, so ergibt sich

nn−2 =∑

d1,...,dn

t(n, d1, . . . , dn).

2

Der Satz von Cayley ergibt nun

Lemma 6.5 Fur n ≥ 2 gilt:

n−1∑

i=1

1

i!

n1+...+ni=n−1

i∏

j=1

nnj−1j

nj !=nn−1

n!.

Beweis: Man benutzt, dass ein Baum mit n Knoten eindeutig bestimmt ist durch denGrad des ersten Vertex (sagen wir i) und den markierten Unterbaumen, die von den idirekten Nachbarn des Knoten 1 ausgehen. Sind diese Teilbaume n1, . . . , ni groß, so giltn1 + . . .+ ni = n− 1. Es gibt

(n− 1)!

n1! . . . ni!

67

Moglichkeiten, die (n− 1) verbleibenden Marken 2, . . . , n in i Gruppen einzuteilen. Es

gibt ferner nnj−2j Baume der Große nj , so dass es njn

nj−2j = n

nj−1j Baume der Große nj mit

einem ausgezeichneten Vertex gibt. Nun andert sich der Baum der Große n nicht, wenn wirdie i Baume, die an 1 angehangt sind, permutieren, und es gibt i! solcher Permutationen.Also gibt es insgesamt

1

i!

(n− 1)!

n1! . . . ni!

i∏

j=1

nnj−1j

Arten, die i Baume, die direkt an 1 hangen, zusammen mit den direkten Nachbarn von 1auszuwahlen. Summiert man dies uber i, erhalt man, dass die Gesamtzahl von Baumender Große n gleich ist zu

n−1∑

i=1

1

i!

n1+...+ni=n−1

(n− 1)!i∏

j=1

nnj−1j

nj!.

Aufgrund von Cayleys Satz folgt daher

nn−2 =n−1∑

i=1

1

i!

n1+...+ni=n−1

(n− 1)!i∏

j=1

nnj−1j

nj !.

Dividiert man dies durch (n− 1)! und benutzt, dass

nn−2

(n− 1)!=nn−1

n!,

so erhalt man die Behauptung. 2

Wir konnen uns nun an den Beweis von Satz 6.2 machen:

Beweis von Satz 6.2: Wir gehen induktiv vor. Fur n = 1 ist Tλ = 1 genau dann, wenndas erste Individiuum ohne Nachkommen stirbt. Das hat Wahrscheinlichkeit e−λ. Aberauch die rechte Seite von Satz 6.2 ist fur n = 1 gleich e−λ. Dies ist der Induktionsanfang.

Fur den Induktionsschritt bedingen wir auf die Anzahl i der Kinder des Ursprungs. Seidie Anzahl der gesamten Nachkommen der i Kinder n1, . . . , ni, also ist Tλ = n aquivalentzu n1 + . . .+ ni = n− 1. Somit gilt

Pλ(Tλ = n) =n−1∑

i=1

e−λλi

i!

n1+...+ni=n−1

i∏

j=1

Pλ(Tλ = nj).

Nach Induktionsvoraussetzung ergibt sich (beachte, dass nj ≤ n− 1 fur alle j):

Pλ(Tλ = nj) =(λnj)

nj−1

nj!e−λnj .

Setzen wir das ein und beachten, dass

i∑

j=1

(nj − 1) = n− i− 1,

68

so erhalten wir

Pλ(Tλ = n) =

i−1∑

i=1

e−λλi

i!

n1+...+ni=n−1

i∏

j=1

(λnj )nj−1

nj !e−λnj

= e−λnλn−1n−1∑

i=1

1

i!

n1+...+ni=n−1

i−1∏

j=1

nnj−1j

nj !.

Nach Lemma 6.5 ist dies gleich:

Pλ(Tλ = n) = e−λnλn−1nn−1/n!

wie behauptet. 2

Fur den kritischen Poisson-Prozess leitet man mit der Stirlingschen Formel ab, dass

Pλ(Tλ = n) =1√2πn−3/2(1 +O(

1

n))

gilt; das ist ein Beispiel fur das “Powerlaw”-Verhalten im kritischen Punkt. n−3/2 ist dabeisogar allgemeiner das Verhalten der kritischen Verteilung der Gesamtpopulationsgroße furjede Nachkommenverteilung mit endlicher Varianz.

Im nachsten Kapitel wollen wir den Erdos-Renyi-Graphen G(n, p) mithilfe von Verzwei-gungsprozessen untersuchen. Hierfur brauchen wir noch, dass fur λ > 1 die Aussterbe-wahrscheinlichkeit hinreichend glatt ist.

Korollar 6.6 Sei ηλ die Aussterbewahrscheinlichkeit des Poissonschen Verzweigungspro-zesses mit Rate λ. Dann gilt fur alle λ > 0:

d

dληλ

=ηλ(λ− µλ)

λ(1 − µλ)<∞,

wobei (µλ, λ) ein duales Paar bilden.

Beweis: Es gilt

ηλ = Pλ(Tλ <∞) =

∞∑

n=1

e−λn (λn)n−1

n!.

Daher folgt

0 ≤ − d

dληλ =

∞∑

n=1

e−nλ

[

(λn)n−1

(n− 1)!

]

−∞∑

n=2

e−nλ

[

(λn)n−2

(n− 2)!

]

.

Andererseits gilt:

Eλ[Tλ|Tλ < +∞] =1

Pλ[Tλ <∞]

∞∑

n=1

ne−λn (λn)n−1

n!=

1

ηλ

∞∑

n=1

e−λn (λn)n−1

(n− 1)!,

69

so dass

− d

dληλ = ηλEλ[Tλ|Tλ <∞] − ηλ

λEλ[Tλ|Tλ <∞] +

ηλ

λ.

Hierbei haben wir benutzt, dass

∞∑

n=2

e−λn (λn)n−2

(n− 2)!=

∞∑

n=1

e−λn(n− 1)(λn)n−2

(n− 1)!

=∞∑

n=1

e−λn 1

λ

(λn)n−1

(n− 1)!−

∞∑

n=1

e−λn (λn)n−2

(n− 1)!

=ηλ

λEλ[Tλ|Tλ <∞] −

∞∑

n=1

e−λn 1

λ

(λn)n−1

n!

=ηλ

λEλ[Tλ|Tλ <∞] − 1

λPλ[Tλ <∞].

Wegen des Dualitatsprinzips und Satz 5.5 folgt

Eλ[Tλ|Tλ <∞] =1

1 − µλ,

wobei µλ = ληλ gilt. Daher erhalten wir schließlich

0 ≤ − d

dληλ =

ηλ

1 − µλ(1 − 1

λ) +

ηλ

λ=ηλ(λ− µλ)

λ(1 − µλ).

2

Um tatsachlich einen Poissonschen Verzweigungsprozess bei der Analyse eines Zufallsgra-phen verwenden zu konnen, benotigen wir noch eine Vorubung, deren Resultat plausibelerscheint.

Wir werden im nachsten Kapitel G(n, p)-Graphen mit p ∼ λn

anschauen. Daher hat je-der Knoten ein B(kin − 1, λ

n)-verteilte Nachbarschaft, die zumindest lokal wie ein Baum

aussieht. Es liegt nahe, nicht nur eine B(kin − 1, λn)-Verteilung sondern alle durch un-

abhangige Poi(λ)-Verteilungen zu ersetzen. Dass man dies auch darf, besagt der folgendeSatz.

Satz 6.7 Fur einen Verzweigungsprozess mit B(n, p) verteilter Nachkommenschaft undgesamter Nachkommenzahl T und einen zweiten Verzweigungsprozess mit Poi(λ)-verteilterNachkommenschaft und totaler Populationsgroße λ gilt, wenn λ = np:

P(T ≥ k) = P(Tλ ≥ k) + ek(n),

wobei

|ek(n)| ≤ 2λ2

n

k−1∑

s=1

P(Tλ ≥ s),

also insbesondere

|ek(n)| ≤ 2kλ2

ngilt.

70

Beweis: Der Beweis benutzt - ahnlich wie der Beweis des Poissonschen Grenzwertsatzes inder Stochastik - ein Kopplungsargument. Die entsprechenden Verzweigungsprozesse sinddurch ihre B(n, p)- bzw. Poi(λ)-verteilte i.i.d. Nachkommenschaft Xi bzw. Xλ

i eindeutigbestimmt. In der Stochastik haben wir gesehen, dass sich Xi an Xλ

i so koppeln lasst, dass

P(Xi 6= Xλi ) ≤ λ2

n.

Wir zerlegen:

P(T ≥ k) = P(T ≥ k, Tλ ≥ k) + P(T ≥ k, Tλ < k)

und

P(Tλ ≥ k) = P(T ≥ k, Tλ ≥ k) + P(Tλ ≥ k, T < k).

Nach Substraktion dieser beiden Gleichungen voneinander ergibt sich

|P(T ≥ k) − P(Tλ ≥ k)| ≤ P(T ≥ k, Tλ < k) + P(Tλ ≥ k, T < k).

Wir bemerken, dass T ≥ k messbar ist bezuglich der X1, . . . , Xk−1: Tatsachlich gilt jaT < k = T ≥ kc genau dann, wenn es ein t < k gibt, so dass X1 + . . . + Xt = t − 1gilt. Somit konnen wir folgern, dass fur T ≥ k, Tλ < k ∪ T < k, Tλ ≥ k ein s < kexistieren muss mit Xs 6= Xλ

s . Also

P(T ≥ k, Tλ < k) ≤k−1∑

s=1

P(Xi = Xλi , ∀ i ≤ s− 1, Xs 6= Xλ

s , T ≥ k)

(wobei wieder die (Xλi ) i.i.d. Poi(λ)- und die (Xi) davon unabhangige i.i.d. B(n, p)-

Variablen sind). Nun bemerke, dass, wenn Xi = Xλi fur alle i ≤ s − 1 und T ≥ k

insbesondere auch gilt

Xλ1 + . . .+Xλ

i ≥ i ∀ i ≤ s− 1,

also Tλ ≥ s. Daruber hinaus hangt Tλ ≥ s nur von Xλ1 , . . . , X

λs−1 ab und ist daher

unabhangig von dem Ereignis Xs 6= Xλs . Daher erhalten wir

P(T ≥ k, Tλ < k) ≤k−1∑

s=1

P(Tλ ≥ s,Xs 6= Xλs ) =

k−1∑

s=1

P(Tλ ≥ s)P(Xs 6= Xλs ).

Durch die Kopplungsschranke

P(Xs 6= Xλs ) ≤ λ2

n,

so dass

P(T ≥ k, Tλ < k) ≤ λ2

n

k−1∑

s=1

P(Tλ ≥ s)P(Xs 6= Xλs ) ≤ λ2

n

k+1∑

s=1

P(Tλ ≥ s)

und ebenso

P(T λ ≥ k, T < k) ≤ λ2

n

k−1∑

s=1

P(Tλ ≥ s).

71

Also insgesamt:

|P(T ≥ k) − Pλ(Tλ ≥ k)| ≤ 2λ2

n

k−1∑

s=1

P(Tλ ≥ s).

2

Wir werden nun noch einmal ein Resultat uber Irrfahrt verwenden, um die Verteilung derGesamtpopulationsgroße herzuleiten. Unser Ziel dabei ist

Satz 6.8 Fur einen Verzweigungsprozess mit i.i.d. Nachkommenverteilung Z1D= X gilt

P(T = n) =1

nP(X1 + . . .+Xn = n− 1),

wobei die (Xi) i.i.d. Kopien von X sind.

Bemerkung 6.9 Wir beweisen spater sogar eine etwas allgemeinere Aussage, namlich

P(T1 + . . .+ Tk = n) =k

nP(X1 + . . .+Xn = n− k), (6.4)

wobei T1, . . . , Tk k unabhangige Zufallsvariablen mit der Verteilung von T sind (oder wirstellen uns einen Verzeigungsprozess mit k Ursprungsindividuen vor).

Der Beweis benutzt wieder die Markov-Ketten-Darstellung des Verzweigungsprozesseszusammen mit dem Treffzeiten-Satz fur Irrfahrten. Um diesen zu beschreiben sei (Yi)i

eine Folge von i.i.d. Zufallsvariablen mit Werten in Z und

Sn = k +

n∑

i=1

Yi

die Irrfahrt mit Start in k und Zuwachsverteilung PY1 . Sei

T0 = infn ≥ 0 : Sn = 0

die erste Treffzeit der 0 der Irrfahrt. Dann gilt

Satz 6.10 Falls die (Yi)i von oben

P(Yi ≥ −1) = 1

erfullen, so gilt fur die Verteilung von T0:

Pk(T0 = n) =k

nP(Sn = 0). (6.5)

72

Bemerkung 6.11 Noch erstaunlicher wird das Resultat, wenn man unter Sn = 0 be-dingt. Das Resultat heißt dann

Pk(T0 = n|Sn = 0) =k

n

(die Wahrscheinlichkeit, dass man zur Zeit n zum ersten Mal in 0 ist, gegeben, man ist in0 ist k

n), unabhangig von der Verteilung der Yi.

Unter der Voraussetzung von Satz 6.10 konnen wir nun (6.4) und damit auch Satz 6.8beweisen.

Beweis von Satz 6.8: Beachte, dass L(T1 + . . .+Tk) gleich der Verteilung einer Treffzeiteiner Irrfahrt ist, die in k startet und deren Zuwachs Yi = Xi − 1 ist, wobei (Xi)i dieNachkommenzahlen der Knoten sind. Da Xi ≥ 0 ist, gilt Yi ≥ −1, daraus folgt (6.4), alsoSatz 6.8. (Die Details sind eine Ubung.) 2

Es bleibt der Beweis von Satz 6.10:

Beweis von Satz 6.10: Wir zeigen (6.5) fur alle k ≥ 0 durch Induktion uber n ≥ 1. Furn = 1 gleichen beide Seiten 0 fur k > 1 und k = 0, und sie gleichen P(Yi = −1) fur k = 1.Dies ist der Induktionsanfang.

Fur n ≥ 2 sind beide Seiten gleich 0 fur k = 0. Also sei k ≥ 1. Wir bedingen auf denersten Schritt und erhalten:

Pk(T0 = n) =

∞∑

s=−1

Pk(T0 = n|Y1 = s)P(Y1 = s).

Aus der Markoveigenschaft folgt:

Pk(T0 = n|Y1 = s) = Pk+s(T0 = n− 1) =k + s

n− 1Pk+s(Sn−1 = 0),

wobei die letzte Gleichheit aus der Induktionsvoraussetzung folgt (was wegen k ≥ 1 unds ≥ −1, also k + s ≥ 0 erlaubt ist). Dies fuhrt zu

Pk(T0 = n) =∞∑

s=−1

k + s

n− 1Pk+s(Sn−1 = 0)P(Y1 = s).

Mit dem Satz von der totalen Wahrscheinlichkeit folgt unter Ausnutzung von

Pk+s(Sn−1 = 0) = Pk(Sn = 0|Y1 = s),

dass

Pk(T0 = n) =1

n− 1

∞∑

s=−1

(k + s)Pk(Sn = 0|Y1 = s)P(Y1 = s)

= P(Sn = 0)(k + Ek[Y1|Sn = 0])1

n− 1.

73

Offenbar ist E[Yi|Sn = 0] unabhangig von i, so dass

Ek[Y1|Sn = 0] =1

n

n∑

i=1

Ek[Yi|Sn = 0]

=1

nEk[

n∑

i=1

Yi|Sn = 0] = −kn,

da ja∑n

i=1 Yi = Sn − k = −k sein muss, wenn Sn = 0 ist. Also erhalten wir schließlich

Pk[T0 = n] =1

n− 1(k − k

n)Pk(Sn = 0) =

k

nPk(Sn = 0).

2

Bemerkung 6.12 Der Treffzeiten-Satz ist eng verwandt mit dem Ballot-Theorem, daseine lange Geschichte hat und auf Bertrand zuruckgeht:

Satz 6.13 Sei (Sn) eine Irrfahrt aus i.i.d. Zuwachsen (Xi)∞i=1, wobei die Xi ≥ 0 und

ganzzahlig sind. Ist also Sn =∑n

i=1Xi, so gilt

P0(Sm < m fur alle 1 ≤ m ≤ n|Sn = n− k) =k

n.

74

7 Der Phasenubergang im Erdos-Renyi-Graph

Wie schon mehrfach angekundigt, wollen wir in diesem Abschnitt den Phasenubergangim Modell G(n, p) studieren. Dieser ist vergleichbar zum Phasenubergang in den Verzwei-gungsprozessen: Dort uberlebte ein Verzweigungsprozess mit µ = EX > 1 mit positiverWahrscheinlichkeit, wahrend er fur µ < 1 ausstirbt. Etwas Ahnliches beobachtet man imErdos-Renyi-Graph. Fur p = λ

nund λ < 1 besteht der Graph aus vielen “kleinen” Kom-

ponenten, fur λ > 1 besteht der Graph aus beinahe allen Knoten. Der Vergleich zwischenG(n, p) und Verzweigungsprozess wird auch bei den Beweisen eine wichtige Rolle spielen.

Wir beginnen mit ein wenig Notation. Sei

[n] := 1, . . . , n.

Fur s, t ∈ [n] schreibe s ↔ t, wenn es einen Pfad in G von s nach t gibt. Fur v ∈ [n] seiC(v) die Zusammenhangskomponente von v, also

C(v) = x ∈ [n] : x↔ v.

Die Große von C(v) sei |C(v)|. Die großte Zusammenhangskomponente ist einfach einesder Cluster C(v), die am großten sind. Also

|Cmax| = max|C(v)| : v ∈ [n].

Naturlich ist |Cmax| eindeutig Cmax, allerdings ist es nicht notwendig.

Wir geben zunachst einen Mechanismus an, mit dem man fur v ∈ [n] C(v) finden kann.Dies ist eng verwandt mit der Markov-Ketten-Perspektive eines Verzweigungsprozesses.Dazu geben wir einen Explorationsprozess an, in dessen Verlauf Knoten drei Stadiendurchlaufen: Knoten konnen aktiv, neutral oder inaktiv sein. Sie wechseln ihren Zustanddabei wie folgt: Zur Zeit t = 0 ist nur v aktiv, alle anderen Knoten sind neutral. Wersetzen S0 = 1. Zur Zeit t wahlen wir einen beliebigen aktiven Vertex w und erkundenalle Kanten w,w′, w′ durchlauft dabei alle neutralen Knoten. Dabei werden die w′

auf “aktiv” gesetzt; danach setzen wir w auf inaktiv und St als die neue Anzahl aktiverKnoten. Wenn es keine weiteren Vertizes mehr gibt, d. h. wenn erstmals St = 0 gilt, haltder Prozess an und die Zusammenhangskomponente C(v) ist die Menge aller inaktivenKnoten. Hieraus folgt auch |C(v)| = t. Wahrend des gesamten Prozesses ist |C(v)| nachunten beschrankt durch die Anzahl aktiver und inaktiver Vertices. Sei wt der t-te aktiveVertex, von dem schon alle Kanten, die zu neutralen Knoten gehen, untersucht sein mogen.Sei Xt die Anzahl der neutralen Vertices mit wt, w ∈ G. Sei St die Anzahl aktiver Knotenzur Zeit t. Ahnlich wie beim Verzweigungsprozess kann man

S0 = 1 und St = St−1 +Xt − 1 (7.1)

schreiben. Dabei ist Xt die Anzahl der Knoten, die durch die Untersuchung des t-tenKnoten aktiv werden und nach dieser Untersuchung wird der t-te untersuchte Knoteninaktiv. Dies zeigt (7.1).

Dies stimmt naturlich fur jeden Graphen. Nun spezialisieren wir uns auf G(n, p). Dannhangt die Verteilung von Xt von der Anzahl der aktiven Knoten zur Zeit t = 1, d. h.

75

St−1, ab. Dies ist allerdings die einzige Abhangigkeit von der Konfiguration der aktiven,neutralen und inaktiven Knoten. Genauer hat jeder neutrale Knoten w′ eine Wahrschein-lichkeit p, aktiv zu werden. Da zu jedem Zeitpunkt die Kanten zu inaktiven und aktivenVertices nicht mehr untersucht werden und zur Zeit t, t−1 Knoten inaktiv sind und St−1

aktiv, ist

Xt ∼ B(n− (t− 1) − St−1, p) (7.2)

verteilt. Wir bemerken, dass (7.1) die gleiche Rekursion ist wie (5.1) bei Verzweigungs-prozessen. Der einzige Unterschied zwischen den zwei Prozessen besteht in der Verteilungder Xt, die in (7.2) vom gegenwartigen Prozess abhangt, wahrend sie fur Verzweigungs-prozesse i.i.d. ist. Allerdings ist die Folge (7.2) “fast” i.i.d., so lange t und St nicht zu großsind.

Sei T wieder definiert durch

T = inft : St = 0,wobei |C(v)| = T . Ahnliches hatten wir auch fur Verzweigungsprozesse gesehen. Ahnlichwie dort ergibt die Rekursion (7.1) und (7.2) nur fur St−1 ≥ 1 Sinn, trotzdem konnen wirden Prozess auch fur St−1 = 0 definieren, dann bleibt er 0.

Im folgenden wollen wir den Graphen G(n, p) untersuchen, wobei p in der Großenordnungvon 1

n, genauer

p =λ

n

ist.

Wir werden nun die oft zitierte Verwandschaft zwischen einem G(n, λn)-Zufallsgraphen und

einem Poi(λ)-Verzweigungsprozess informell beschreiben. Tatsachlich sind dies die grund-legenden Beweisideen, allerdings werden wir die heuristisch vorgetragenen Argumentenicht direkt benutzen. Sei also λ > 0. Sλ

1 , . . . , Xλ1 , X

λ2 , H

λ beziehen sich auf einen Verzwei-gungsprozess mit Poi(λ)-verteilten i.i.d. Zuwachsen. Ebenso seine S0, S1, . . . , X1, X2, . . . , Hdie entsprechenden Großen fur G(n, λ

n). Die Si sind oben definiert, ebenso die Xi. Fur die

Definition der λ-Variablen erinnern wir an Kapitel 6. Insbesondere haben wir dort gesehen,dass fur jegliche mogliche Vergangenheit (x1, . . . , xt) gilt

Pλ(Hλ = (x1, . . . , xt)) =

t∏

i=1

Pλ(Xλi = xi),

wobei die X(λi ) i.i.d. Poi(λ)-verteilt sind. Andererseits gilt in G(n, λ

n)

P(H = (x1, . . . , xn)) =n∏

i=1

P(Xi = xi|X1 = x1, . . . , Xi−1 = xi−1),

wobei, bedingt auf X1 = x1, . . . , Xi−1 = xi−1 die Zufallsvariable Xi B(n−(i−1)−si−1,λn)-

verteilt ist. Sind λ und i fest, so gilt (leichte Ubung)

limn→∞

P(B(m(n),λ

n) = i) = e−λλ

i

i!

76

fur eine Folge m(n) = n(1 + o(1)). Also gilt fur jedes feste t

limn→∞

P(H = (x1, . . . , xt)) = P(Hλ = (x1, . . . , xt)).

Somit ist die Verteilung der endlichen Zusammenhangskomponenten in G(n, λn) eng ver-

wandt mit der Geschichte eines Verzweigungsprozesses mit i.i.d. Poi(λ)-Nachkommenver-teilung. Auf dieser Verwandschaft bauen die folgenden Beweisideen auf.

Wir beginnen mit zwei stochastischen Ordnungsresultaten. Wir schreiben dabei fur zweiZufallsvariablen X, Y

X Y,

wennP(X ≥ k) ≤ P(Y ≥ k) ∀ k

(dabei konnen wir uns naturlich X und Y auf einem gemeinsamen Wahrscheinlichkeits-raum vorstellen oder nicht, das ist belanglos).

Satz 7.1 Fur jedes k ≥ 1 gilt

PG(n,p)(|C(1)| ≥ k)) ≤ Pn,p(T ≥ k),

d. h.|C(1)| T.

Dabei ist C(1) die Zusammenhangskomponente der 1 in G ∈ G(n, p), p = λn

und Pn,p dasMaß eines Binomialen Verzweigungsprozesses mit Parameter n und p und T die Großeseiner Gesamtpopulation.

Beweis: Dies folgt aus der Explorationsbeschreibung der Zusammenhangskomponenteund derselben Beschreibung fur T . Wir bemerken, dass in der Beschreibung fur T gilt

St = St−1 +Xt − 1, (7.3)

wobei die Xt ∼ B(n, p)-verteilt sind, wahrend (7.3) auf die Beschreibung von C(1) auchzutrifft, diesmal aber mit Xt, in denen der Parameter der Binomialverteilung fallt. Somitist XC

t (das Xt fur die Zusammenhangskomponente) stochastisch dominiert durch XTt

(das Xt ∼ B(n, p) fur den Verzweigungsprozess). Hieraus folgt die Behauptung (Detailssind eine Ubung). 2

Wir konnen die Große von C(1) aber auch stochastisch von unten beschranken. Allerdingsnicht durch eine feste Zufallsvariable. Dies ist der Inhalt des folgenden Satzes:

Satz 7.2 Fur alle k ∈ [n] gilt

PG(n, λn

)(|C(1)| ≥ k) ≥ Pn−k,p(T ≥ k).

Dabei ist die linke Seite wie in Satz 7.1, die rechte Seite beschreibt die Tails der Vertei-lung der Gesamtpopulation eines Verzweigungsprozesses mit i.i.d. B(n − k, λ

n)-verteilten

Zuwachsen.

77

Da die rechte Seite von k abhangt, haben wir keine stochastische Dominanz im obendefinierten Sinn.

Beweis: Wir wahlen wieder einen Kopplungsansatz. Bei dem ublichen Explorationspro-zess fur C(1) definieren wir zunachst die Knoten n − k + 2, . . . , n als “verboten”, wasbedeutet, dass wir Kanten, die in diesen Knoten enden, nicht untersuchen. Also gibt esnun vier mogliche Zustande fur die Knoten. Wahrend des Explorationsprozesses werdenwir den Pool an verbotenen Knoten so verwalten, dass die Gesamtzahl an aktiven, inak-tiven und verbotenen Knoten gleich k ist.

Mit unserer Initialisierung haben wir dies bereits richtig gemacht, denn zu Beginn gibt esgenau einen aktiven, keinen inaktiven und k − 1 verbotene Vertices. Naturlich geht dasnur so lange gut wie die Summe aus aktiven und inaktiven Vertices hochstens k ist. Diesstellt aber kein Problem dar, denn sobald die Summe aus aktiven und inaktiven Verticesgroßer oder gleich k ist, sehen wir, dass das Ereignis |C(1)| ≥ k eintritt.

Wieder untersuchen wir nur Kanten zu neutralen Knoten. Wenn wir eine Kante zu einemsolchen Knoten finden, dann setzen wir diesen Knoten auf “aktiv” und den verbotenenKnoten mit dem großten Index auf “neutral”.

Somit ist die Anzahl der neutralen Vertices auf n−k festgelegt. Formal sei (Iij) eine i.i.d.Ber(p)-Folge. Setze

Xi =∑

j∈Ai−1

Ivi,jund X≤

i =∑

j∈Ai−1,k

Ivi,j.

Dabei ist Ai−1 die Menge der aktiven und Ai−1,k die Menge der aktiven, nicht-verbotenenVertices zur Zeit i− 1, also

|Ai−1,k| = n− k.

Dann ist (X≤i ) eine i.i.d. Folge von B(n− k, p) Zufallsvariablen.

Solange die Anzahl der aktiven und inaktiven Vertizes hochstens k ist, folgt, dass die An-zahl der verbotenen, aktiven und inaktiven Vertizes genau k ist. Wir haben also einen Ver-zweigungsprozess mit Binomial-verteilter Nachkommenschaft mit den Parametern n − kund p. Da die Parameter damit unterhalb des entsprechenden Prozesses fur die Explora-tion von C(1) liegen, folgt die Behauptung. 2

Die allgemeine Strategie fur die Untersuchung der großten Komponente |Cmax| ist nun diefolgende: Wir benutzen die stochastische Schranke aus Satz 7.1 und 7.2, um die |Cmax|durch Binomiale Verzweigungsprozesse abzuschatzen. Diese konnen wir gemaß den Resul-taten aus Abschnitt 6 mit einem Poi(λ)-Verzweigungsprozess, wenn p ≈ λ

n. Die Resultate,

die wir uber diesen Prozess erhalten haben, werden uns hilfreich sein, unsere Resultate zuerreichen.

Da das Verhalten eines Poi(λ)-Verzweigungsprozesses sehr unterschiedlich ist, je nach-dem, ob λ < 1, λ = 1 oder λ > 1 gilt, konnen wir auch fur das Verhalten von |Cmax|unterschiedliche Resultate erwarten, je nachdem ob np < 1 oder np > 1 gilt.

78

Wir beginnen mit dem subkritischen Fall. Sei also zunachst

λ = np < 1.

Sei Iλ die Ratenfunktion

Iλ = λ− 1 − log λ.

Beachte, dass Iλ ≥ 0 und Iλ = 0 ⇔ λ = 1. Das nachste Resultat ist das wesentliche furden subkritischen Fall; es zeigt, dass mit großer Wahrscheinlichkeit

|Cmax| ≤ a logn

fur jedes a > 1Iλ

gilt. Das andere wichtige Resultat, Satz 7.4, zeigt, dass diese Grenze auchscharf ist, genauer, dass

|Cmax| ≥ a logn

gilt, fur alle a < 1Iλ

. Genauer lesen sich diese Resultate wie folgt:

Satz 7.3 Sei λ < 1. Dann gibt es fur jedes a > 1Iλ

ein δ = δ(a, λ) > 0, so dass

PG(n, λn

)(|Cmax| ≥ a logn) = O(n−δ).

Satz 7.4 Sei λ < 1. Dann gibt es fur jedes a < 1Iλ

ein δ = δ(a, λ) > 0, so dass

PG(n, λn

)(|Cmax| ≥ a logn) = O(n−δ).

Bemerkung 7.5 Insgesamt erhalt man aus den beiden Satzen

|Cmax|logn

P−→ 1

Iλ.

(Der Beweis ist eine Ubung.)

Die Beweisstrategie fur Satz 7.3 und Satz 7.4 ist die folgende: Sei

Z≥k =

n∑

v=1

1l|C(v)|≥k

die Anzahl an Knoten, die in einer Zusammenhangskomponente der Große mindestens kenthalten sind. Offenbar ist

|Cmax| = maxk : Z≥k ≥ k. (7.4)

Somit konnen wir Schranken an |Cmax| beweisen, indem wir ein geeignetes Z≥k betrachten.Insbesondere gilt

|Cmax| ≥ k = Z≥k ≥ k. (7.5)

79

Ubung 7.6 Beweisen Sie (7.4) und (7.5).

Satz 7.3 werden wir mithilfe der Methode des ersten Moments beweisen. Wir berechnen

Eλ(Z≥k) := EG(n, λn

)[Z≥k] = nPλ(|C(1)| ≥ k)

und wir benutzen Satz 7.1, um Pλ(|C(1)| ≥ kn) fur kn = a logn und a > 1Iλ

zu be-schranken. Daher gilt mit großer Wahrscheinlichkeit

Z≥kn = 0, d. h. |Cmax| ≤ kn.

Der Beweis von Satz 7.4 folgt aus einer Zweiten Momenten-Ungleichung. Dazu beschrankenwir zunachst die Varianz von Z≥k (siehe unten). Danach benutzen wir Satz 7.2, umEλ[Z≥kn] fur kn = a logn fur a < 1

Iλzu beschranken. Wir werden sehen, dass diese

Schranken ausreichen, um einzusehen, dass

Zkn > 0 mit Wahrscheinlichkeit, die gegen 1 konvergiert,

also: |Cmax| ≥ kn.

Beweis von Satz 7.3: Wegen Satz 7.1 gilt

Pλ(|C(v)| > t) ≤ Pn,p(T > t),

wobei T die Gesamtnachkommenschaft eines B(n, λn)-Verzweigungsprozesses ist. Um die

rechte Seite zu studieren, seien (Xi)∞i=1 i.i.d. B(n, p) = B(n, λ

n)-Variablen und

St = X1 + . . .+ Xt − t− 1.

Dann gilt nach den Eingangsuberlegungen:

Pn,p(T > t) ≤ Pn,p(St > 0) = Pn,p(X1 + . . .+ Xt ≥ t).

Man berechnet, dassPn,p(X1 + . . .+ Xt ≥ t) ≤ e−tIλ

(Ubung). Somit erhalten wir zusammen mit der einleitenden Ubung fur kn = a logn

Pλ(|Cmax| ≥ a logn) ≤ Pλ(Z≥kn ≥ 1)

≤ Eλ(Z≥kn)

= nPλ(|C(1)| ≥ a log n)

≤ n1−aIλ

= O(n−δ)

fur a > 1Iλ

, hier ist δ = aIλ − 1. 2

Wir geben noch einen zweiten Beweis, der auf einer Verteilungsgleichheit von St beruht,die auch fur λ > 1 sehr nutzlich ist. Das Resultat besagt, dass St auch Binomialverteiltist, jedoch mit einer anderen Erfolgswahrscheinlichkeit.

80

Proposition 7.7 Fur alle t ∈ 1, . . . , n gilt

St + (t− 1) ∼ B(n− 1, 1 − (1 − p)t).

Beweis: Sei Nt die Anzahl der zur Zeit t noch nicht untersuchten Knoten, d. h.

Nt = n− t− St.

Offenbar gilt fur jede Zufallsvariable X, dass

X ∼ B(m, p)

ist, genau dann, wennY := m−X ∼ B(m, 1 − p).

Wir zeigen daherNt ∼ B(n− 1, (1 − p)t).

Das ist heuristisch klar, wenn man bedenkt, dass jeder Vertes 1, . . . , n unabhangig vonallen anderen eine Wahrscheinlichkeit von (1−p)t hat, wahrend der ersten t Explorationenneutral zu bleiben. Formaler: Bedingt auf St−1 gilt

Xt ∼ B(n− (t− 1) − St−1, p).

Setzen wir also N0 = n− 1 und

Nt = n− t− St

= n− t− St−1 −Xt + 1

= n− (t− 1) − St−1 − B(n− (t− 1) − St−1, p)

= Nt−1 −B(Nt−1, p)

= B(Nt−1, 1 − p)

und wir erhalten den gewunschten Beweis induktiv uber t. 2

2. Beweis von Satz 7.3: Mithilfe der vorhergehenden Proposition erhalten wir

Pλ(|C(v)| > t) ≤ Pλ(St > 0) ≤ Pλ(Bin(n− 1, 1 − (1 − p)t) ≥ t).

Benutzen wir die Bernoulli-Ungleichung

1 − (1 − p)t ≤ tp,

erhalten wir

Pλ(|C(v)| > t) ≤ Pλ(B(n,tλ

n≥ t)

≤ mins≥0

e−stEλ[esB(n, tλ

n)]

= mins≥0

e−st[1 +tλ

n(es − 1)]n

≤ mins≥0

e−st(etλ(es−1)),

81

wobei wir in der letzten Ungleichung

1 + x ≤ ex

benutzt haben. Daher erhalten wir

Pλ(|C(v)| > t) ≤ e−Iλt

und der Rest des Beweises folgt wie im ersten Beweis. 2

Nun wenden wir uns dem Beweis von Satz 7.4 zu. Wir definieren

χ≥k(λ) = Eλ[|C(v)|1l|C(v)|≥k],

was aus Symmetriegrunden nicht von v abhangt.

Proposition 7.8 Fur alle n und k ∈ [n] gilt:

Vλ[Z≥k] ≤ nχ≥k(λ).

Beweis: Wir benutzen:

Vλ(Z≥k) =∑

i,j

[Pλ(|C(i)| ≥ k, |C(j)| ≥ k) − Pλ(|C(i)| ≥ k)Pλ(|C(j)| ≥ k].

Den ersten Summanden spalten wir auf, je nachdem, ob i⇔ j oder nicht:

Pλ(|C(i)| ≥ k, |C(j)| ≥ k) = Pλ(|C(i)| ≥ k, i↔ j) + P(|C(i)| ≥ k, |C(j)| ≥ k, i 6↔ j),

da im ersten Fall C(i) = C(j) gilt. Ist |C(i)| = l und i 6↔ j, dann bilden die Knoten undKanten außerhalb von C(i) einen Zufallsgraphen mit n − l Knoten. Da die Wahrschein-lichkeit des Eriegnisses |C(j)| ≥ k im G(n, p) wachsend in n ist, folgt

Pλ(|C(j)| ≥ k|C(i) = li 6↔ j) ≤ Pλ(|C(j)| ≥ k).

Also konnen wir folgern:

Pλ(|C(i)| = l, |C(j)| ≥ k, ı 6↔ j) − Pλ(|C(i)(= l)Pλ(|C(j)| ≥ k) ≤ 0.

Daraus erhalten wir:

Nλ(Z≥k) ≤n∑

i,j=1

Pλ(|C(i)| ≥ k, i↔ j).

Daher erhalten wir wieder aus der Austauschbarkeit (Symmetrie) aller Knoten:

Vλ(Z≥k) ≤∑

i,j

Pλ(|C(i)| ≥ k, i↔ j)

=

n∑

i=1

n∑

j=1

Eλ[1l|C(i)|≥k1lj∈C(i)].

82

Da∑n

j=1 1lj∈C(i) = |C(i)| gilt, gelangen wir zu:

Vλ(Z≥k) ≤∑

i

Eλ[|C(i)|1lC(i)≥k]

= n · Eλ[|C(1)|1l|C(1)|≥k]

= nχ≥k(λ).

2

Beweis von Satz 7.4: Es genugt zu zeigen, dass

Pλ[Z≥kn = 0] = O(n−δ)

mit kn = a logn und a < 1Iλ

gilt. Hierfur verwenden wir die Chebyshev-Ungleichung.

Hierfur leiten wir eine untere Schranke fur Eλ[Z≥k] und eine obere Schranke fur Nλ[Z≥k]her. Fur die erste dieser Schranken benutzen wir

Eλ[Z≥k] = nP≥k(λ),

wobeiP≥k(λ) := Pλ(|C(v)| ≥ k)

ist. Sei k = kN− = a logn. Nach dem, was wir eingangs dieses Kapitels gesehen haten,ist fur T aus einem B(n− kn,

λn)-Verzweigungsprozess:

P≥k(λ) ≥ Pn−kn,p (T ≥ a logn)

mit p = λn. Nach Satz 6.2 und Ubung 6.3 gilt fur einen Poi(λn)-Verzweigungsprozess mit

λn = λ(n−kn

n) und dessen vollstandiger Nachkommenzahl T ∗:

Pn−kn,p(T ≥ a log n) = P∗λn

(T ∗ ≥ a logn) +O

(

aλ2 logn

n

)

.

Ebenso folgt aus Satz 6.2

P∗λn

(T ∗ ≥ a logn) =

∞∑

k=a log n

P∗λn

(T ∗ = k) =

∞∑

k=a log n

(λnk)k−1

k!e−λnk.

Mithilfe der Stirlingformel, der Definition von Iλ und

Iλn = Iλ + o(1)

ergibt sich

P(T ∗ ≥ a logn) =1

λ

∞∑

k=a log n

1√2πk3

e−Iλnk(1 + o(1)) = e−Iλa log n(1+o(1)).

Daher folgt mit kn = a logn fur jedes 0 < α < 1 − aIλ

Eλ[Z≥kn] = nP≥kn(λ) ≥ n(1−Iλa)(1+o(1)) ≥ nα.

83

Als nachstes beschranken wir die Varianz von Z≥kn unter Ausnutzung von Proposition7.8. Es gilt

χ≥kn(λ) =

n∑

t=kn

P≥t(λ) ≤n∑

t=kn

e−Iλ(t−1)

≤ e−(kn−1)Iλ

1 − e−Iλ

= O(n−αIλ).

Somit folgt aus Proposition 7.8

Vλ(Z≥kn) ≤ nχ≥kn(λ) ≤ O(n1−αIλ),

wahrend

Eλ[Z≥kn] ≥ nα.

Also folgt

Pλ(Z≥kn = 0) ≤ Vλ(Z≥kn)

Eλ[Z≥kn]2

≤ O(n1−αI−2α)

= O(n−δ),

wenn wir

δ = 2α− (1 − Iλα)

und 0 < α < 1 − Iλα wahlen, so dass

δ = 2α− (1 − Iλα) > 0

ist. Schließlich verwenden wir noch

Pλ(|Cmax| < kn) = Pλ(Z≥kn = 0),

was Satz 7.4 beweist. 2

Nun wenden wir uns dem superkritischen Bereich zu, d. h. wir fahlen ein festes λ > 1.Wir schreiben

ζλ = 1 − η − λ

fur die Uberlebenswahrscheinlichkeit des Poisson(λ)-Verzweigungsprozesses. Dann gilt

Satz 7.9 (Gesetz der großen Zahlen fur die riesige Komponente)Sei λ > 1. Dann gibt es fur jedes ν ∈ (1

2, 1) ein δ = δ(ν, λ) > 0, so dass

Pλ(|Cmax| − ξλn| ≥ nν) = O(n−δ).

84

Satz 7.9 kann folgendermaßen interpretiert werden: Ein Knoten hat eine große Zusammen-hangskomponente mit Wahrscheinlichkeit ζλ. Daher gibt es Θ(ζλn) ?? Knoten mit einergroßen Zusammenhangskomponenten. Satz 7.9 sagt, dass all diese großen Komponententatsachlich dieselbe sind.

Wir skizzieren zunachst die Beweisstrategie fur Satz 7.9. Diese basiert auf einer Analyseder Anzahl der Knoten, die in einer Zusammenhangskomponente der Große mindestensk liegen.

Z≥k =

n∑

v=1

1l|C(v)|≥k.

Wir wahlen zunachstk = kn = K logn

fur ein k > 0 hinreichend großes K. Bemerke, dass

E[Z≥kn] = nPλ[|C(v)| ≥ kn].

Wir berechnenPλ[|C(v)| ≥ kn]

mithilfe von Satz 7.2. Genauer berechnen wir die Verteilung der Clustergroße in Proposi-tion 7.10 (weiter unten), die besagt, dass fur kn = K logn und K hinreichend groß

Pλ[|C(v)| ≥ kn] = ζλ(1 + o(1)).

Dann zeigen wir, dass es fur k = kn = K logn fur k > 0 (hinreichend groß) keine Zusam-menhangskomponente der Große zwischen kn und αn fur jedes α < ζ . Dies machen wirmit der ersten Momentenmethode: Die erwartete Anzahl an Knoten in solchen Zusam-menhangskomponenten ist gleich

Eλ[Z≥kn − Z≥αn]

und wir benutzen die oben beschriebene Schranke aus Proposition 7.10 und ebenso Pro-position 7.11 (ebenfalls unten), die besagt, dass fur jedes α < ζλ ein J > 0 existiert, sodass

Pλ[kn ≤ |C(v)| ≤ αn] ≤ e−knJ .

Daher gibt es fur hinreichend großes k > 0 kein Cluster der Große zwischen kn und αn.

Anschließend benutzen wir eine Varianzabschatzung fur Z≥k in Proposition 7.12, die im-pliziert, dass mit großer Wahrscheinlichkeit und fur alle ν ∈ (1

2, 1) gilt

|Z≥kn − Eλ[Z≥kn]| ≤ nν . (7.6)

Schließlich benutzen wir, dass fur 2α > ζλ, bedingt auf dem Ereignis, dass es keine Clusterder Große zwischen kn und αn gibt und auf dem Ereignis (7.6) gilt:

Z≥kn = |Cmax|.

Der Beweis von Satz 7.9 folgt dann aus einer Kombination dieser Fakten.

85

Proposition 7.10 Sei λ > 1. Dann gilt im Limes n → ∞ und fur kn = a logn, wobeia > 1

Iλmit Iλ definiert wie oben

Pλ[|C(v)| ≥ kn] = ζλ +O(kn

n).

Beweis: Wir benutzen die Abschatzung aus Satz 7.1 und die Abschatzung fur die Großedes Clusters eines Verzweigungsprozesses:

Pλ(|C(v)| ≥ kn) ≤ Pn, λn(T ≥ kn) ≤ P

∗λ(T ≥ kn) +O(

kn

n),

wobei T und T ∗ die Gesamtbevolkerung eines Binomial- bzw. Poisson-Verzweigungsprozessessind. Um den Beweis zu vervollstandigen benutzen wir Satz 6.2 und Ubung 6.3, um

P∗λ(T ∗ ≥ kn) = P

∗λ(T ∗ = ∞) + P

∗λ(kn ≤ T <∞)

= ζλ +O(e−knIλ)

= ζλ +O(kn

n)

zu erhalten.

Fur die untere Schranke benutzen wir Satz 7.2, so dass wir mit

λn = λ(1 − kn

n)

erhalten:

Pλ(|C(v)| ≥ kn) ≥ Pn−kn, λn(T ≥ kn) ≥ P

∗λn

(T ∗ ≥ kn) +O(kn

n),

wobei nun T und T ∗ die gesamte Nachkommenschaft eines B(n − kn,λn)- bzw. Poi(λn)-

Verzweigungsprozesses sind. Nach Ubung 6.3 gilt fur kn ≥ a log n und a > 1Iλ

P∗λn

(T ∗ ≥ kn) = ζλn +O(e−knIλn ) = ζλn +O(kn

n).

Nach dem Mittelwertsatz folgt

ηλn = ηλ + (λn − λ)d

dληλ|λ=λ∗

n= ηλ +O(

kn

n)

fur ein λ∗n ∈ (λn, λ), wobei wir Korollar 6.6 mit λ > 1 und λn − λ = kn

nbenutzen. Also

gilt auch

ζλn = ζλ +O(kn

n).

Wenn wir diese Abschatzungen zusammenfassen, bekommen wir die untere Abschatzung.Zusammen mit der vorher gezeigten oberen Abschatzung ist dies der Beweis von Propo-sition 7.10. 2

86

Proposition 7.11 Sei λ > 1 und kn so, dass kn → ∞. Dann gibt es fur jedes α < ζλ einJ = J(α, λ) > 0, so dass

Pλ(kn ≤ |C(v)| ≤ αn) ≤ Ce−knJ .

Beweis: Wir beginnen mit der Schranke

Pλ(kn ≤ |C(v)| ≤ αn) =

αn∑

t=kn

Pλ(|C(v)| = t) ≤αn∑

t=kn

Pλ(St = 0).

Nach Proposition 7.7 ist St ∼ B(n− 1, 1 − (1 − p)t) + 1 − t. Daher gilt nun p = λn

Pλ(St = 0) = Pλ(B(n− 1, 1 − (1 − p)t) = t− 1). (7.7)

Um den exponentiellen Abfall der Wahrscheinlichkeiten zu erklaren, beachte man, dassfur p = λ

nund t = αn gilt

1 − (1 − p)t = 1 − (1 − λ

n)αn = (1 − e−λα)(1 + o(1)).

Die Gleichung1 − e−λα = α

wird nun eindeutig durch α = ζλ gelost (dies ist eine Ubung).

Fur α < ζλ ist daher auch α < 1 − e−λα und die Wahrscheinlichkeit in (7.7) fallt expo-nentiell. Im Detail: Wir starten mit (7.7) und benutzen, dass

1 − p ≤ e−p, also 1 − (1 − p)t ≥ 1 − e−pt

gilt, um zu erhalten:

Pλ(St = 0) = Pλ(B(n− 1, 1 − (1 − p)t) = t− 1)

≤ Pλ(B(n− 1, 1 − (1 − p)t) ≤ t− 1)

≤ Pλ(B(n, (1 − (1 − p)t)) ≤ t)

≤ Pλ(B(n, (1 − e−pt)) ≤ t).

Da die eindeutige Losung in α fur 1 − e−λα = α durch α = ζλ gegeben ist, pruft manschnell nach (Ubung), dass fur α < ζλ und λ > 1 ein δ = δ(α, λ) > 0 existiert, so dass furalle β ≤ α gilt:

1 − λβ ≤ e−λβ ≤ 1 − (1 + δ)β.

Sei nun X ∼ B(n, 1 − e−pt) und t = βn, wobei wir β so wahlen, dass kn

n≤ β ≤ α gilt.

Dann folgt aus der vorhergehenden Ungleichungskette:

β(1 + δ)n ≤ Eλ[X] ≤ λβn.

Also:Pλ(St ≤ 0) ≤ Pλ(X ≤ t) ≤ Pλ(X ≤ EλX − βδn).

87

Fur Binomial-verteilte Zufallsvariablen aber konnen wir exponentielle Schranken fur dieWahrscheinlichkeit der Abweichung vom Erwartungswert angeben (siehe Proposition 7.12unten). Hiermit folgt

Pλ(St ≤ 0) ≤ e−βδ2n/2λ = e−tδ2

2λ .

Setzen wir J = J(α, λ) = δ2

2λ, so folgt

Pλ(kn ≤ |C(v)| ≤ αn) =αn∑

t=kn

Pλ(St = 0)

≤αn∑

t=kn

e−Jt

≤ e−Jkn

1 − e−J.

2

Proposition 7.12 Es seien X1, . . . , Xn unabhangige Ber(pi)-verteilte Zufallsvariablen.Dann gelten mit

X =

n∑

i=1

Xi und λ = EX =

n∑

i=1

pi

die folgenden Schranken:

P[X ≥ EX + t] ≤ exp

( −t22(λ+ t

3)

)

P[X ≤ EX − t] ≤ exp

(−t22λ

)

.

Beweis: Sei Y ∼ B(n, λn). Da “log” eine konkave Funktion ist, gilt fur alle x1, . . . , xn ∈ R

n∑

i=1

1

nlog(xi) ≤ log

(

1

n

n∑

i=1

xi

)

(z. B. nach Jensen). Somit folgt fur alle u ∈ R

EeuX =n∏

i=1

(1 + (eu − 1)pi)

= enPn

i=11n

log(1+(eu−1)pi)

≤ en log(1+ (eu−1)λn

)

= (1 +(eu − 1)λ

n)n

= EeuY .

88

Mithilfe der exponentiellen Markov-Ungleichung folgt fur n ≥ 0

P(X ≥ EX + t) ≤ e−u(EX+t)EeuX (7.8)

≤ e−u(EX+t)EeuY

= e−u(λ+t)(1 − p+ peu)n,

wobei wir wieder p = λn

und λ = EX gesetzt haben. Fur t > n− λ ist die linke Seite von(7.8) gleich 0 und die Behauptung ist trivialerweise wahr. Fur λ+ t < n nimmt die rechteSeite ihr Minimum fur das u an, das der Bedingung

eu =(λ+ t)(1 − p)

(n− λ− t) · p

genugt. Daraus erhalt man fur 0 ≤ t ≤ n− λ

P(X ≥ λ+ t) ≤(

λ

λ+ t

)λ+t(n− λ

n− λ− t

)n−λ−t

.

Dies ist die sogenannte Chernoff-Schranke. Fur 0 ≤ t ≤ n−λ kann man sie folgendermaßenumschreiben:

P(X ≥ λ+ t) ≤ exp(−λϕ(t

λ) − (n− λ)ϕ(

−tn− λ

)),

wobeiϕ(x) = (1 + x) log(1 + x) − x (x ≥ −1)

ist. Ersetzt man X durch n−X, erhalten wir auch fur 0 ≤ t ≤ n− λ

P(X ≤ λ− t) ≤ exp(−λϕ(t

λ) − (n− λ)ϕ(

t

n− λ)).

Da ϕ(x) ≥ 0 fur alle x gilt, konnen wir den zweiten Term des Exponenten vernachlassigen.Weiter ist ϕ(0) = 0 und ϕ′(x) = log(1 + x) ≤ x, so dass ϕ(x) ≥ x2/2, was die zweiteSchranke beweist. Ahnlich rechnet man

ϕ(0) = ϕ′(0) = 0

und fur x ∈ [0, 1]

ϕ′′(x) =1

1 + x≥ 1

(1 − x3)3

=

(

x2

2(1 + xs)

)′′,

so dass

ϕ(x) ≥ x2

2(1 + x3)

gilt, was die erste Ungleichung beweist. 2

Korollar 7.13 (Zu Proposition 7.11):Sei kn = K log n und α < ζλ. Dann gibt es fur hinreichend großes K mit Wahrschein-lichkeit wenigstens 1−n−δ keine Zusammenhangskomponente der Große zwischen kn undαn.

89

Beweis: Die erwartete Anzahl von Komponenten mit einer Große zwischen kn und αnfur α < ζλ ist

Eλ[Z≥kn − Z≥αn+1] = nPλ(kn ≤ |C(v)| ≤ αn) ≤ Cne−knJ ,

wobei wir Proposition 7.11 verwendet haben. Wenn kn = K log n ist und K hinreichendgroß, ist dies hochstens O(n−δ). Mithilfe der Markov-Ungleichung folgt

Pλ(∃v : kn ≤ |C(v)| ≤ αn)

= Pλ(Z≥kn − Z≥αn+1 ≥ 1)

≤ Eλ[Z≥kn − Z≥αn+1] = O(n−δ).

2

Um Satz 7.9 zu beweisen, fehlt uns noch eine Varianzabschatzung. Dazu sei

χ<k(λ) = Eλ(|C(v)|1l|C(v)|<k).

Dann gilt

Proposition 7.14 Fur alle n und jedes k ∈ 1, . . . , n gilt

Vλ(Z≥k) ≤ (λk + 1)nχ<k(λ).

Dies ist im superkritischen Fall viel besser als Proposition 7.8. Die Abschatzung ausProposition 7.8 ergabe

Vλ(Z≥k) ≤ nχ≥k(λ).

Wenn aber der Satz 7.9, den wir gerade beweisen sollen, stimmt, dann ist |C(1)| = Θ(n)mit positiver Wahrscheinlichkeit. Daher ist

n · χ≥k(λ) = Θ(n2),

was eine triviale Schranke fur VZ≥kist. Die Schranke aus Proposition 7.14 ist dagegen

hochstens Θ(k2n), was fur kleine k viel kleiner ist als Θ(n2). Wir werden wieder

k = kn = Θ(log n)

wahlen.

Beweis: Sei

Z<k =n∑

v=1

1l|C(v)|<k.

Da Z<k = n− Z≥k gilt, folgtVλ(Z≥k) = Vλ(Z<k).

Also genugt es zu zeigen, dass

V(Z<k) ≤ (λk + 1)nχ<k(λ).

90

Hierzu berechnen wir

Vλ(Z<k) =

n∑

i,j=1

[Pλ(|C(i)| < k, |C(j)| < k) − Pλ(|C(i)| < k)Pλ(|C(j)| < k)].

Wir unterteilen auf, je nachdem, ob i↔ j oder nicht:

Vλ(Z<k) ≤n∑

i,j=1

[Pλ(|C(i)| < k, |C(j)| < k, i 6↔ j)

−Pλ(|C(i)| < k)P(|C(j)| < k)]

+

n∑

i,j=1

Pλ(|C(i)| < k, |C(j)| < k, i↔ j).

Wenn i↔ j gilt, dann ist C(i) = C(j), also auch |C(i)| = |C(j)|, also

n∑

i,j=1

Pλ(|C(i)| = |C(j)| < k, i↔ j)

=n∑

i,j=1

Eλ[1l|C(i)|<k1li↔j]

=

n∑

i=1

Eλ[1l|C(i)|<k

n∑

j=1

1li↔j]

=n∑

i=1

Eλ[|C(i)|1l|C(i)|<k]

= nχ<k(λ).

Fur die andere Summe schreiben wir fur l < k

Pλ(|C(i)| = l, |C(j)| < k, i 6↔ j)

= Pλ(|C(i)| = l)Pλ(i 6↔ j∣

∣|C(i)| = l)

×Pλ(|C(j)| < k∣

∣|C(i)| = l, i 6↔ j).

Wir beschranken Pλ(i 6↔ j∣

∣|C(i)| = l) ≤ 1 und erhalten:

Pλ(|C(i)| = l, |C(j)| < k, i 6↔ j) ≤ Pλ(|C(i)| = l) · P(|C(j)| < k∣

∣|C(i)| = l, i 6↔ j).

Ist nun |C(i)| = l und i 6↔ j, so ist |C(j)| verteilt wie |C(1)| in einem G(n− l, p)-Graphenmit p = λ

n. Also

Pn,λ(|C(j)| < k∣

∣|C(i)| = l, i 6↔ j) = Pn−l,λ(|C(1)| < k).

Daher gilt:

Pλ(|C(j)| < k∣

∣|C(i)| = l, i↔ j)

= Pn−k,λ(|C(1)| < k)

= Pn,λ(|C(1)| < k) + Pn−l,k(|C(1)| < k) − Pn,l(|C(1)| < k).

91

Wir konstruieren eine Kopplung zwischen G(n−l, p) und G(n, p), indem wir zu G(n−l, p)die Knoten n − l + 1, . . . , n hinzufugen und indem wir die zusatzlichen Kanten mitWahrscheinlichkeit p unabhangig belegen. Mit dieser Kopplung sieht man, dass

Pn−l,λ(|C(1)| < k) − Pn,λ(|C(1)| ≤ k)

gleich der Wahrscheinlichkeit ist, dass |C(1)| < k in G(n− l, p) aber |C(1)| ≥ k in G(n, p)ist. Wenn |C(1)| < k in G(n− l, p), aber |C(1) ≥ k in G(n, p) ist, muss wenigstens einerder Knoten in n− l+ 1, . . . , n mit einem der hochstens k Knoten in C(1) in G(n− l, p)verbunden sein. Die Wahrscheinlichkeit hierfur ist hochstens lkp, so dass

Pλ(|C(j)| < k, i 6↔ j||C(i)| = l) − Pλ(|C(j)| < k) ≤ lkλ

n.

Daher folgt

n∑

i,j=1

[Pλ(|C(i)| < k, |C(j)| < k, i 6↔ j) − Pλ(|C(i)| < k)Pλ(|C(j)| < k)

=∑

i,j

k−1∑

l=1

Pλ(|C(i)| = l, |C(j)| < k, i 6↔ j) − Pλ(|C(i)| = l)Pλ(|C(j)| < l)

≤k−1∑

l=1

i,j

P(|C(i)| = l)(P(|(j)| ≤ k∣

∣|C(i)| = l 6↔ j) − P(|C(j)| < k))

≤k−1∑

l=1

i,j

λkl

nPλ(|C(i)| = l)

=λk

n

i,j

Eλ[|C(i)|1l|C(i)|<k]

= nkλχ<k(λ),

was mit der obigen Abschatzung die Proposition beweist. 2

Wir sind nun in der Lage, Satz 7.9 zu beweisen.

Beweis von Satz 7.9: Sei ν ∈ (12, 1) und α ∈ ( ζλ

2, ζλ). Sei ferner kn = K logn fur ein

hinreichend großes K. Sei

En := E (1)n ∩ E (2)

n

mit

E (1)n := |Z≥kn − nζλ| ≤ nν

und

E (2)n := ∃v ∈ 1, . . . , n : kn ≤ |C(v)| ≤ αn.

Wir benotigen nun noch das folgende Lemma:

92

Lemma 7.15 En tritt mit großer Wahrscheinlichkeit auf, d. h.

Pλ(E cn) ≤ cn−δ

fur eine Konstante c <∞ und ein δ > 0. Weiter gilt auf En

|Cmax| = Z≥kn.

Beweis: Offenbar ist E cn = E (1)c

n ∪ E (2)cn . Nun ist nach Proposition 7.10

Eλ[Z≥kn] = nPλ(|C(v)| ≥ kn) = nζλ +O(kn).

Somit folgt fur hinreichend großes n, und da kn = O(logn) = o(nν) gilt:

|Z≥kn − Eλ[Z≥kn]| ≤ nν/2 ⊆ |Z≥kn − nζλ| ≤ nν.

Mithilfe der Chebyshev-Ungleichung und Proposition 7.14 zusammen mit

χ≤kn(λ) ≤ kn

erhalten wir fur großes n:

Pλ(|Z≥kn − nζλ| ≤ nν) ≥ Pλ(|Z≥kn − E[Z≥kn]| ≤ nν/2)

≥ 1 − 4n−2νV(Z≥kn)

≥ 1 − 4n1−2ν(λk2n + kn)

≥ 1 − n−δ

fur δ < 2ν − 1, da kn = K log n gilt. Dies beschreibt die Wahrscheilichkeit von E (1)cn .

Weiter ist nach Korollar 7.13

Pλ(∃v ∈ 1, . . . , n : kn ≤ |C(v)| ≤ αn) ≤ n−δ.

Also ist auch die Wahrscheinlichkeit von E (2)cn klein, zusammen also

Pλ(E cn) = O(n−δ).

Um die zweite Aussage herzuleiten, bemerken wir, dass

|Z≥kn − ζλn| ≤ nν ⊆ Z≥kn ≥ 1.

Also ist auf En

|Cmax| ≤ Z≥kn,

denn da es Cluster der Große mindestens kn gibt, liegt jeder Punkt in Cmax in einemCluster der Große ≥ kn. Ist diese Ungleichung strikt, d. h. gilt

|Cmax| < Z≥kn,

dann gibt es mindestens zwei Zusammenhangskomponenten der Große mindestens kn. AufEn gibt es aber keine Zusammenhangskomponenten mit einer Große zwischen kn und αn.Also muss es zwei solche Cluster mit einer Große von mindestens αn geben, also muss

Z≥kn ≥ αn

93

gelten. Ist nun 2α > ζλ und n hinreichend groß, so widerspricht dies

Z≥kn ≤ ζλn+ nν .

Also gilt die Behauptung. 2

Wir beenden nun den Beweis von Satz 7.9. Nach Lemma 7.15 gilt

Pλ(|Cmax| − ζλn| ≤ nν) ≥ Pλ(|Cmax| − ζλn| ≤ nν ∩ En)

= Pλ(En) ≥ 1 −O(n−δ),

da nach Lemma 4.15 auf En |Cmax| = Z≥kn und |Z≥an − nζλ| ≤ nν gilt. Dies beweist Satz7.9. 2

Eine interessante Frage, die beinahe auf der Hand liegt, ist die folgende: Wir betrachteneine Zufallsgroße G(n, p) mit p = λ

nund λ > 1. Dann wissen wir aus dem Inhalt dieses

Kapitels, dass G(n, p) mit großer Wahrscheinlichkeit eine riesige Komponente der Großeζλn enthalt. Wie sieht nun der Graph aus, wenn wir diese entfernen? Die Antwort ist,dass wir dann in einen subkritischen Bereich geraten. Genauer:

Satz 7.16 (Diskretes Dualitatsprinzip)Es sei λ > 1 und µ = µλ < 1 zu λ dual in dem Sinn, dass

µe−µ = λ e−λ

gilt. Die bedingte Verteilung des Graphen G(n, λn), bei dem man die riesige Komponente

entfernt, ist nahe an der Verteilung eines G(m, µm

)-Modells, wobei m := n − ⌈nζλ⌉ dieasymptotische Anzahl an Knoten ist, die außerhalb der riesigen Komponente liegen.

Bemerkung 7.17 Mit der Formulierung “die Verteilung . . . liegt dicht bei der Verteilung. . .” meinen wir das folgende: Wir schreiben P

′λ fur die Verteilung des G(n, λ

n), bei dem wir

die riesige Komponente entfernt haben. Sei E ein Ereignis, das uber die Kantenvariablendefiniert ist. Dann gilt, falls limm→∞ Pm,µ(E) existiert:

limn→∞

P′n,λ(E) = lim

m→∞Pm,µ(E).

Beweisskizze fur Satz 7.16: Bemerke, dass alle Kanten im Komplement der riesigenKomponente unabhangig sind. Wir berechnen nun die Wahrscheinlichkeit, dass so eineKante auftritt. Diese ist naturlich nach wie vor λ

n. Dies schreiben wir fur |Cmax| = n−m

alsλ

n=

λ

m· mn.

Nun ist m mit großer Wahrscheinlichkeit ungefahr ζλn, also

λ

n≈ ληλ

m=µ

m

(erinnere, dass ηλ = 1−ζλ ist). Andererseits auch n−m ≈ ηλ ·n, d. h. wir haben tatsachlicheinen G(m, µ

m)-Graph. 2

94

8 Der kritische Erdos-Renyi-Graph

Wir haben in Kapitel 7 gesehen, das es einen Phasenubergang im Erdos-Renyi-Graphengibt: Wahrend fur p = λ

n, λ < 1, die Große der großten Zusammenhangskomponente bei

etwa

|Cmax| ∼=1

Iλlog n

mitIλ = λ− 1 − log λ

liegt, ist sie fur λ > 1 dicht bei|Cmax| ∼= ζλn,

wobei ζλ die Uberlebenswahrscheinlichkeit eines Poisson(λ)-Verzweigungsprozesses ist.Die Frage, was bei p = 1

ngeschieht, liegt nahe. Die Antwort darauf gibt

Satz 8.1 Fur p = 1n

gilt: Es gibt eine Konstante b > 0, so dass fur hinreichend großes nund alle w > 1 gilt

P(1

wn2/3 ≤ |Cmax| ≤ wn2/3) ≥ 1 − b

w.

Der Beweis dieses Satzes wird uns in diesem Abschnitt beschaftigen. Der Beweis benutztAbschatzungen uber die erwartete Clustergroße und die Tails der Verteilung der Cluster-große. Diese werden wir zunachst formulieren und dann spater beweisen. Sei

P≥k(λ) := Pλ(|C(v)| ≥ k).

Proposition 8.2 Sei λ = 1. Fur k ≤ rn2/3 gibt es Konstanten

0 < c1 = c1(v) < c2 <∞

mitminc1(r) : r ≤ κ > 0

fur ein κ > 0 und ein von r unabhangiges c2, so dass fur alle hinreichend großen n gilt

c1√k≤ P≥k(λ) ≤ c2√

k.

Proposition 8.2 bedeutet, dass sich die Tails der kritischen Clustergroßen-Verteilung ahn-lich verhalten wie die Tails der Gesamtgroße eines Poi(λ)-Galton-Watson-Baumes. Furdiesen hatten wir

P1(T∗ ≥ k) =

2

π

1√k

(1 +O(1

k))

hergeleitet. Naturlich kann Proposition 8.2 nicht wahr sein, wenn k beliebig von n abhangendarf. Fur k > n gilt ja z. B.

P≥k(1) = 0.

95

Tatsachlich ist die obere Schranke aber fur alle k wahr. Fur die untere Schranke hinge-gen gibt es eine Schwelle, wo diese zusammenbricht. Diese liegt bei rn2/3. Als nachstesbetrachten wir

Eλ[|C(1)|] = χ(λ).

Proposition 8.3 Es gibt ein K > 0, so dass fur alle λ ≤ 1 und alle n ∈ N gilt

χ(λ) ≤ Kn1/3.

Dies ist auf intuitiver Ebene konsistent mit Satz 8.1. Tatsachlich sollte ja ein wesentlicherBeitrag zu χ(1) vom großten Cluster kommen. Also

χ(1) ∼ E1[|C(v)|1lv∈Cmax]

= E1[|Cmax|1lv∈Cmax].

Wenn tatsachlich Satz 8.1 stimmt, dann ist |Cmax| = Θ(n2/3), dann ist

P1(v ∈ Cmax) ∼ n2/3

n= n−1/3.

Daher sollte man intuitiv erwarten, dass

χ(1) ∼ n1/3.

Wir beweisen zunacht Satz 8.1 unter Voraussetzung von Proposition 8.2 und 8.3.

Beweis von Satz 8.1: Wir beginnen mit der oberen Schranke fur |Cmax|. Wir erinnern,dass

|Cmax| ≥ k = Z≥k ≥ kgilt, wobei wieder Z≥k =

∑nv=1 1l|C(v)|≥1 ist. Mithilfe der Markov-Ungleichung erhalten

wir

P1[|Cmax| ≥ wn2/3] = P[Z≥wn2/3 ≥ wn2/3] ≤ 1

w

1

n2/3E1[Z≥wn2/3].

Nach Proposition 8.2 lasst sich dies nun abschatzen als

E1[Z≥wn2/3] = nP≥wn2/3(1) ≤ n2/3 c2√w.

Also

P1[|Cmax| ≥ wn2/3] ≤ c2w3/2

,

was fur große w ≥ 1 sogar starker ist als behauptet.

Fur die untere Schranke bemerken wir zunachst, dass fur w < b nichts zu zeigen ist. b > 0werden wir groß wahlen, so dass wir fur w > b w > 1

κ, fur das κ > 0 aus Proposition 8.2,

annehmen konnen.

96

Die Chebyshev-Ungleichung, zusammen mit

|Cmax| < k = Z≥k = 0

ergibt

P1(|Cmax| <1

wn2/3) = P1(Z≥w−1n2/3 = 0) ≤ V(Z≥w−1n2/3)

E[Z≥w−1n2/3 ]2)].

Nun istE1[Z≥w−1n2/3 ] = nPgew−1n2/3(1) ≥ c1

√wn2/3,

wobei wir Proposition 8.2, w ≥ 1κ

und c1 = minr≤κ c1(r) > 0 benutzt haben. Nun habenwir V(Z≥k) schon (zweimal) in Kapitel 7 abgeschatzt. Wir benutzen Proposition 7.7 umzu erhalten:

V(Z≥w−1n2/3) ≤ nχ≥w−1n2/3(1) = nE[|C(1)|1l|C(1)|≥ 1w

n2/3].

Mithilfe von Proposition 8.3 erhalten wir also weiter:

V(Z≥w−1n2/3) ≤ nχ≥w−1n2/3(1) ≤ nχ(1) ≤ Kn4/3.

Wenn wir diese Abschatzungen zusammenfugen, ergibt sich:

P1(|Cmax| <1

wn2/3) ≤ Kn4/3

c21wn4/3

=K

c21w.

Also ergibt sich

P1(1

wn2/3 ≤ |Cmax| ≤ wn2/3)

= 1 − P1(|Cmax| < w−1n2/3) − P1(|Cmax| > wn2/3)

≥ 1 − K

c21w− c2w3/2

≥ 1 − b

w,

wenn wir b = Kc21 + c2 setzen. 2

Bleibt Proposition 8.2 und 8.3 zu beweisen.

Beweis von Proposition 8.2: Sei λ ≤ 1. Der Vergleich zwischen G(n, p) und einemBinomialbaum ergibt wieder

P≥k(λ) ≤ Pn,p(T ≥ k),

wobei sich die rechte Seite wieder auf einen B(n, p)-Galton-Watson-Baum mit p = λn

bezieht. Vergleichen wir diesen wieder mit einem Poi(λ)-Galton-Watson-Baum, so sehenwir

P≥k(λ) ≤ P∗λ(T ∗ ≥ k) + ek(n)

mit

|ek(n)| ≤ 2

n

k∑

j=1

P∗λ(T ∗ ≥ s).

97

Nun haben wir die Tails eines kritischen Poi(1)-GW-Baumes abgeschatzt:

P∗λ(T ∗ ≥ s) ≤ P

∗1(T

∗ ≥ s) ≤ C√s

fur C > 0.

Dies ergibt eine Schranke fur |ek(n)|:

|ek(n)| ≤ 2

n

k∑

s=1

C√s≤ 4C

√k

n≤ 4C√

k.

Da auch P∗λ(T ∗ ≥ s) ≤ C√

k, erhalten wir

P≥k(λ) ≤ 5C√k.

Fur λ = 1 zeigt dies die obere Schranke in Proposition 8.2. Fur die untere Schrankebenutzen wir

P1(|C(1)| ≥ k) ≥ Pn−p,k(T ≥ k),

wobei sich die rechte Seite wieder auf ein entsprechendes Binomial-Baum-Modell bezieht.Wir wahlen k ≤ rn2/3 und p = 1

n. Vergleichen wir die rechte Seite wieder mit einem

Poisson-Galton-Watson-Prozess, so ergibt sich mit λn = 1 − rn−1/3 ≥ 1 − kn

und obigerFehlerschranke

P1(|C(1)| ≥ k) ≥ P∗λn

(T ∗ ≥ k) − 4C√k

n≥ P

∗λn

(T ∗ ≥ k) − 4C√r

n2/3.

Verwenden wir nun Satz 6.2, so erhalten wir

P(|C(1)| ≥ k) ≥∞∑

t=k

P∗λn

(T ∗ = t) − 4C√r

n2/3

=∑ (λnt)

t−1

t!e−λnt − 4c

√r

n2/3

≥∑

t≥k

P∗1(T ∗ = k)e−Iλnt − 4C

√r

n2/3,

wobei

Iλn = λn − 1 − log λn =1

2(λn − 1)2 +O(|λn − 1|)3.

Ubung 8.4 Man zeige die letzte Ungleichung, genauer:

(λt)t−1

t!e−λt =

1

λe−Iλt

P∗1(T

∗ = t).

Also gilt fur hinreichend großes n

Pλ(|C(1)| ≥ k) ≥∞∑

t=k

P∗1(T ∗ = t)e−

12(λn−1)2t(1+o(1)) − 4C

√r

n2/3

≥∞∑

t=k

C

t3e−

12(λn−1)t(1+o(1)) − 4C

√r

n2/3

≥ C1(r)√k,

98

da λn − 1 = −rn−1/3, und wobei wir

c1(r) = C(2−3/2e−r3 − e√r) > 0

fur hinreichend kleines r gesetzt haben. 2

Der Beweis von Proposition 8.3 ist zu lang, um hier gezeigt zu werden.

99

9 Der Zentrale Grenzwertsatz fur die riesige

Komponente

In diesem kurzen Abschnitt wollen wir eine sehr naturliche Frage beantworten, die sichaus Satz 7.9 ergibtr. Dort haben wir festgestellt, dass |Cmax|

ngegen ζλ konvergiert im Sinne

des Gesetzes der großen Zahlen. Aus wahrscheinlichkeitstheoretischer Sicht ist die nachst-liegende Frage nun die nach einem Zentralen Grenzwertsatz. Dieser wird nun bewiesen.

Satz 9.1 (CLT fur die Große des riesigen Komponente)Sei λ > 1. Dann gilt

|Cmax| − ζλn√n

D−→ Z,

wobei Z ∼ N (0, σ2λ)-verteilt ist und

σ2λ =

ζλ(1 − ζλ)

(1 − λ+ λζλ)2.

Der Beweis wird Satz 7.9 und eine Art Explorationsprozess fur die Zusammenhangskom-ponenten verwenden.

Wir wahlen zunachst k = kn, der wir spater spezifizieren werden. Wir untersuchen miteinem Explorationsprozess die Vereinigung der Zusammenhangskomponenten der Vertizes1, . . . , k. Wenn k → ∞ geht, wird dies die großte Zusammenhangskomponente enthaltenund sie kann nicht großer sein als |Cmax| + kbn, wobei wir mit

bn ≤ K log n

die Große der zweitgroßten Zusammenhangskomponente beschranken. Wenn also k =o(nν) fur ein ν < 1

2ist, dann hat diese Vereinigung eine Große von |Cmax| + o(

√n).

Konnen wir also einen Zentralen Grenzwertsatz fur die Große dieser Vereinigung ableiten,dann haben wir auch einen fur |Cmax|.

Wir leiten nun eine Formel fur die Große der Vereinigung der Zusammenhangskomponen-ten von 1, . . . , k her.

Sei S1 die Anzahl an Knoten, die aus k+1, . . . , n stammen und mit 1, . . . , k verbundensind. Man uberzeugt sich, dass

S1 ∼ B(n− k, 1 − (1 − p)k)

gilt. Fur m ≥ 1 sei

Sm = Sm−1 +Xm−1,

wobei

Xm ∼ B(n− Sm−1 − (m+ k − 1), p). (9.1)

Einen ahnlichen Explorationsprozess haben wir schon kennengelernt. Dann gilt

100

Proposition 9.2 Fur alle t ∈ 1, . . . , n gilt

St + (t− 1) ∼ B(n− k, 1 − (1 − p)t+k−1).

Weiter gilt fur alle l,m ∈ 1, . . . , n mit l ≥ m bedingt auf Sm

Sl + (l −m) − Sm ∼ B(n− (m+ k − 1) − Sm, (1 − (1 − p)l−m)).

Fur k = 1 haben wir dies schon in einer fruheren Proposition kennengelernt.

Beweis: Fur t = 1 folgt alles aus der Formel fur S1. Fur t ≥ 1 sei Nt die Anzahl der nochnicht untersuchten Knoten, also

Nt = n− (t+ k − 1) − St.

Es ist bequemer, die aquivalente Behauptung

Nt ∼ B(n− k, (1 − p)t+k−1) ∀ t

zu zeigen. Um dies einzusehen, bemerke, dass jeder der Knoten k+1, . . . , n unabhangigvon allen anderen Knoten Wahrscheinlichkeit (1 − p)t+k−1 hat, in den ersten t Explora-tionen neutral zu bleiben. Formal: Bedingt unter St−1 gilt

Xt ∼ B(n− St−1 − (t+ k − 2), p) = B(Nt−1,p)

nach (9.1). Behalt man im Hinterkopf, dass

N1 ∼ B(Nm, (1 − p)l−m),

so ergibt sich:

Nt = n− (t+ k − 1) − St

= n− (t+ k − 1) − St−1 −Xt + 1

= n− (t+ k − 2) − St−1 −B(Nt−1, p)

= Nt− 1 −B(Nt−1, p)

= B(Nt−1, 1 − p)

und die Behaputung folgt induktiv mithilfe der folgenden Ubung. Fur l ≥ m impliziertdiese Rechnung auch:

Nl ∼ B(Nm, (1 − p)l−m).

Setzt man Nm = n− (m+ k − 1) − Sm ein, so folgt hieraus

n− (l + k − 1) − Sl ∼ B(n− (n + k − 1) − Sm, (1 − p)l−m)

= n− (m+ k − 1) − Sm − B(n− (m+ k − 1) − Sm, 1 − (1 − p)l−m),

was wiederum aquivalent zu der Behauptung ist, dass fur alle l ≥ m und bedingt unterSm

Sl + (l −m) − Sm ∼ B(n− (m + k − 1) − Sm, 1 − (1 − p)l−m)

gilt. 2

101

Ubung 9.3 Ist N ∼ B(n, p)-verteilt und M bedingt auf N, M ∼ B(N, q)-verteilt, dannist M ∼ B(n, pq)-verteilt.

Eine Folge aus Proposition 9.2 ist, dass S⌊nt⌋ einem CLT genugt. Wir setzen S0 = kund machen bei der Formulierung Gebrauch von der asymptotischen Approximation furMittelwert und Varianz von S⌊nt⌋

µt = 1 − t− eλt

undvt = e−λt(1 − e−λt).

Korollar 9.4 Sei k = kn = o(√n). Dann konvergiert fur jedes t ∈ [0, 1]

S⌊nt⌋ − nµt√nvt

D−→ N (0, 1).

Beweis: Die Behauptung folgt sofort aus einem CLT fur die Binomialverteilung (X ∼B(an, pn) mit anpn(1 − pk) → ∞), wenn wir zeigen konnen, dass

ES⌊nt⌋ = nµt + o√n und (9.2)

VS⌊nt⌋ = nvt + o(n)

gilt, denn

S⌊nt⌋ − nµt√nvt

=

V(S⌊nt⌋)

nvt

S⌊nt⌋ − E[S⌊nt⌋]√

V(S⌊nt⌋)+

E[S⌊nt⌋] − nµt√

V(S⌊nt⌋).

Nach (9.2) konvergiert der zweite Summand gegen 0 und der Varfaktor gegen 1. Nachdem gewohnlichen CLT konvergiert

S⌊nt⌋ − ES⌊nt⌋√

V[S⌊nt⌋]

gegen die Standardnormalverteilung. Um (9.2) einzusehen, bemerken wir fur den Erwar-tungswert, dass

E[S⌊nt⌋] = (n− k)(1 − (1 − λ

n)⌊nt⌋+k−1) − (⌊nt⌋ − 1) = nµt + o(

√n)

und fur die Varianz, dass

V[S⌊nt⌋] = (n− k)(1 − λ

n)⌊nt⌋+k−1(1 − (1 − λ

n)⌊nt⌋+k−1) = nvt0o(n)

gilt, so lange k = o(√n) bzw. k = o(n) gilt. 2

Nun beweisen wir Satz 9.1.

102

Beweis von Satz 9.1: Sei |C≤k| die Große der Vereinigung der Zusammenhangskompo-nenten der Knoten 1, . . . , k. Dann gilt

|C≤k| ∼ minm : Sm = 0. (9.3)

Sei k = kn = log n. Dann folgt aus Satz 7.9, dass die Wahrscheinlichkeit, dass keiner derersten kn Knoten in der großten Zusammenhangskomponenten liegt, von oben abgeschatztwerden kann durch

[

(

n− |Cmax|n

)kn]

= o(1).

Somit gilt mit großer Wahrscheinlichkeit |C≤k| ≥ |Cmax|. Andererseits folgt aus Korollar7.13 und Satz 7.9, das mit großer Wahrscheinlichkeit das zweitgroßte Cluster eine Großevon hochstens k logn (fur ein großes k > 0) hat, falls 2α > ζλ ist. Also gilt mit großerWahrscheinlichkeit

|C≤k| ≤ |Cmax| + (k − 1)K log n.

Also folgt ein CLT fur |Cmax| aus einer solchen fur |C≤k| mit k = log n. Diesen CLT fur|C≤k| beweisen wir durch obere und untere Schranken an

( |C≤k| − ζλn√n

≤ x

)

.

Fur die obere Schranke verwenden wir, dass (9.3) impliziert, dass fur jedes l

Pλ(|C≤k| > l) = Pλ(∀ m ≤ l : Sm > 0) (9.4)

gilt. Wendet man (9.4) auf

l = mx = ⌊nζλ + x√n⌋

an, erhalt man

( |C≤k| − ζλn√n

> x

)

= Pλ (∀m ≤ mX : Sm > 0) ≤ Pλ(Smx > 0).

Nun verwenden wir (9.2) und µζλ= 0 und sehen (fur die Ableitung µ′

t von µt nach t):

E[Smx ] = nµζλ+√nxµ′

ζλ+ o(

√n)

=√nx(λe−λζλ − 1) + o(

√n)

(bemerke, dass λe−λζλ − 1) < 0 fur λ > 1 gilt.

Ubung 9.5 Man zeige, dass fur λ > 1

µ′ζλ

= λe−λζλ − 1 < 0

und µζλ= 0 gilt.

103

Man berechnet mithilfe von (9.2) die Varianz von Smx als

V(Smx) = nvζλ+ o(n).

Somit ergibt sich

Pλ(Smx > 0) = Pλ

(

Smx − E(Smx)√

V(Smx

>x(1 − λe−λζλ)

√vζλ

)

+ o(1). (9.5)

Nach Korollar 9.4 konvergiert die rechte Seite gegen

P

(

Z >x(1 − λe−λζλ)

√vζλ

)

= P(Z ′ > x),

wobei Z ∼ N (0, 1) und Z ′ ∼ N (0,vζλ

(1−λe−λζλ )2verteilt sind. Schließlich ist

ζλ = λ− ηλ,

also1 − ζλ = e−λζλ ,

so dassvζλ

= e−λζλ(1 − e−λζλ) = ζλ(1 − ζλ)

gilt. Also lasst sich die Varianz von Z ′ umschreiben zu

vζλ

(1 − λe−λζλ)2=

ζλ(1 − ζλ)

(1 − λ+ λζλ)2.

Dies ergibt die obere Schranke wegen (9.5). Fur die untere Schranke benutzen wir wieder,dass

Pλ(|C≤k| − ζλ > x) = Pλ (∀m ≤ mx : Sm > 0)

gilt, wobei wir wieder mx = ⌊nζλ + x√n⌋ gesetzt haben. Dann gilt fur alle ε > 0

Pλ(∀m ≤ mx : Sm > 0) ≥ Pλ(∀m < mx : Sm > 0Smx > ε√n)

= Pλ(Smx > ε√n) − Px(Smx > ε

√n, ∃m < mx : Sm = 0).

Der erste Term kann ahnlich wie bei der oberen Schranke behandelt werden. Tatsachlicherhalt man exakt so wie dort fur jedes ε > 0

Pλ(Smx > ε√n) = P(Z >

x(1 − λe−λζλ) + ε√vζλ

+ o(1).

Wieder gilt fur ε → 0, dass die rechte Seite gegen P(Z ′ > x), fur Z ′ ∼ N (0, σ2λ). Somit

genugt es zu zeigen, dass

Pλ(Smx > ε√n, ∃m < mx : Sm = 0) = o(1).

Mithilfe der Bollschen Ungleichung folgt:

Pλ(Smx > ε√n, ∃m < mx : Sm = 0) ≤

mx−1∑

m=1

Pλ(Sm = 0, Smx > ε√n).

Fur m ≤ αn mit α < ζλ kann man zeigen, dass, wenn k = K log n und K hinreichendgroß, gleichmaßig in m ≤ αn gilt

Pλ(Sm = 0) = o(1

n). (9.6)

104

Ubung 9.6 Man beweise (9.6).

Wir zeigen eine ahnliche Schranke fur m > αn, wobei α < ζλ ist (und beliebig dicht beiζλ gewahlt werden kann). Wir benutzen hierbei, dass fur m dicht bei nζλ gilt EXm < 1,so dass wir uns Sm in m nahezu als Irrfahrt mit negativer Drift vorstellen konnen. Daherist die Wahrscheinlichkeit dafur, dass Sm = 0, aber Smx > ε

√n, exponentiell klein. Im

einzelnen:

Pλ(Sm = 0, Smx > ε√n) ≤ P(Smx > ε

√n|Sm = 0)

= Pλ(B(n− (m + k − 1), 1 − (q − p)mx−m) > (mx −m) + ε√n),

da nach Proposition 9.2 bedingt unter Sm = 0

Sl + (l −m) ∼ B(n− (m + k − 1), (1 − (1 − p)l−m))

verteilt ist. Wahleκ = ζλ − ε

fur ein sehr kleines ε > 0. Unter Ausnutzung von

1 − (1 − a)b ≤ ab

fur alle a, b mit 0 < a < 1, b ≥ 1, erhalten wir 1 − (1 − p)mx−m = (1 − (1 − λn)mx−m) ≤

λ(mx−m)n

. Somit haben wir fur

X ∼ B(n− (m + k − 1), (1 − (1 − p)mx−m)),

unter Ausnutzung von n− (m+ k − 1) ≤ n−m ≤ n(1 − ζλ + ε) und p = λn

EX ≤ (1 − ε)(mx −m).

Daher folgt

Pλ(Sm = 0, Smx > ε√n) ≤ Pλ(X − EX ≥ ε((mx −m) +

√n)).

Benutzt man wieder Proposition 7.12 uber die Abschatzung der Tails der Binomialvertei-lung, erhalt man dann fur t = ε((mx −m) +

√n)

Pλ(Sm = 0, Smx > ε√n) ≤ exp

(

− t2

2((1 − ε)(mx −m) + t3)

)

≤ exp

(

− t2

2((mx −m) + 2ε√

n3

)

)

.

Daher folgt fur mx −m ≥ ε√n, da t ≥ ε(mx −m),

Pλ(Sm = 0, Smx > ε√n) ≤ exp(−3ε

√n|8) = exp(−ε√n/2) = o(

1

n).

Dies beschließt den Beweis des Zentralen Grenzwertsatzes. 2

105

10 Inhomogene Zufallsgraphen

Der G(n, p)-Zufallsgraph ist gewissermaßen die homogenste Art, einen Zufallsgraphen zukonstruieren. Wir wollen hier nun das zugrunde liegende Modell ein wenig andern undsehen, welche Auswirkungen das hat. Wir wollen zu diesem Zweck den Knoten Gewichtezuweisen. Die Kanten werden dann, gegeben diese Gewicht, unabhangig gewahlt. DieGewichte selbst konnen deterministisch sein oder selbst zufallig. Sei wi das Gewicht vonKnoten i. Die Wahrscheinlichkeit, eine Kante zwischen Knoten i und j zu legen, ist nungegeben durch

pij = p(GRG)ij =

wiwj

ln + wiwj,

wobei ln das Gesamtgewicht ist:

ln =

n∑

i=1

wi.

Das entstehende Modell nenne wir HRG (w) (generaoized random graph mit Gewichtw). Hierbei nehmen wir an, dass wi > 0 gilt (alle i mit wi = 0 waren mit Wahrschein-lichkeit isoliert). Sind die (wi) selbst Ergebnis von Zufallsvariablen (Wi), so schreiben wirGRG(W). Sind die (wi) i.i.d. mit Erwartungswert µ, so kann man auch ln durch n ersetzenund kommt zu den Gewichten

pij =WiWj

µn+ wiwj=

1µWiWj

n + 1µwiwj

.

Ein Spezialfall ist der GRG mit Gewichten

wi =nλ

n− λ,

womit man pij = λn, also das G(n, p)-Modell mit p = λ

nerhalt.

Wir beginnen damit, im Modell GRG(w) die Gradfolge zu studieren. Es sei Dk der Gradvon Knoten k. Dann gilt

Satz 10.1 a) Fur feste Gewichte w = (w(n)i ) gibt es eine Poisson-Zufallsvariable Zk

mit Zk ∼ Poi(w(n)k ), so dass

P(Zk 6= Dk) ≤ (w(n)k )2

ln(1 + 2

n∑

j=1

(w(n)j )2

ln).

Insbesondere konvergiert Dk in dem Fall, dass

wk = limn→∞

w(n)k

existiert, gegen eine Poi(wk)-verteilte Zufallsvariable, falls

n∑

i=1

(w(n)i )2 = o(l2n).

106

b) Gilt fur die Kantenwahrscheinlichkeiten pij

limn→∞

pij = 0,

so sind die Grade D1, . . . , Dm asymptotisch unabhangig.

Um ein Korollar hieraus zu formulieren, benotigen wir noch eine Definition.

Definition 10.2 Eine Zufallsvariable X hat eine gemischte Poissonverteilung mit Mi-schungsverteilung F , falls

P[X = k] = E[e−wwk

k!]

und W eine Zufallsvariable mit Verteilungsfunktion F .

Korollar 10.3 Sind die Gewichte im GRG-Modell gegeben durch w = (wi)ni=1 und

wi = (1 − Fw)−1 (i

n)

fur eine Verteilungsfunktion Fw mit endlichem Erwartungswert, dann gilt

a) Der Grad eines mit Gleichverteilung gezogenen Knotens konvergiert in Verteilunggegen eine gemischte Poisson-Verteilung mit Mischungsverteilung Fw.

b) Die Grade mit Gleichverteilung auf 1, . . . , n gezogener Knoten sind asymptotischunabhangig.

Beweis von Satz 10.1: Wir werden wieder die schon in Kapitel 5 vorgestellte Kopplungvon Poisson- und Binomial-verteilten (genauer Summe von Bernoulli-Zufallsvariablen)Zufallsvariablen benutzen. Wir unterdrucken das (n) in der Schreibweise und schreiben

wi = w(n)i . Es ist

Dk =n∑

j=1

Xkj,

wobei Xkj der Indikator fur die kj-te Kante ist. Da Xkj ∼ Ber(pkj mit pkj =wkwj

ln+wkwjgibt

es mithilfe der Kopplung eine Poi(λk)-Zufallsvariable Yk, wobei

λk =∑

j=k

wkwj

ln + wkwj

und eine Zufallsvariable Dk mit

DkD= Dk,

107

so dass

P(Dk 6= Yk) ≤∑

j 6=k

p2kj

=∑

j 6= kw2

kw2j

(ln + wkwj)2

≤ w2k

n∑

j=1

w2j

ln2.

Also genugt es, um die Behauptung zu beweisen, Yk an eine Poi(wk)-verteilte Zufallsva-riable Zk so zu koppeln, dass

P(Yk 6= Zk) ≤ w2k

n∑

j=1

w2j

ln2

gilt. Hierzu bemerken wir, dass

λk ≤∑

j=k

wkwj

ln≤ wk

ln

k∑

j=1

wj = wk

gilt. Daher ist εk := wk − λk ≥ 0. Sei

Vk ∼ Poi(εk)

unabhangig von Yk und schreiben

Zk = Yk + Vk.

Dann istP(Yk 6= Zk) = P(Vk 6= 0) = P(Vk ≥ 1) ≤ E[Vk] = εk.

Wir wollen daher εk beschranken:

εk = wk −∑

j 6=k

wkwj

ln + wkwj

=n∑

j=1

wkwj

(

1

ln− 1

lnwkwj

)

+w2

k

ln + w2k

=

n∑

j=1

w2jw

2k

ln(ln + wkwj)+

w2k

ln+ w2k

≤ w2k

ln+

n∑

j=1

w2jw

2k

ln2

= w2k

(

1 +n∑

j=1

w2j

ln2

)

.

Also

P(Dk 6= Zk) ≤ P(Dk 6= Yk) + P(Yk 6= Zk) ≤ 2w2k

n∑

j=1

w2j

ln2+w2

k

ln

108

wie benotigt. Somit ist der erste Teil des Satzes bewiesen.

Um den zweiten Teil herzuleiten, genugt es zu zeigen, dass man (D1, . . . , Dm) an einenunabhangigen Vektor (D1, . . . , Dm, so dass

P((D1, . . . , Dm) 6= (D1, . . . , Dm)) → 0. (10.1)

Sei wieder Xij der Indikator dafur, ob die Kante (i, j) gesetzt ist. Die Zufallsvariablen(Xij) sind naturlich unabhangig mit Parameter (pij). Seien (X ′

ij) unabhangige (Bernoulli-)Variablen, die unabhangige Kopien von (Xij) sein sollen. Sei

D′i =

j<i

X ′ij +

n∑

j=i+1

Xij.

Offenbar istDi

D= D′

i.

Wahrend Di und Dj unabhangig sind (beide enthalten Xij), sind D′i und D′

j unabhangig(denn das eine enthalt X ′

ij , das andere Xji = Xij). Also ist

(D′1, . . . , D

′m)

unabhangige Summe unabhanger Bernoulli-Variablen. Nun ist

(D1, . . . , Dm) 6= (D1, . . . , Dm)

dann, und nur dann, wenn es i, j ∈ 1, . . . , m gibt mit

Xij 6= X ′ij,

d. h. entweder ist Xij = 0 und X ′ij = 1 oder andersrum?? Also

P((D1, . . . , Dm) 6= (D1, . . . , Dm)) ≤ 2

m∑

i,j

P(xij = 1) = 2

m∑

i,j=1

pi,j.

Nach Voraussetzung ist pij −→n→∞

0, so dass (9.1) gilt. Also folgt die zweite Behauptung

und damit der ganze Satz. 2

Der Beweis von Korollar 10.3 gestaltet sich erstaunlich aufwandig.

Beweis von Korollar 10.3: Man uberlegt sich zunachst, dass x 7→ (1−Fw)−1(x) nicht-wachsend, so dass

1

n

n∑

i=1

w2i =

1

n

n∑

i=1

(1 − Fw)−1(i

n)2

≤ (1 − Fw)−1(1

n

1

n

n∑

i=1

(1 − Fw)−1(i

n).

109

Nun behaupten wir, dass

(1 − Fw)−1(1

n) = o(n),

da dies aquivalent ist zu (1−Fw)−1( 1n) ≤ an fur jedes ε > 0 und n hinreichend groß. Dies

wiederum ist aquivalent zu

Fw(ε) ≥ 1 − 1

n,

d. h.1 − Fw(εn) = P(w1 > εn) ≤ Yn.

Nun gilt aber sogar

P(w1 > εn) = o(1

n).

Außerdem ist (Ubung):

1

n

n∑

i=1

(1 − Fw)−1(i

n) ≤ E[F−1

w (U)] = EW,

wobei W die Verteilungsfunktion F hat. Da EW <∞ ist, folgt

1

n

n∑

i=1

w2i ≤ F−1

w (1 − 1

n)EW = o(n),

da ln = Θ(n). Mithilfe von Satz 10.1a) konnen wir daher schließen, dass der Grad jedes

Knotens, fur den w(n)k beschrankt, annahernd Poi(w

(n)k )-verteilt ist. Da w

(n)

B(n) mit großerWahrscheinlichkeit beschrankt ist, konnen wir Satz 9.1a) anwenden.

Da eine gemischte Poisson-Zufallsvariable gegen eine Limes-gemischte Poisson-Zufallsvariablekonvergiert, wenn die Mischugnsverteilungen in Verteilung konvergieren, genugt es zu zei-gen, dass das Gewicht eines nach der Gleichverteilung gezogenen Vertex eine Limesver-teilung hat, die durch F gegeben ist.

Sei D der Grad eines nach der Gleichverteilung gezogenen Knoten. Nach Satz 10.1 giltfur ein rein zufalliges B(n) in 1, . . . , n

P(D = x) =

n∑

i=1

P(Di = x|B(n) = i)P(B(n) = i)

=1

n

n∑

i=1

P(Di = x|B(n) = i)

=1

n

n∑

i=1

P(Poi(w(n)i ) = x) + o(1).

Sind nun die Gewichte so gegeben wie im Korolalr, so ergibt sich

P(D = x) =1

n

n∑

i=1

P(Poi(w(n)i ) = x) + o(1)

=1

n

n∑

i=1

P(Poi((1 − Fw)−1(i

n)) = x) + o(1)

= P(Poi((1 − Fw)−1(Un)) = x) + o(1),

110

wobei Un eine diskrete Zufallsvariable mit Werten in 0, 1n, . . . , n−1

n ist. Daher folgt

P(D = x) = E[e−(1−Fw)−1(Un) ((1 − Fw)−1(Un))

x!+ o(1).

Nun konvergiert aber

UnD−→ U,

wobei U die Gleichverteilung auf [0, 1] ist, und da fur jedes x ≥ 0 die Funktion

y 7→ e−y yx

x!

stetig und beschrankt ist, folgt

e−(1−Fw)−1(Un) (1 − Fw)−1(Un)x

x!→ e−(1−Fw)−1(U) (1 − Fw)−1(U)x

x!.

Da all diese Großen Wahrscheinlichkeiten sind und somit zwischen 0 und 1 liegen, folgtmit majorisierter Konvergenz

P(D = x) = E

[

e−(1−Fw)−1(U) (1 − Fw)−1(U)∗

x!

]

+ o(1) = E

[

e−wWx

x!

]

+ o(1),

wenn W die verteilungsfunktion Fw hat. Also hat D eine gemischte Poisson-Verteilungmit Mischungsverteilung Fw.

Der Beweis von Teil b) ist ahnlich zum Beweis von Satz 10.1 b). 2

Satz 10.1 macht Aussagen uber ein festes Element der Gradfolge. Ahliche Resultate las-sen sich auch fur die gesamte Gradfolge ableiten. Hierzu betrachten wir die empirischeVerteilungsfunktion

L(n)n =

1

n

n∑

i=1

1lDi=k.

Wir wollen den folgenden Satz zeigen:

Satz 10.4 Die Gewichte seien gegeben durch

wi = [1 − Fw]−1(i

n)

fur eine Verteilungsfunktion Fw mit endlichem Erwartungswert. Dann gilt fur jedes ε > 0

P(∑

k

Lnk − pk| ≥ ε) → 0,

wobei

pk = E[e−wwk

k!]

und W die Verteilungsfunktion Fw besitzt.

111

Beweis: Es ist∑

k

|P (n)k − pk| = 2dTV (L(n), p).

Man uberlegt sich schnell,d ass fur zwei Wahrscheinlichkeiten µ und ν auf N0 gilt

dTV (µ, ν) → 0 ⇔ maxi

|µ(i) − ν(i)| → 0.

Dies impliziert insbesondere

P(∑

k

|L(n)k − pk| ≥ ε) ≤

k

P(|L(n)k − pk| ≥ ε).

Nun istEL

(n)k = P(D1 = k).

Man kann nun zeigen, dass tatsachlich P(D1 = k) gegen pk konvergiert und zwar gleichmaßigin l, dass also

maxk

|EL(n)k − pk| ≤

ε

2

fur hinreichend großes n gilt (Ubung). Also folgt fur alle großen n

P(maxk

|L(n)k − pk| ≥ ε) ≤

∞∑

k=0

P(L(n)k − ELn

k ≥ ε

2).

Mithilfe der Chebyshev-Ungleichung erhalten wir

P(|L(n)k − EL

(n)k |Eε

2) ≤ 4

ve2VL

(n)k .

Setzt man die Definition L(n)k ein, so sieht man, dass

E(L(n)k )2 =

1

k2

1≤i,j≤n

P(Di = Dj = k) =1

nP(D1 = k) +

n− 1

nP(D1 = D2 = k).

Somit erhalten wir

VL(n)k ≤ 1

nP(D1 = k) + (P(D1 = D2 = k) − P

2(D1 = k)).

Nun sind die Grade asymptotische unabhangig, also folgt

P(D2 = k|D2 = k) − P(D1 = k) = o(1).

Somit ergibt sich

P(maxk

|L(n)k − EL

(n)k | ≥ ε

2) ≤ 4

ε2

k

V(P(n)k )

≤ 4

ε2

k

P(D1 = k)(1

n+ P(D2 = k|D1 = k) − P(D1 = k)).

Dies konvergiert wegen dominanter Konvergenz gegen 0 (Ubung). 2

112