Theorie des Algorithmischen Lernens Sommersemester · PDF fileTheorie des Algorithmischen...

25
Theorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Transcript of Theorie des Algorithmischen Lernens Sommersemester · PDF fileTheorie des Algorithmischen...

Page 1: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Theorie des Algorithmischen LernensSommersemester 2007

Teil 4: Lernen rekursiver Funktionen

Version 1.0

Page 2: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Gliederung der LV

Teil 1: Motivation1. Was ist Lernen2. Das Szenario der Induktiven Inf erenz3. Naturlichkeitsanforderungen

Teil 2: Lernen formaler Sprachen1. Grundlegende Begriffe und Erkennungstypen2. Die Rolle des Hypothesenraums3. Lernen von Patternsprachen4. Inkrementelles Lernen

Teil 3: Lernen endlicher Automaten

Teil 4: Lernen berechenbarer Funktionen1. Grundlegende Begriffe und Erkennungstypen2. Reflexion

Teil 5: Informationsextraktion1. Island Wrappers2. Query Scenarios

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–1 c© G. Grieser

Page 3: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

7 Parameters of Inductive Inference

1. zu lernende Objekte totale berechenbare Funktionen

2. Beispiele (Syntax) Paare von Ein-/Ausgabewerten

3. Beispiele (Semantik)im Limes korrekte und vollstandige Beschreibung der Funktion

4. Lernverfahren berechenbare Funktion

5. Hypothesenraum (Syntax) Naturliche Zahlen

6. Semantik von Hypothesen Programm in festgelegter Programmiersprache

7. Erfolgskriterium Konvergenz im Limes

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–2 c© G. Grieser

Page 4: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

BegriffeIN . . . Menge der naturlichen Zahlen {0,1,2,. . .}

P . . . Menge aller berechenbaren (partiell-rekursiven) FunktionenPn . . . Menge aller berechenbaren (partiell-rekursiven) n-stelligen FunktionenR . . . Menge aller uberall definierten berechenbaren (allgemein-rekursiven, oder

kurz rekursiven) Funktionen

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–3 c© G. Grieser

Page 5: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Godelnumerierungen

Definition 4.1:Eine Funktion ϕ : IN × IN → IN heißt Godelnumerierung der einstelligen bere-chenbaren Funktionen gdw.

1. ϕ ist berechenbar, d.h. ϕ ∈ P2.

2. ϕ ist universell fur P1, d.h. ∀f ∈ P1 ∃j ∈ IN ∀x ∈ IN : ϕ(j, x) = f(x).

3. Jede Aufzahlung berechenbarer Funktionen kann nach ϕ ubersetzt werden, d.h.∀ψ ∈ P2 ∃c ∈ R ∀x ∈ IN : ψ(i, x) = ϕ(c(i), x).

Schreibweise: ϕi(x) statt ϕ(i, x)

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–4 c© G. Grieser

Page 6: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Information

Definition 4.2:Eine Informationsfolge σ fur eine allgemein-rekursiven Funktion f ist eine Folge{(xi, yi)}i∈IN so daß folgendes gilt:• f(xi) = yi

• jedes x ∈ IN kommt in σ vor, d.h. {xi | i ∈ IN} = IN

• Wir beschranken uns zunachst auf Standardreihenfolge, d.h. σ = (0, f(0)),(1, f(1)), (2, f(2)), . . ..– auch als Graph bezeichnet

• Anfangsstucke wie ublich

– spezielle Notation fur Graphen: f [n] = (0, f(0)), . . . , (n, f(n))∗ abgekurzt durch f(0), f(1), . . . , f(n)

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–5 c© G. Grieser

Page 7: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Lernen im Limes

analog zu formalen Sprachen

Definition 4.3:Ein Lernverfahren M ∈ P lernt eine Funktion f ∈ R im Limes genau dannwenn:1. M berechnet fur jedes Anfangsstuckvon f eine Hypothese,

d.h. ∀n ∈ IN : M(f [n]) ↓2. M konvergiert gegen eine korrekte Hypothese,

d.h. ∃h ∈ IN : ϕh = f und ∃m ∈ IN ∀n ≥ m : M(f [n]) = h.M lernt eine Klasse U ⊆ R im Limes gdw. es jede Funktion aus der Klasse lernt(Bezeichnung: U ⊆ LIM(M)).Die Menge aller Klassen allgemein-rekursiver Funktionen, die von einem berechen-baren Lernverfahren gelernt werden, heißt LIM. Also,LIM = {U ⊆ R | ∃M ∈ P : U ⊆ LIM(M)}.

Anmerkung: Wenn man formal ganz sauber sein will, muß man noch eine Kodierungvon Anfangsstucke nach IN definieren, da unsere Lernverfahren aus P sind, d.h.uber nat. Zahlen arbeiten.

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–6 c© G. Grieser

Page 8: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Finites Lernen

analog zu formalen Sprachen

Definition 4.4:Ein Lernverfahren M lernt eine Funktion f ∈ R finit im Limes genau dann wenn esein d ∈ R gibt, so daß:1. M berechnet fur jedes Anfangsstuck von f eine Hypothese,

d.h. ∀n ∈ IN : M(f [n]) ↓,2. M konvergiert gegen eine korrekte Hypothese,

d.h. ∃h ∈ IN : ϕh = f und ∃m ∈ IN ∀n ≥ m : M(f [n]) = h3. d zeigt die Endhypothese an,

d.h. ∀n ∈ IN : d(f [n]) = 1 ⇔M(f [n]) = h.Erkennungstyp: FIN

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–7 c© G. Grieser

Page 9: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Konsistentes Lernen

analog zu formalen Sprachen

Definition 4.5:Ein Lernverfahren M ∈ P lernt eine Funktion f ∈ R konsistent im Limes genaudann wenn:1. M berechnet fur jedes Anfangsstuck von f eine Hypothese,

d.h. ∀n ∈ IN : M(f [n]) ↓,2. M konvergiert gegen eine korrekte Hypothese,

d.h. ∃h ∈ IN : ϕh = f und ∃m ∈ IN ∀n ≥ m : M(f [n]) = h3. Jede Hypothese von M ist konsistent,

d.h. ∀n ∈ IN ∀x ≤ n : ϕM(f [n])(x) = f(x).Erkennungstyp: CONS

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–8 c© G. Grieser

Page 10: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Totale Hypothesen

Definition 4.6:Ein Lernverfahren M ∈ P lernt eine Funktion f ∈ R mit totalen Hypothesen imLimes genau dann wenn:1. M berechnet fur jedes Anfangsstuck von f eine Hypothese,

d.h. ∀n ∈ IN : M(f [n]) ↓,2. M konvergiert gegen eine korrekte Hypothese,

d.h. ∃h ∈ IN : ϕh = f und ∃m ∈ IN ∀n ≥ m : M(f [n]) = h,3. jede Hypothese von M ist total,

d.h. ∀n ∈ IN : ϕM(f [n]) ∈ R.Erkennungstyp: TOTAL

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–9 c© G. Grieser

Page 11: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Erste Einsichten

Theorem 4.1:FIN ⊆ TOTAL ⊆ CONS ⊆ LIM

Beweis.

→ Ubungsaufgabe

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–10 c© G. Grieser

Page 12: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Beispielklassen

Beispiel 1:Functions of finite support:UFFS = {f ∈ R | f(x) > 0 nur fur endlich viele x ∈ IN}

Menge aller primitiv-rekursiven FunktionenSelbstbeschreibende Funktionen:US = {f ∈ R | ϕf(0) = f}US1 = {f ∈ R | ϕf(0) = f, f(x) > 0 fur alle ∈ IN}

Selbstbeschreibung → Quines

Beispiel fur Java:import java.text.*;class a{public static void main(String x[]){char b[]={34};char c[]={123};String s[]=new String[3];s[0]="import java.text.*;class a{2}public static void main(String x[]){2}char b[]={2}34};char c[]={2}123};String s[]=new String[3];s[0]={1}{0}{1};s[1]=new String(b);s[2]=new String(c);System.out.println(MessageFormat.format(s[0],s));}}";s[1]=new String(b);s[2]=new String(c);System.out.println(MessageFormat.format(s[0],s));}}

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–11 c© G. Grieser

Page 13: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Lernen durch totale Verfahren

• in Bedingung 1 Termination nur fur Anfangsstucke der Zielfunktion gefordert– Macht das einen Unterschied?

• Konnen nun noch fordern, daß IIM total ist

Definition 4.7:Sei ET ein Erkennungstyp.R−ET bezeichnet die Menge aller lernbaren Funktionen-klassen, fur die es eine totale IIM gibt.Erkennungstypen: R-LIM, R-FIN, R-CONS, ...

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–12 c© G. Grieser

Page 14: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Lernen durch totale Verfahren

Theorem 4.2:R-LIM = LIM.R-TOTAL = TOTAL.R-FIN = FIN.

Beweisidee.

Gegeben: IIM M ∈ P

M ′(f [n]):Suche das großte k ≤ n, so daßM(f [k]) innerhalb von n Schritten eine Hypotheseberechnet.Falls solch ein k gefunden, gib M(f [k]) aus, ansonsten eine Defaulthypothese.

Analyse:

• M ′ ∈ R

• Wenn M eine Funktion im Limes lernt, dann auch M ′

Beweis fur TOTAL und FIN analog. qed

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–13 c© G. Grieser

Page 15: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Konsistentes Lernen durch totale Verfahren

Theorem 4.3:R-CONS ⊂ CONS

ohne Beweis

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–14 c© G. Grieser

Page 16: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Konsistentes Lernen vs. Lernen im Limes

Theorem 4.4:CONS ⊂ LIM

Wir zeigen: US1 ∪ UFFS ∈ LIM \ CONS

Wir definieren ein Aufzahlung ψ rekursiver Funktionen wie folgt:

ψi(0) = i

ψi(x+ 1) =

{

1 : M(ψi[x]) 6= M(ψi[x] ◦ 1)2 : sonst

Analyse:1. ψi ist berechenbar

• trivial2. UFFS ist anfangsstuckvollstandig

• deshalb: M(τ) ist definiert fur jedes beliebige Anfangsstuck τ• insbesondere ist M(τ) konsistent fur jedes τ

3. ψi ist total4. entweder arbeitet M auf dem Graph von ψi inkonsistent oder M konvergiert

nicht

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–15 c© G. Grieser

Page 17: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Konsistentes Lernen vs. Lernen im Limes

Wir haben nur ein Problem: M muß ja ψi mglw. gar nicht lernen, d.h. giltψi ∈ US1 ∪ UFFS?

Theorem 4.5:FixpunktsatzFur jede Godelnumerierung ϕ gilt:Fur jede allgemein-rekursive Funktion f ∈ R existiert ein n ∈ IN (der Fixpunkt) sodaß ϕn = ϕf(n) gilt.

Wir bringen nun alles zusammen

• Bedingung 3 der Godelnumerierung:∀ψ ∈ P2 ∃c ∈ R ∀x ∈ IN : ψi(x) = ϕc(i)(x).

• c ∈ R → es gibt einen Fixpunkt i∗, d.h. ϕi∗ = ϕc(i∗)

• ψi∗ = ϕc(i∗) = ϕi∗

• nach Definition gilt ϕi∗(0) = i∗ und ϕi∗(x) > 0 fur alle x ∈ IN

• daraus folgt: ϕi∗ ∈ US1 ∪ UFFS

Aber: M kann ϕi∗ nicht konsistent lernen!

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–16 c© G. Grieser

Page 18: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Konsistentes Lernen vs. Lernen im Limes

US1 ∪ UFFS ∈ LIM → Ubungsaufgabe

qed

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–17 c© G. Grieser

Page 19: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Total-Konsistentes Lernen

Es gibt einen Unterschied im konsistenten Lernen fur totale und partielle IIMs.

Aber: Auch R-CONS-Maschinen mussen jedoch nicht uberall konsistent sein,sondern nur auf Anfangsstucken zu lernender Funktionen.

Definition 4.8:Ein Lernverfahren M heißt total-konsistent gdw. M ∈ R und ∀f ∈ R ∀n ∈ IN :ϕM(f [n])[n] = f [n].T-CONS= {U ⊆ R | ∃M ∈ R : M ist total-konsistent und U ⊆ LIM(M)}.

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–18 c© G. Grieser

Page 20: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Total-Konsistentes Lernen

Der vorige Beweis ergibt auch direkt die Einsicht, daß US /∈ T-CONS gilt.

Theorem 4.6:T-CONS ⊂ R-CONS.T-CONS#FIN.

Ohne Beweis:

Theorem 4.7:T-CONS#TOTAL.R-CONS#TOTAL.

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–19 c© G. Grieser

Page 21: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Grenzen des Lernens im Limes

Theorem 4.8:LIM ⊂ ℘(R)

US ∪ UFFS /∈ LIM

Beweis wie eben, nur etwas komplizierter...

Wir definieren ein Aufzahlung ψ rekursiver Funktionen wie folgt:

Schritt 0: ψi(0) = iSchritt n > 0: Sei ψi bis zu Stelle x definiert.Suche das kleinste j ∈ IN so daß

(a) M(ψi[x]) 6= M(ψi[x] ◦ 1 ◦ 0j) oder

(b) M(ψi[x]) 6= M(ψi[x] ◦ 2 ◦ 0j)

gilt.Im Fall (a) setze ψi fort mit 1 ◦ 0j , im Fall (b) mit 2 ◦ 0j .

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–20 c© G. Grieser

Page 22: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Was ist eigentlich mit Identification byEnumeration?

Definition 4.9:Eine FunktionenklasseU ⊆ R heißt effektiv aufzahlbar (U ∈NUM) gdw. ∃g ∈ R :U ⊆ {ϕg(n) | n ∈ IN} ⊆ R.

Theorem 4.9:NUM ⊆ TOTAL.NUM ⊆ T-CONS.

Wegen US und UFFS wissen wir nun:

Folgerung 4.10:NUM ⊂ TOTAL.NUM ⊂ T-CONS.NUM#FIN.

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–21 c© G. Grieser

Page 23: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Exakte Aufzahlbarkeit

Achtung: es gibt noch die exakte Variante von Aufzahlbarkeit:

Definition 4.10:Eine Funktionenklasse U ⊆ R heißt exakt effektiv aufzahlbar (U ∈NUM!) gdw.∃g ∈ R : U = {ϕg(n) | n ∈ IN}.

Theorem 4.11:NUM! ⊂ NUM.

Beweis.

Sei M irgendeine nicht-aufzahlbare Menge von Zahlen. Betrachte die Teilmenge Ualler konstanten Funktionen, die M entspricht.

Die Menge aller konstanten Funktionen ist klarerweise aufzahlbar, also auch U . U istaber nicht exakt aufzahlbar...

qed

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–22 c© G. Grieser

Page 24: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Was passiert bei Nicht-Standardreihenfolge?

Mit ETarb bezeichnen wir die Erkennungstypen, bei denen die IIM die Zielfunktion aufbeliebigen Informationsfolgen erkennen muß.

Theorem 4.12:LIMarb = LIM .TOTALarb = TOTAL.FINarb = FIN.

Beweis.

→ Ubungsaufgabe

Theorem 4.13:CONSarb ⊂ CONS.R-CONSarb ⊂ R-CONS.T-CONSarb ⊂ T-CONS.

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–23 c© G. Grieser

Page 25: Theorie des Algorithmischen Lernens Sommersemester  · PDF fileTheorie des Algorithmischen Lernens Sommersemester 2007 Teil 4: Lernen rekursiver Funktionen Version 1.0

Literatur:

[4] K.P. Jantke & H.-R. Beick: Combining Postulates of Naturalness in InductiveInference. Elektronische Informationsverarbeitung und Kybernetik 17,pp. 465–484, 1981.

[5] R. Wiehagen & Th. Zeugmann: Learning and Consistency. In: Jantke & Lange(eds.) Algorithmic Learning for Knowledge-Based Systems, Lecture Notes inArtificial Intelligence 961, pp. 1–24, Springer-Verlag 1995.

Alg. Lernen Teil 4: Lernen rekursiver Funktionen (V. 1.0) 4–24 c© G. Grieser