Korpuslinguistik für und mit Computerlinguistik

14
Korpuslinguistik für und mit Computerlinguistik Seminar SS 2003 Sitzung 3: Statistik, Vektoren Gerold Schneider

description

Korpuslinguistik für und mit Computerlinguistik. Seminar SS 2003 Sitzung 3: Statistik, Vektoren Gerold Schneider. Übersicht. Wahrscheinlichkeitsrechnung Maximum Likelihood Estimation (MLE) Informationstheorie Statistische Tests Sprachmodelle Vektoren (Igor). Bedingte Wahrscheinlichkeit. - PowerPoint PPT Presentation

Transcript of Korpuslinguistik für und mit Computerlinguistik

Page 1: Korpuslinguistik für und mit Computerlinguistik

Korpuslinguistik für und mit Computerlinguistik

Seminar SS 2003

Sitzung 3: Statistik, Vektoren

Gerold Schneider

Page 2: Korpuslinguistik für und mit Computerlinguistik

Gerold Schneider: Korpuslinguistik für Computerlinguistik, III

2

Übersicht

Wahrscheinlichkeitsrechnung Maximum Likelihood Estimation (MLE) Informationstheorie Statistische Tests Sprachmodelle Vektoren (Igor)

Page 3: Korpuslinguistik für und mit Computerlinguistik

Gerold Schneider: Korpuslinguistik für Computerlinguistik, III

3

Bedingte Wahrscheinlichkeit

Zusatzinfo verändert Wahrscheinlichkeit Priori und posteriori Wahrscheinlichkeit Definition:

)(

)()|(

Bp

BApBAp

mehr B auch in A

mehr B ausser-halb A

Page 4: Korpuslinguistik für und mit Computerlinguistik

Gerold Schneider: Korpuslinguistik für Computerlinguistik, III

4

Bedingte Wahrscheinlichkeit: Bayes'

)(

)()|(

Bp

BApBAp

)()()|( BApBpBAp

)(

)()|(

Ap

BApABp

)(

)()|(

)(

)()|(

Ap

BpBAp

Ap

BApABp

Page 5: Korpuslinguistik für und mit Computerlinguistik

Gerold Schneider: Korpuslinguistik für Computerlinguistik, III

5

Bayes: Medizinische Tests als Beispiel

Eine seltene Krankheit befällt 0.2 % der Bevölkerung: P(I)=.002 Die Erkennungsrate des Tests ist 98 %: P( |I)=.98, P( |I')=.02⊕ ⊕ Mein Test sagt ! Wie gross ist die Gefahr, dass ich krank bin?⊕

Bayes:

krank (I), richtig erkannt ( |I)⊕P( ) = ?. 2 Wege zu ⊕ ⊕

gesund (I'), nur falsch gestestet ( |⊕I')

% 8.94 )(.02)(.998)(.98)(.002

)(.98)(.002

))P(I'I'|P(I)P(I)|P(

I)P(I)|P()|P(I

)P(

I)P(I)|P()|P(I

Page 6: Korpuslinguistik für und mit Computerlinguistik

Gerold Schneider: Korpuslinguistik für Computerlinguistik, III

6

Maximum Likelihood Estimation (MLE)

Eine einfache Methode, (bedingte) Wahrscheinlichkeiten aufgrund von empirischen Daten zu schätzen (estimate).

Wir kennen die „wirklichen“ Wahrscheinlichkeiten nicht, aber wir beobachten empirische Werte. Wir nehmen an, dass diese mit grösster Wahrscheinlichkeit (maximum likelihood) die „wirklichen“ Wahrscheinlichkeiten annähern.

Statt freq oft auch f oder # (number of) oder C (count)

)(

) ( tagging..,

)(

)(^

)(

)()|(

B

AB

tagf

tagtagfBz

Bfreq

BAfreq

Bp

BApBAp

Page 7: Korpuslinguistik für und mit Computerlinguistik

Gerold Schneider: Korpuslinguistik für Computerlinguistik, III

7

Informationstheorie

„Information Theory is interested in the situation before the reception of a symbol, rather than the symbol itself“ (Oakes)

Information und Informatik: Binarität. Entropie H=Anzahl der nötigen Binärentscheidungen.

log2 aufgrund der Binarität. Es gilt:

Xx

xpxpXH )(log)()( 2

)(log32.3)2(log

)(log)(log 10

10

102 M

MM

Page 8: Korpuslinguistik für und mit Computerlinguistik

Gerold Schneider: Korpuslinguistik für Computerlinguistik, III

8

Informationstheorie: Entropie

Spezialfall: Equiprobabilität (alle p(x) gleich: p(x)=1/X))

p * Baumtiefe B = log2 X = - log2 (1/X) drückt aus: 2B = X

B = # Binärentscheidungen=Pfadlänge=Baumtiefe

E.g. log2 256= - log2 (1/256) = 8

Bei Nicht-Equiprobabilität gewichtet mit p(x): „Tieferer Baum für seltenes, den tieferen Baum selten nehmen“ optimale Bitkürze

Perplexity(X) = 2H = Durchschnittliche Pfadlänge

)(log)(log)()( 22 xpxpxpXHXx

Page 9: Korpuslinguistik für und mit Computerlinguistik

Gerold Schneider: Korpuslinguistik für Computerlinguistik, III

9

Informationstheorie: Co-occurrence, Statistische Tests („goodness of fit“)

Mutual Information:

Relative Entropie (Kullback-Leibler):

Xx xq

xpxpqpD

)(

)(log)()||( 2

)(

)|(log

)(

)|(log);( 22 ip

hip

hp

ihpihI

Page 10: Korpuslinguistik für und mit Computerlinguistik

Gerold Schneider: Korpuslinguistik für Computerlinguistik, III

10

Statistische Tests: 2

Basiert nicht auf Informationstheorie, sondern eher auf Standardabweichung=s, Variance=s2:

Abweichung vom Schnitt im Quadrat, pro Anzahl Werte Chi-Quadrat= 2:

Abweichung vom Modell E im Quadrat, im Verhältnis zum jeweiligen Wert e

N

nn oo

ns

1

22 )(1

1

N

n n

nn

e

eo

1

22 )(

Page 11: Korpuslinguistik für und mit Computerlinguistik

Gerold Schneider: Korpuslinguistik für Computerlinguistik, III

11

Statistische Tests: G2 = Log-likelihood

Dem 2 Test eng verwandt

Besonders erfolgreich für Kollokationen:

E =

N

nnnn eooG

1

2 )log(log2

O: w1 ¬w1

w2 a b

¬w2 c d

totalgrand

marginalcolumn totalrow

)log()(

)log()()log()(

)log()()log()(

loglogloglog(2log

dcbadcba

cacababa

cacababa

ddccbbaa

Page 12: Korpuslinguistik für und mit Computerlinguistik

Gerold Schneider: Korpuslinguistik für Computerlinguistik, III

12

Sprachmodelle: Abhängigkeiten und Unabhängigkeitsannahmen I

In Bigramm-Tagger ist p(Tag) als abhängig modelliert nur vom vorhergehenden Tag: Wort: bzw.

)|( 1 nn TagTagp

)|( nn WortTagp )|( nn TagWortp

Page 13: Korpuslinguistik für und mit Computerlinguistik

Gerold Schneider: Korpuslinguistik für Computerlinguistik, III

13

Sprachmodelle: Abhängigkeiten und Unabhängigkeitsannahmen II

Ein „vollständiges“ Sprachmodell berücksichtigte enorm viele weitere Abhängigkeiten: längere Distanz, Struktur,Prosodie,...

die ... sitzende Frau [die [...PP] sitzende Frau NP]

DIE ... sitzende Frau die auf der Bank sitzende Frau meine ich, nicht jene. Männer. Die auf der Bank sitzende Frau, auf sie wartend, suchen. Anno Domini 1712. Die auf der Bank sitzende Frau. Ora Cenae.

Page 14: Korpuslinguistik für und mit Computerlinguistik

Gerold Schneider: Korpuslinguistik für Computerlinguistik, III

14

Sprachmodelle: Abhängigkeiten, Komplexität, Auftretenshäufigkeit

Mit zunehmender Feinheit des Sprachmodells verschlimmern sich zwei Probleme:

Grösse des Suchraumes: kann schon für ein Bigramm-Modell enorm sein cutoff, dynamische Programmierung (Viterbi). Vgl. Zeitaufwand fürs Training des Brill-Taggers.

Seltenes Auftreten (sparse data): schon bei Bigrammen ein Problem für p(Wort|Tag) falls Wort unbekannt. Bei Trigrammen wird ein backoff zu Bigrammen verwendet. Quadrigramme sind so sparse, dass sie keine Taggingverbesserung mehr bringen.