Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt ›...

103
Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung Informations- und Kodierungstheorie Dr.-Ing. Elke Franz [email protected] Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020 SS 2020 Informations- und Kodierungstheorie 1

Transcript of Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt ›...

Page 1: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Informations- und Kodierungstheorie

Dr.-Ing. Elke [email protected]

Foliensatz: Dr.-Ing. Dagmar Schönfeld

SS 2020

SS 2020 Informations- und Kodierungstheorie 1

Page 2: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Organisatorisches

Was Sie wissen sollten:Einschreibung in jExam (Vorlesung und Übung) und OPALFolienskript komplett im NetzSkript enthält keine Beispiellösungen!Beispiele werden an der Tafel vorgerechnet bzw. sind im Begleitbuchzu findenErgänzende/Vertiefende Folienvorlagen zur Vorlesung werden imNetz bereitgestelltZur Klärung von Fragen: Übung, E-Mail, APB 3069Begleitbuch:D. Schönfeld, H. Klimant, R. Piotraschke.Informations- und Kodierungstheorie. 4. Aufl., Springer, 2012.(im Anhang weiterführende Literatur zu finden)Klausur: handgeschriebenes Formelblatt einseitig A4,

Taschenrechner

SS 2020 Informations- und Kodierungstheorie 2

Page 3: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Gegenstand der Informations- und Kodierungstheorie

Informations- und Kodierungstheorie

C.E. Shannon (1948)1 R.W. Hamming (1950)2

Informationstheorie setzt sich mit zwei Problemstellungen auseinander:Inwieweit lässt sich Information kompakt darstellen?Inwieweit überträgt man Information „fehlerfrei“ (quasi fehlerfrei)?

→ Informationstheorie begründet die Grenzen, was ist erreichbar, was nicht(Zwei Kodierungstheoreme, SHANNON-Grenze „fehlerfreier“ Übertragung)

→ Kodierungstheorie konstruiert praktikable Umsetzungen(weniger komplexe Algorithmen, die sich den Grenzen annähern)

1C.E. Shannon. A Mathematical Theory of Communication. BSTJ 27(1948)379-423, 623-6562R.W. Hamming. Error Detecting and Correcting Codes. BSTJ 29(1950)147-160

SS 2020 Informations- und Kodierungstheorie 3

Page 4: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Information

Statistischer Aspekt

Semantischer Aspekt (Bedeutung der Information)

Pragmatischer Aspekt (Nutzen für den Informationsempfänger)→ Statistische Informationstheorie

Quelle Kodierer Übertragungskanal Dekodierer Senke

Störung

Information ist beseitigte Unbestimmtheit

Das Maß dieser Unbestimmtheit ist äquivalent der Ermittlung derInformationsmenge.

SS 2020 Informations- und Kodierungstheorie 4

Page 5: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Systematisierung

Quelle Kodierer Übertragungskanal Dekodierer Senke

Störung

diskrete Quellen

Einzelquellen Verbundquellen

kontinuierliche Quellen

Informationsquellen

Quellen mitabhängigen Ereignissen

Quellen mitunabhängigen Ereignissen (MARKOW−Quellen)

SS 2020 Informations- und Kodierungstheorie 5

Page 6: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Quellen mit unabhängigen Ereignissen

Definition 2.1Eine Quelle mit dem Alphabet

X = {x1, x2, ..., xN }

und der Verteilung der zugehörigen Auftrittswahrscheinlichkeiten

(p(xi)) = (p(x1), p(x2), ..., p(xN )) , 0 ≤ p(xi) ≤ 1 ,

wobeiN∑

i=1p(xi) = 1 ,

wird als diskrete Quelle mit unabhängigen Ereignissen bezeichnet.

Die Unbestimmtheit (der Informationsgehalt) eines Ereignisses xi ist

Hi = log 1p(xi)

= −log p(xi), im Weiteren Hi = ld 1p(xi)

= −ld p(xi).

SS 2020 Informations- und Kodierungstheorie 6

Page 7: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

(Quellen)Entropie

Für Hi (i = 1, 2, ..., N) gilt dann:

H1 = ld 1p(x1) , H2 = ld 1

p(x2) , ... , HN = ld 1p(xN ) .

Gewichteter Mittelwert HQ = Hm:

Hm =N∑

i=1p(xi) Hi =

N∑i=1

p(xi) ld1

p(xi)= −

N∑i=1

p(xi) ld p(xi)

Hm (Quellen)Entropie, gleichzeitig mittlerer Informationsgehaltin bit/Ereignis, bit/Messwert, bit/(Quellen-)Zeichen = bit/QZ u. ä.

Beispiel N = 2 , (p(xi)) = (p(x1), p(x2)) = (1 0)→ sicheres, unmögliches Ereignis −→ HQ?

Warum log bzw. ld, d. h. Anwendung des logarithm. Informationsmaßes?

SS 2020 Informations- und Kodierungstheorie 7

Page 8: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Maximalwert der Entropie

Sonderfall der Gleichverteilung:

p(xi) = 1N

für alle i

HQ = H0 = ld N

→ Maximalwert der Entropie oder Entscheidungsgehalt der Quelle→ Beweis

Definition 2.2Der Entscheidungsgehalt von zwei unabhängigen und gleichwahrscheinlichenEreignissen einer Quelle

H0 = ld 2 = 1 bit

Ereignis

wird als Einheit der Informationsmenge bezeichnet.

[Begleitbuch, S. 1 - 20]

SS 2020 Informations- und Kodierungstheorie 8

Page 9: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

MARKOW-Quellen

MARKOW-Quellen: diskrete Quellen mit abhängigen EreignissenDas Ereignis x(m+1) tritt unter der Bedingung ein, dass ganz bestimmteEreignisse x(1), x(2), ..., x(m) bereits eingetreten sind.Die Auswahl des Ereignisses x(m+1) erfolgt demnach mit der bedingtenWahrscheinlichkeit

p(x(m+1)|x(m)... x(2) x(1)) .

MARKOW-Quellen erster Ordnung:

p(x(m+1)|x(m)) ,

wofür wir im Folgenden schreiben

p(xj |xi) (i, j = 1, 2, ..., N) .

SS 2020 Informations- und Kodierungstheorie 9

Page 10: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

MARKOW-Quellen

Definition 2.3Eine MARKOW-Quelle ist das mathematische Modell einerInformationsquelle, bei dem die aufeinanderfolgende Auswahl von Ereignissen,d. h. die Folge der Zustände, sowohl von der momentanen Verteilung derAuftritts- bzw. Zustandswahrscheinlichkeiten als auch von der Verteilung derÜbergangswahrscheinlichkeiten abhängt.

Zustandsgraph einer binären MARKOW-Quelle erster Ordnung

1

1

2

( | )( | )1

2

1

21( | )

2

( | )

2p

x

p

x

xx x

x

p xx

p xx

SS 2020 Informations- und Kodierungstheorie 10

Page 11: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

MARKOW-Kette

p(x

p(x

p(x

p(x

p(x

p(x

p(x

p(x

N

1

2

i

j

1

) N

2

)

)

)

)

)

)

)

i|xjp(x )...

......

......

...

Zeitt t+1

Nach dem Satz von der vollständigen Wahrscheinlichkeit gilt:

p(xj)(t+1) =N∑

i=1p(xi)(t) p(xj |xi) (j = 1, 2, ..., N) .

SS 2020 Informations- und Kodierungstheorie 11

Page 12: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Entropie von MARKOW-Quellen

Unbestimmtheit, die in den Übergangsmöglichkeiten von einem beliebigen xi

zu allen xj (j = 1, 2, ..., N) liegt:

Hi =N∑

j=1p(xj |xi) ld 1

p(xj |xi)

Gewichteter Mittelwert über alle xi (i = 1, 2, ..., N):

HQ =N∑

i=1p(xi) Hi

Die Entropie wird für den stationären Fall p(xi) = p(xi) alsMARKOW-Entropie HM bezeichnet:

HQ = HM =N∑

i=1

N∑j=1

p(xi) p(xj |xi) ld 1p(xj |xi)

in bit

Zustand.

[Begleitbuch, S. 20 - 26]

SS 2020 Informations- und Kodierungstheorie 12

Page 13: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Verbundquellen

Wir betrachten gleichzeitig zwei diskrete Quellen X und Y mit denzugehörigen Verteilungen der Auftrittswahrscheinlichkeiten:

(p(xi)) = (p(x1), p(x2), ..., p(xN )) der Ereignisse xi ∈ X

und(p(yj)) = (p(y1), p(y2), ..., p(yM )) der Ereignisse yj ∈ Y .

AnnahmenDie Ereignisse innerhalb jeder Einzelquelle sind voneinander unabhängig.Ein Ereignis in der Quelle X hat ein bedingtes Ereignis in der Quelle Ymit der bedingten Wahrscheinlichkeit p(yj |xi) zur Folge.

Das Auftreten von zwei Ereignissen xi und yj bezeichnet man alsVerbundereignis (xi, yj) . Es tritt mit der Verbundwahrscheinlichkeitp(xi, yj) = p(xi) · p(yj |xi) auf.

SS 2020 Informations- und Kodierungstheorie 13

Page 14: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Verbundquellen

Definition 2.4Die diskreten Quellen X und Y mit den Verbundwahrscheinlichkeiten p(xi, yj)

(i = 1, 2, ..., N), (j = 1, 2, ..., M) ,N∑

i=1

M∑j=1

p(xi, yj) = 1 , bilden eine

Verbundquelle (X, Y ).

Verbundentropie H(X, Y ):

H(X, Y ) =N∑

i=1

M∑j=1

p(xi, yj) ld 1p(xi, yj)

Nach einigen Umformungen:

H(X, Y ) =N∑

i=1p(xi) ld 1

p(xi)+

N∑i=1

M∑j=1

p(xi) p(yj |xi) ld 1p(yj |xi)︸ ︷︷ ︸

H(X)︸ ︷︷ ︸

H(Y |X)

Bedingte Entropie

SS 2020 Informations- und Kodierungstheorie 14

Page 15: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Verbundquellen

Beispiel (p(xi, yj)) =

18

18 0 0

18 0 0 018 0 0 018

18

18

18

N∑i=1

M∑j=1

p(xi, yj) = 1

• p(xi) =M∑

j=1p(xi, yj) (i = 1, 2, ..., N) : (p(xi)) = ( 1

418

18

12 )

• p(yj) =N∑

i=1p(xi, yj) (j = 1, 2, ..., M) : (p(yj)) = ( 1

214

18

18 )

→ H(X) = H(Y ) = 74

bitEreignis

• ∀i, j. p(xi, yj) = p(xi) · p(yj |xi) = p(yj) · p(xi|yj) :

(p(yj |xi)) =

12

12 0 0

1 0 0 01 0 0 014

14

14

14

; (p(xi|yj)) = ?

→ H(Y |X) = 54

bitEreignis

; H(X|Y ) = ?

• H(X, Y ) = 3 bitV erbundereignis

SS 2020 Informations- und Kodierungstheorie 15

Page 16: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Darstellung der Verbundentropie – VENN-Diagramm

H(X, Y ) = H(X) + H(Y |X)H(X, Y ) = H(Y ) + H(X|Y )

AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA

AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA

H(X|Y)

H(X,Y)

H(Y|X)

H(Y)

H(X)

Folgende Schranken gelten für die bedingten Entropien:H(Y |X) ≤ H(Y ) und H(X|Y ) ≤ H(X)

SS 2020 Informations- und Kodierungstheorie 16

Page 17: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Grenzfälle der Abhängigkeiten beider Quellen

a) Vollständige Unabhängigkeit:

Bei unabhängigen Ereignissen gilt p(yj |xi) = p(yj) , d. h.

H(Y |X) = H(Y ) und damit

H(X, Y ) = H(X) + H(Y ) .

H(X) H(Y)

SS 2020 Informations- und Kodierungstheorie 17

Page 18: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Grenzfälle der Abhängigkeiten beider Quellen

b) Vollständige Abhängigkeit:

Bei vollständig abhängigen Ereignissen hat jede Zeile in (p(yj |xi))ein sicheres Folgeereignis, d. h.

H(Y |X) = 0 und damit

H(X, Y ) = H(X) .

H(Y) H(X)

SS 2020 Informations- und Kodierungstheorie 18

Page 19: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Spezielle Verbundquelle (X, X)

→ Quelle mit zwei identischen Ereignismengen

H(X) H(X)

H(X|X) = HM

In diesem Fall gilt für die VerbundentropieH(X) ≤ H(X, X) ≤ 2 · H(X) .

HM = H(X, X) − H(X) ={

H(X) bei vollständiger Unabhängigkeit0 bei vollständiger Abhängigkeit

[Begleitbuch, S. 27 - 33]

SS 2020 Informations- und Kodierungstheorie 19

Page 20: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Kodierung diskreter Quellen

Quelle Kodierer Übertragungskanal Dekodierer Senke

Störung

Unter Kodierung wird i. Allg. ein Vorgang verstanden, bei dem die Elementeeines Alphabets auf die Elemente eines anderen Alphabets (bzw. auf Wörterüber diesem Alphabet) eineindeutig abgebildet werden.Für die Kodierung diskreter Quellen bedeutet dies:Jedes Element des Quellenalphabets X wird einem Element des KanalalphabetsU bzw. einem Wort über U eineindeutig zugeordnet.

Aus praktischen (technischen) Erwägungen beschränken wir uns auf dieBinärkodierung, d. h.U = {0, 1} .

SS 2020 Informations- und Kodierungstheorie 20

Page 21: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Kodierung diskreter Quellen

Quellenkodierung (Optimalkodierung, Kompression)

ist die erste Stufe der Kodierung, bei der die eineindeutige Darstellung derQuelleninformation in einer realisierbaren, möglichst redundanzfreien oderredundanzarmen Form erfolgen soll.

→ verlustfreie Quellenkodierung (Redundanzreduktion)

[ → verlustbehaftete Quellenkodierung (Irrelevanzreduktion) ]

Kanalkodierung,

die sich meistens an die Quellenkodierung anschließt, dient dem Zweck desStörungsschutzes (Schutz gegen zufällige Veränderungen, z. B. durchÜbertragungs/Speicherungsfehler).Sie macht erst quasi fehlerfreie Übertragung/Speicherung möglich.Notwendig: Hinzufügung von Redundanz in Form von zusätzlicherKontrollinformation (Kontrollstellen).

SS 2020 Informations- und Kodierungstheorie 21

Page 22: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Kodierung diskreter Quellen

Kry

ptog

raph

ie

SenkeY

QuelleX kodierer

dekodierer

Kanal

Übertra

mit zusätzlicherRedundanz zum

mit zusätzlicher

gungskanal

Redundanz zumStörungsschutz

Kanal

Störungsschutz

kodiererQuellen

dekodiererQuellen

redundanzfreioder redundanzarm

SS 2020 Informations- und Kodierungstheorie 22

Page 23: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Dekodierbarkeitsbedingung

Definition 3.1Ein ungleichmäßiger Kode, bei dem kein Kodewort den Anfang (Präfix) einesanderen Kodewortes darstellt, wird als präfixfreier Kode bezeichnet(hinreichende Bedingung für Eineindeutigkeit).

Kodebaum – Darstellungsmöglichkeit eines (Quellen-)Kodes

0

0 0 0

0

1 1 1 1

1

0

0

1

1

01 01 1 01 1 1

Komma-kode:

Endknoten=

1

2

3

=

=

=l

l

l

lmax

2

1

3

Von L.G. KRAFT gefundene UngleichungN∑

i=12−li ≤ 1

ist eine notwendige Bedingung für die Dekodierbarkeit.

SS 2020 Informations- und Kodierungstheorie 23

Page 24: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Kodewortlänge und Koderedundanz

Kodewortlänge

• l = ⌈ld N⌉ gleichmäßiger Kode (allg.: l = ⌈ ld N[HK ] ⌉)

HK : Entropie am Kanaleingang des Übertragungskanals

• lm =N∑

i=1p(xi) li ungleichmäßiger Kode

Schranken

• lm ≥ Hm dekodierbarer Kode

• Hm ≤ lm < Hm + 1 redundanzarme Kodierung

• lm = Hm redundanzfreie Kodierung (Möglich?)

p(xi) = 2−li

RK = l(m) [·HK ] − HQ ≥ 0 Koderedundanz

SS 2020 Informations- und Kodierungstheorie 24

Page 25: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Erstes SHANNONsches Kodierungstheorem

Das erste SHANNONsche Kodierungstheorem besagt:

Redundanzfreie Kodierung ist auch für p(xi) = 2−li möglich.Man nimmt eine m-fache Erweiterung der Quelle vor, d. h., die Quellenzeichenwerden nicht einzeln, sondern in Blöcken von m Quellenzeichen kodiert.

m Hm ≤ m lm < m Hm + 1

Hm ≤ lm < Hm + 1m

Im Folgenden: Verfahren der Optimalkodierung→ Verfahren der (annähernd) redundanzfreien Kodierung→ Grundlage bilden N, (p(xi)), (p(xj |xi)), deshalb auch Entropiekodierung

SS 2020 Informations- und Kodierungstheorie 25

Page 26: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Optimalkodierung: SHANNON-FANO-Verfahren (1949)

1. Ordnen der zu kodierenden Quellenzeichen nach fallenden Werten derAuftrittswahrscheinlichkeiten

2. Teilen des geordneten Wahrscheinlichkeitsfeldes in zwei Gruppen; dieTeilsummen der Wahrscheinlichkeiten in jeder Gruppe sollten möglichstgleich groß sein.Aufgrund dieses Teilungsprinzips enthält jeder Teilungsschritt und da-mit jedes Kodewortelement die größte Entropie bzw. Informationsmen-ge.

3. Kodieren nach dem Prinzip, dass der ersten Gruppe immer einheitlichdas Zeichen 0 (bzw. 1) und der zweiten Gruppe immer einheitlich dasZeichen 1 (bzw. 0) zugeordnet wird.

4. Wiederholen der Schritte 2. und 3.; solange, bis jede Teilgruppe nurnoch ein Element enthält.

Beispiel (p(xi)) = (0, 11 0, 30 0, 16 0, 25 0, 06 0, 06 0, 06), lm = ?

SS 2020 Informations- und Kodierungstheorie 26

Page 27: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Optimalkodierung: HUFFMAN-Verfahren (1952)

1. Ordnen des gegebenen Wahrscheinlichkeitsfeldes nach fallenden Wer-ten.

2. Zusammenfassen der letzten zwei Wahrscheinlichkeiten (die mit denkleinsten Werten) zu einem neuen Wert.

3. Erneutes Ordnen des reduzierten Wahrscheinlichkeitsfeldes entspre-chend Schritt 1.

4. Wiederholen der Schritte 2. und 3. solange, bis die Zusammenfassungder beiden letzten Elemente den Wert 1 ergibt.

5. Aufstellen eines Kodebaumes entsprechend dem Reduktionsschemaund Zuordnung der Kodesymbole 0 und 1.

Beispiel

(p(xi)) = (0, 11 0, 30 0, 16 0, 25 0, 06 0, 06 0, 06) , lm = ?

SS 2020 Informations- und Kodierungstheorie 27

Page 28: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

HUFFMAN-Verfahren: Ablauf

x2 x4 x3 x1 x5 x6 x70,30 0,25 0,16 0,11 0,06 0, 06 0, 06︸ ︷︷ ︸0,30 0,25 0,16 0,12 0, 11 0, 06︸ ︷︷ ︸0,30 0,25 0,17 0, 16 0, 12︸ ︷︷ ︸0,30 0,28 0, 25 0, 17︸ ︷︷ ︸0,42 0, 30 0, 28︸ ︷︷ ︸0,58 0,42︸ ︷︷ ︸1

x51x

4x2x

3x

7x6x

1

0,11

0,17 0,25

0,42 0,58

0,06

0,06 0,06

0,12 0,16

0,28 0,30

x5

x

1

6 x7

x3

x2

x4

x

=1001

=101

=11=01

=001

=1000

=000

1

0

0

0

0

0

1

1

10

1

1

lm = 2, 57 KZQZ

SS 2020 Informations- und Kodierungstheorie 28

Page 29: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Erweiterte Quelle

Beispiel m-fache Erweiterung der QuelleEine Binärquelle sei mit p(0) = 0, 8 gegeben.Aufzeigen der Reduzierung von RK mit Erhöhung der Blocklänge von m = 1auf m = 2, 3 (Grundlage: SHANNON-FANO)!

Berücksichtigung von (p(xj |xi))?

Beispiel Beispiel aus Abschnitt zu MARKOW-Quellen

(p(xi)) = (0, 25 0, 25 0, 5) , (p(xj |xi)) → HM = 1, 27 bitQZ

(p(xj |xi)) =

(0, 5 0, 2 0, 30, 1 0, 6 0, 30, 2 0, 1 0, 7

)A∗

1 = {0, 11, 10}, lm,1 = 1, 5 KZQZ

A∗2 = {11, 0, 10}, lm,2 = 1, 4 KZ

QZ

A∗3 = {10, 11, 0}, lm,3 = 1, 3 KZ

QZ

, HQ,1 = 1, 48 bitQZ

, HQ,2 = 1, 30 bitQZ

, HQ,3 = 1, 16 bitQZ

HQ = HM =∑

i

p(xi) HQ,i ; lM =∑

i

p(xi) lm,i = 1, 37 KZQZ

→ RK = 0, 10 bitQZ

Andere Möglichkeiten• LEMPEL-ZIV(-WELCH) (1977)• Arithmetische Kodierung (1979)[Begleitbuch, S. 40 - 59]

SS 2020 Informations- und Kodierungstheorie 29

Page 30: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Übertragungskanal: Störungen

Quelle Kodierer Übertragungskanal Dekodierer Senke

Störung

Störungen• Störungen durch Betriebsmittel (z. B. Unterbrechungen durch

Vermittlungseinrichtungen)• Störungen aus dem Umfeld (z. B. Beeinflussungen durch

Starkstromleitungen, magnetische Streufelder)• thermisches Rauschen der Bauelemente des Übertragungskanals• Funkkanäle: Mehrwegeausbreitung (reflektierende Objekte),

kurzzeitige Abschattungen, NachbarkanalbeeinflussungenTrotzdem: Quasi fehlerfreie ÜbertragungIm Folgenden nur Betrachtungen aus Sicht der Informationsübertragung!

SS 2020 Informations- und Kodierungstheorie 30

Page 31: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

BERGERsches Entropiemodell des ÜbertragungskanalsVorlesung Informations- und Kodierungstheorie 31

BERGERsches Entropiemodelldes Übertragungskanals:

HTQuelleX Y

SenkeH(Y)

H(X)

H(Y|X)

H(X|Y)

H(X) Entropie am Kanaleingang

H(Y ) Entropie am Kanalausgang

H

T

Transinformation

H(XjY ) Äquivokation (Rückschlussentropie)

H(Y jX) Irrelevanz (Störentropie)

Im Idealfall, d. h., der Kanal ist ungestört, giltH(X) = H(Y ) = H

T

:

4 Kanäle 4.1 Diskrete Kanäle 4.1.1 BERGERsches Modell, Transinformation

H(X) Entropie am KanaleingangH(Y ) Entropie am KanalausgangHT TransinformationH(X|Y ) Äquivokation (Rückschlussentropie)H(Y |X) Irrelevanz (Störentropie)

Im Idealfall, d. h., der Kanal ist ungestört, gilt H(X) = H(Y ) = HT .

SS 2020 Informations- und Kodierungstheorie 31

Page 32: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Transinformation

Die Transinformation HT ist die Informationsmenge, die im Mittel durch einKanalzeichen vom Sender zum Empfänger übertragen werden kann:

HT = H(X) + H(Y ) − H(X, Y )

= H(X) − H(X|Y )

= H(Y ) − H(Y |X) in bit/KZ .

Notwendig: Kenntnisse über das Stör-(Übergangs-)verhalten– Statistische Untersuchungen– Übertragungsweg (Kabel, Funk) widerspiegelt typische Fehlerstrukturen→ Nachbildung des Störverhaltens (z. B. Binär-, AWGN-Kanalmodell)

Annahme: (p(yj |xi)) bekannt, N ≤ M

SS 2020 Informations- und Kodierungstheorie 32

Page 33: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

KanalmodellWahrscheinlichkeitstheoretisches Modell eines diskreten Kanals:

-1-1-1 -1

p(x

p(xp(x 0

)

1

X

p(y

p(yp(y

p(y

p(y

p(y

Y

.

....

....

..

...j

1

i

i|x )

|x )

|x )

|x )0

)

))

p(x p(y )p(y |x )

j

))

)

j 0

1 0

p(y0 0

.

M

.N . M

.N

SS 2020 Informations- und Kodierungstheorie 33

Page 34: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Kanalmodell

Interpretation:

• p(yj |xi) und i = j

Wahrscheinlichkeit, mit welcher das gesendete Zeichen xi unverfälschtübertragen wird

• p(yj |xi) und i = j

Wahrscheinlichkeit, mit welcher das gesendete Zeichen xi in das emp-fangene Zeichen yj verfälscht wird

H(Y |X) =∑

i

∑j

p(xi) p(yj |xi) ld 1p(yj |xi)

→ HT = H(Y ) − H(Y |X)

Für eine fehlerfreie Übertragung gilt:p(yj |xi) = 1 für i = j und

p(yj |xi) = 0 für i = j → HT = H(Y )

SS 2020 Informations- und Kodierungstheorie 34

Page 35: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Kanalmodell

Beschreibung der Komponenten durch Vektoren bzw. Matrizen:

(p(xi)) = (p(x0), p(x1), ..., p(xN−1))(p(yj)) = (p(y0), p(y1), ..., p(yM−1))

(p(yj |xi)) =

p(y0|x0) p(y1|x0) . . . p(yM−1|x0)p(y0|x1) p(y1|x1) . . . p(yM−1|x1)

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .p(y0|xN−1) p(y1|xN−1) . . . p(yM−1|xN−1)

(p(xi|yj)) =

p(x0|y0) p(x0|y1) . . . p(x0|yM−1)p(x1|y0) p(x1|y1) . . . p(x1|yM−1)

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .p(xN−1|y0) p(xN−1|y1) . . . p(xN−1|yM−1)

Beispiel Berechnung von HT

(p(xi)) = (0, 2 0, 5 0, 3) ; (p(yj |xi)) =

( 0, 7 0, 1 0, 20, 1 0, 1 0, 80, 3 0, 7 0

)

SS 2020 Informations- und Kodierungstheorie 35

Page 36: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Kanalkapazität diskreter KanäleVorlesung Informations- und Kodierungstheorie 36

Kanalkapazität diskreter Kanäle

QuelleX

SenkeY

I TI Q

KI

I K K

Kanal I K

Ikodierer kodierer

Q KQIQuellen

dekodiererdekodierer

Kanal

gungskanalÜbertra

Quellen

IQ QuelleninformationsflussIKQ QuellenkodeinformationsflussIKK KanalkodeinformationsflussIK Kanalinformationsfluss (= Übertragungsgeschwindigkeit vu)IT Transinformationsfluss

SS 2020 Informations- und Kodierungstheorie 36

Page 37: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Kanalkapazität diskreter Kanäle

Quelleninformationsfluss IQ in bit/s

IQ = fQ HQ (fQ – Quellensymbolfrequenz in QZ/s)

Quellenkodeinformationsfluss IKQ in bit/s

IKQ = fQ l HK (allg. gleichmäßiger Quellenkode: l = ⌈ ld N[HK ] ⌉)

Kanalkodeinformationsfluss IKK in bit/s

IKK = fQ (l + ∆l) HK = fQ n HK (Kanalkode: n = l + k, k ≥ ⌈∆l⌉)

Kanalsymbolfrequenz fK in KZ/s ,

aus der Übertragungstechnik, auch Schrittgeschwindigkeit vs, in Schritt/soder in Baud

Übertragungsgeschwindigkeit vu in bit/s

vu = IK = vs HK

Transinformationsfluss IT in bit/s

IT = vs HT

SS 2020 Informations- und Kodierungstheorie 37

Page 38: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Kanalkapazität diskreter Kanäle

Ungesicherte Übertragung

IK = IKQ IK[unges] = fQ l︸︷︷︸vs

HK

Gesicherte Übertragung

IK = IKK IK[ges] = fQ n︸ ︷︷ ︸vs

HK (Kanalkode bekannt!)

bzw.

IT = IKQ vs = IKQ

HT= fQ l

HK

HT= fQ n (Abschätzung ∆l!)

IK[ges] = IKK = fQ

(l

HK

HT

)HK = vs HK ; ∆l = n − l

Beispiel Berechnung von IK[unges] = vu[unges] , IK[ges] = vu[ges]

Kanalverhältnisse aus letztem BeispielN = 120 QZ , fQ = 100 QZ/s , Z = 3 KZ

SS 2020 Informations- und Kodierungstheorie 38

Page 39: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Kanalkapazität diskreter Kanäle

Der Transinformationsfluss IT auf gestörten Kanälen ist immer kleiner als dieÜbertragungsgeschwindigkeit vu = IK .

Die Frage nach der maximal übertragbaren Information führt zum Begriff derKanalkapazität.

Definition 4.1Die Kanalkapazität C ist der Maximalwert des Transinformationsflusses:

C = max {IT } = max {vs HT } = 2 B HTmax ,

d. h. vs = fQ n ≤ 2 B ..

[Begleitbuch, S. 77 - 90]

SS 2020 Informations- und Kodierungstheorie 39

Page 40: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Gestörter Binärkanal

ε1−

p(x )

p(x )

p(y )

p(y )0

1 1

0

δ

−ε

1 δ

X Y

(p(yj |xi)) =(

1 − ε εδ 1 − δ

)

x0 Zeichen 0 am Kanaleingangx1 Zeichen 1 am Kanaleingangy0 Zeichen 0 am Kanalausgangy1 Zeichen 1 am Kanalausgangε Schrittfehlerwahrscheinlichkeit: statt des gesendeten

Zeichens x0 wird das Zeichen y1 empfangenδ Schrittfehlerwahrscheinlichkeit: statt des gesendeten

Zeichens x1 wird das Zeichen y0 empfangen

SS 2020 Informations- und Kodierungstheorie 40

Page 41: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Gestörter Binärkanal

Berechnung der Transinformation

Gegeben: (p(xi)) , ε , δ

1. Schritt: Ermittlung von (p(yj))

2. Schritt: Ermittlung von H(Y )

3. Schritt: Berechnung von H(Y |X)

4. Schritt: Berechnung der Transinformation HT = H(Y ) − H(Y |X)

Beispiel Berechnung von HT

(p(xi)) = (0, 5 0, 5) , ε = p(y1|x0) = 0, 1 , δ = p(y0|x1) = 0, 05

SS 2020 Informations- und Kodierungstheorie 41

Page 42: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Spezialfälle des gestörten Binärkanals

Symmetrisch gestörter Binärkanalε = δ = ps (ps Schrittfehlerwahrscheinlichkeit)

HT = H(Y ) −(

(1 − ps) ld 1(1 − ps) + ps ld 1

ps

)p(x0) = p(x1) = 1

2 :

HTmax = 1 −(

(1 − ps) ld 1(1 − ps) + ps ld 1

ps

)Einseitig gestörter BinärkanalAnnahme: ε = ps , δ = 0

HT = H(Y ) − p(x0)(

(1 − ps) ld 1(1 − ps) + ps ld 1

ps

)p(x0) = p(x1) = 1

2 :

HT = 1 + 12

((1 + ps) ld 1

(1 + ps) − ps ld 1ps

)

SS 2020 Informations- und Kodierungstheorie 42

Page 43: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Binärkanal mit Störerkennung

y1 1=

y2

yj

yM −1

......

y(t)

t

0=y 0

1-1

-1

.p(y )M

p(x )

p(x0

1

))

0 0

..

.p(y |x

|x

.

p(y

) p(y 1|x )M

p(y |x )j 0

.

.

)jp(y

..j

0

1p(y

p(y

)

)

X YSS 2020 Informations- und Kodierungstheorie 43

Page 44: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Binärkanal mit AuslöschungSpezialfall: Symmetrisch gestörter Binärkanal mit Auslöschung

s

λ

λ

1− −λ

ps1− −λ

ps

ps

p

1

0

2

1

0

p(x ) p(y )

p(y )

p(y )p(x )

y2 – Auslöschungszeichen

p(x0) = p(x1) = 12 :

HTmax = (1 − λ) − psld 1ps

+ (1 − λ)ld 11 − λ

− (1 − ps − λ)ld 11 − ps − λ

1−λ

1−λ

λ

λ

1

0

1

0

2

p(y )

p(y )

p(y )

p(x )

p(x )

p(x0) = p(x1) = 12 : HTmax = (1 − λ)

SS 2020 Informations- und Kodierungstheorie 44

Page 45: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Binärkanal

Beispiel Bewertung von symmetrischen Kanalmodellen

ps

ps

ps1−

ps1−

ps

ps

ps1− −λ

ps1− −λ 1−λ

1−λ

λ

λλ

λ

Kanal 3

0

Kanal 2

1

0

1

2

1

0

1

2

0

Kanal 1

1

0

1

2

0p(x )

p(y )

p(x ) p(y )

p(x )

p(y )

p(y )p(y )p(x )

p(y )

p(x ) p(y )p(x ) p(y )

p(y )

Gegeben: p(x0) = p(x1) = 12(

p(y0)p(y1)p(y2)

)=

( 0, 5 (1 − λ)0, 5 (1 − λ)

λ

)=(

(0, 5 0, 5)(

1 − ps − λ ps λps 1 − ps − λ λ

))T

1 − ps − λ = 0, 98

SS 2020 Informations- und Kodierungstheorie 45

Page 46: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Binärkanal

Ergebnis:

Kanal 1 Kanal 2 Kanal 3p(y0) 0, 5 0, 495 0, 49p(y1) 0, 5 0, 495 0, 49p(y2) 0 0, 01 0, 02H(Y ) 1, 000 bit/KZ 1, 071 bit/KZ 1, 121 bit/KZH(Y |X) 0, 141 bit/KZ 0, 161 bit/KZ 0, 141 bit/KZHTmax 0, 859 bit/KZ 0, 909 bit/KZ 0, 980 bit/KZ

[Begleitbuch, S. 90 - 99]

SS 2020 Informations- und Kodierungstheorie 46

Page 47: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Binärkanal

Kanalkapazität des Binärkanals

Für den ungestörten Fall und unter der Annahme p(x0) = p(x1) gilt:

HTmax = 1 bit/KZ

und

Cmax

/bits

= 2 B/

s−1 .

Die Kanalkapazität eines symmetrisch gestörten Binärkanals mitgleichverteilten Eingangszeichen lautet beispielsweise:

C = 2 B(

1 −(

(1 − ps) ld 1(1 − ps) + ps ld 1

ps

)).

Beispiel Dimensionierung von fQ (Aufg.s.: 3.1, 8. Aufgabe)

(p(xi)) = (0, 1 0, 3 0, 1 0, 05 0, 4 0, 05),(rauschfreier) Binärkanal mit B = 100 Hz, fQ = 80 QZ/s möglich?

SS 2020 Informations- und Kodierungstheorie 47

Page 48: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Analoge Kanäle: Entropie analoger Quellen

f(x

) i

f(x)

∆x0 xi x

Die Wahrscheinlichkeit, dass die zufällige Größe xi im Bereich ∆x liegt,berechnet sich durch

p(xi) =∫

∆x

f(x) dx ≈ f(xi) ∆x .

SS 2020 Informations- und Kodierungstheorie 48

Page 49: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Analoge Kanäle: Entropie analoger Quellen

Hdiskr = Hm =∑

i

f(xi) ∆x ld 1f(xi) ∆x

=∑

i

f(xi) ∆x ld 1f(xi)

−∑

i

f(xi) ∆x ld ∆x

Han =∞∫

−∞f(x) ld 1

f(x) dx − ld ∆x

∆x ist unter gleichen Bedingungen konstant. Daher lässt man ld ∆x meistensweg und spricht dann von der relativen Entropie einer analogen Quelle:

Hrel =∞∫

−∞f(x) ld 1

f(x) dx .

Beispiel Berechnung von Hrel

f(x) = 1√2 π P

e− x2

2 P

SS 2020 Informations- und Kodierungstheorie 49

Page 50: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Transinformation analoger Kanäle

• Signale und Störungen überlagern sich additiv und sind damit am Ka-nalausgang als Summe beider vorhanden.

• Es entstehen keine Störanteile, die vom Nutzsignal abhängen.

→ Nutz- und Störsignal sind unkorreliert, d. h., die Leistung desEmpfangssignals ist gleich der Summe aus Nutz- undStörsignalleistung:

Vorlesung Informations- und Kodierungstheorie 50

Transinformation analoger Kanäle

� Signale und Störungen überlagern sich additiv und sind damit am

Kanalausgang als Summe beider vorhanden.

� Es entstehen keine Störanteile, die vom Nutzsignal abhängen.

! Nutz- und Störsignal sind unkorreliert, d. h., die Leistungdes

Empfangssignals ist gleich der Summe aus Nutz- und

Störsignalleistung:

y = Px + PzP

z

xP

P

Annahme: Amplitudenwerte von Nutz- und Störsignal sind normalverteilt:

f(x) = 1√2 π P

e− x2

2 P

SS 2020 Informations- und Kodierungstheorie 50

Page 51: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Transinformation analoger Kanäle

Entropie der Quelle

H(X) = 12 ld (2 π e Px) (Px mittlere Nutzsignalleistung)

Störentropie

H(Y |X) = 12 ld (2 π e Pz) (Pz mittlere Störsignalleistung)

Entropie am Kanalausgang

H(Y ) = 12 ld (2 π e (Px + Pz))

Transinformation analoger Kanäle

HT = H(Y ) − H(Y |X) = 12 ld

(1 + Px

Pz

)HT ≈ 1

2 ld Px

Pzunter der Bedingung Px

Pz≫ 1

SS 2020 Informations- und Kodierungstheorie 51

Page 52: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Transinformation analoger Kanäle

Rauschabstand

r = 10 lg Px

Pzin dB (Dezibel)

Für Px

Pz≫ 1 gilt dann

HT ≈ 12 0, 332 r = 0, 166 r .

Kanalkapazität analoger Kanäle

Can = 2 B HT = 2 B12 ld

(1 + Px

Pz

)oder

Can

/bit

s= B/s−1 ld

(1 + Px

Pz

)Für Px

Pz≫ 1 erhält man

Can ≈ 0, 332 B r . [Begleitbuch, S. 33 - 37, 68 - 76, 102 - 106]

SS 2020 Informations- und Kodierungstheorie 52

Page 53: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Quantisierung analoger Signale

Quelle Kodierer Übertragungskanal Dekodierer Senke

Störung

Quelle Kodierer Übertragungskanal Dekodierer Senke

StörungDiskreteQuelle

AnalogeQuelle

Quellef(t) Abtastung

f(t)

t

b) c) d)

Amplituden-quantisierung Kodierer

t

f(n t A

A A)f(n t

)A

)f*(n t

)f*(n t

n t n t A A

a)

x(t)

x(t)

SS 2020 Informations- und Kodierungstheorie 53

Page 54: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Quantisierung analoger Signale

Zeitquantisierung

Abtastfrequenz

fA ≥ 2 fg in AW

s

Abstand der Abtastwerte: tA ≤ 12 fg

= 1fA

→ bei Einhaltung obiger Bedingung kein Infomationsverlust

Amplitudenquantisierung

→ Informationsverlust abhängig von Stufung und Verteilung

Annahme: Quantisierung mit linearer Kennlinie

SS 2020 Informations- und Kodierungstheorie 54

Page 55: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Quantisierung analoger Signale

n

m

i

2

1

x 1 x 2 ix x m x

21δ 22δ

Hq =m∑

i=1p(xi) ld 1

p(xi)in bit

AW

p(xi) = 1m

: Hqmax = ld m

SS 2020 Informations- und Kodierungstheorie 55

Page 56: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Quantisierung analoger Signale

Modell der diskreten Übertragung eines quantisierten, gestörten Signals

Vorlesung Informations- und Kodierungstheorie 56

Modell der diskreten Übertragung eines quantisierten, gestörten Signals

q= IKQCan

KanalAnaloger

QADU

QAnaloge Quelle

an

II

DekodiererÜbertragungskanal

Dekodierer

Senke

SenkeDAUStörung

Kodierer

C

an

= I

q

f

g

ld

1 +

P

x

P

z

= 2 f

g

ldm

! m =

q

P

x

P

z

oder m = 10

r

20

I

q

= I

KQ

, wenn l = ldm

4 Kanäle 4.3 Quantisierung analoger Signale

DekodiererÜbertragungskanal

Dekodierer

Senke

SenkeDAUStörung

Kodierer

Can = Iq

fg ld(

1 + Px

Pz

)= 2 fg ld m

→ m =√

PxPz

oder m = 10r

20 Iq = IKQ , wenn l = ld m

SS 2020 Informations- und Kodierungstheorie 56

Page 57: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Quantisierung analoger Signale

Kenngrößen der Analog-Digital-Umwandlung

Das analoge Signal hat zwei Kenngrößen, die den Informationsfluss bestimmen:

• Grenzfrequenz fg und

• Rauschabstand r

Wichtige Kenngrößen des ADU sind:

• Umsetzzeit tu und

• Kodewortlänge l = ld m

Da durch den ADU das quantisierte Signal in einem gleichmäßigenKode dargestellt wird, werden nur Stufenanzahlen von

m = 2i (i = 1, 2, ...)

realisiert.

SS 2020 Informations- und Kodierungstheorie 57

Page 58: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Quantisierung analoger Signale

Bedingungen zur Vermeidung von Informationsverlust durch ADU:• In der Zeit tu ist das Signal abzutasten und der Abtastwert in einem

Binärkode darzustellen:

tu ≤ tA .

• Die erforderliche Kodewortlänge wird durch den Rauschabstand vorge-geben:

l = ⌈0, 166 r⌉ = ⌈HT,an⌉ → m = 2l mit l in KZAW

, r in dB .

Kanalkapazität des nachgeschalteten Binärkanals:

C ≥ IKQ = 2 fg l HK = fA l HK . (Gesicherte Übertragung!)

Beispiel ADU, diskrete Übertragung: vu[unges] , vu[ges] , Bbin

Ban = fg = 1 k Hz, r = 40 dB, BK: ε = 0, 1 δ = 0, 05 p(x0) = p(x1)

[Begleitbuch, S. 108 - 123]

SS 2020 Informations- und Kodierungstheorie 58

Page 59: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Möglichkeiten der Fehlerkorrektur

Quelle Kodierer Übertragungskanal Dekodierer Senke

Störung

FEC [Forward Error Correction]ARQ [Automatic Repeat reQuest]

Likelihoodmit Maximum

Mindestdistanzmit begrenzter

Fehlerkorrektur

durch Wiederholung durch Rekonstruktion

"Fehlererkennung" (FE) "Fehlerkorrektur" (FK)

SS 2020 Informations- und Kodierungstheorie 59

Page 60: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Allgemeiner Ablauf mit ARQ bzw. FEC

b*

Empfangsfolge b

Übertragung

Kanalkodefolge a

FEC

nn

j

FehlerkorrekturWiederholung Übertragung ?

RedundanzEntfernen der

fehlerfreie

a*ARQ

SS 2020 Informations- und Kodierungstheorie 60

Page 61: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Redundanz und Rekonstruktionsergebnisse

Fehlerkorrektur durch Wiederholung (FE)

→ hinzugefügte redundante Stellen nur zur Erkennung eines Fehlers

Fehlerkorrektur durch Rekonstruktion (FK)

→ hinzugefügte redundante Stellen zur Erkennung eines Fehlers undLokalisierung der Fehlerpositionen

→ k FEC > kARQ

Rekonstruktionsergebnisse• korrekte Rekonstruktion• falsche Rekonstruktion

• Versagen der Rekonstruktion

SS 2020 Informations- und Kodierungstheorie 61

Page 62: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Allgemeine Kenngrößen von KanalkodesVorlesung Informations- und Kodierungstheorie 62

Allgemeine Kenngroßen von Kanalkodes

QuelleX

SenkeY

Kanal

kodierer kodiererQuellen

dekodiererdekodierer

Kanal

gungskanalÜbertra

Quellen *

E

B

AA*

B

X = {x1, x2, ..., xL}A∗ = {a∗

1, a∗2, ..., a∗

L}A = {a1, a2, ..., aL}E = {e1, e2, ..., eN }B = {b1, b2, ..., bN } → (n, l, dmin), auch (n, l)Kode

Beispiel (n, 1, n)Wiederholungskode

SS 2020 Informations- und Kodierungstheorie 62

Page 63: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

HAMMING-Distanz

Definition 5.1Die Anzahl der Stellen, in denen sich zwei Kodewörterai = (ui1 ui2 ... uin) und aj = (uj1 uj2 ... ujn)unterscheiden, bezeichnet man als HAMMING-Distanz d(ai, aj) :d(ai, aj) = |{g ∈ Zn | uig = ujg}| mit g ∈ Zn = {1, 2, ..., n} .

Binärkode:

HAMMING-Distanz: d(ai, aj) =n∑

g=1(uig ⊕ ujg)

HAMMING-Gewicht: w(ai) =n∑

g=1uig = d(0, ai)

→ dmin = minai,aj ∈A,ai =aj

d(ai, aj) = minai∈A\0

d(0, ai) = minai∈A\0

w(ai) = wmin

Beispiel min. HAMMING-Distanz dmin (auch Mindestdistanz)

(4, 1, dmin = ? )Wiederholungskode; (4, 3, dmin = ? )Paritätskode

SS 2020 Informations- und Kodierungstheorie 63

Page 64: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Geometrische Deutung der minimalen HAMMING-Distanz

ai aj

Kodewort Kodewort

0 1 2 3 4 5d( ,

Korrekturkugeln

ai aj

)=dmin

fk

dmin = fe + fk + 1 FE: fe = dmin − 1 , fk = 0

FK: fe = ⌊ dmin2 ⌋ , fk = ⌊ dmin−1

2 ⌋ (dmin geradzahlig?)

→ Dekodierungsprinzip Rekonstruktion mit begrenzter Mindestdistanz

Beispiel Fortsetzung: fe, fk bei Anwendung von FE oder FK?

SS 2020 Informations- und Kodierungstheorie 64

Page 65: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

HAMMING-Schranke

Berechnung der redundanten Stellen k (bekannt: dmin; l oder n)

2n = 2l 2k ≥ 2l

(1 +

(n

1

)+(

n

2

)+ ... +

(n

fk

))2k ≥

fk∑i=0

(n

i

) (ni

)= n!

i! (n−i)! = n(n−1)· ... ·(n−i+1)1·2· ... ·i

k ≥ ldfk∑

i=0

(n

i

)= ld

fk∑i=0

(l + k

i

)→ untere Schranke für k bei vorgegebenem l

obere Schranke für l bei vorgegebenem n ; l = n − k

→ HAMMING-Schranke→ „=“: Entsprechende Kodes heißen dichtgepackt oder perfekt.

Beispiel Berechnung von k

l = 4 , dmin = 5

SS 2020 Informations- und Kodierungstheorie 65

Page 66: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Zweites SHANNONsches Kodierungstheorem

Weitere Kodekenngrößen

relative Redundanz rk = n − l

n= k

n

Koderate R = l

n

Zweites SHANNONsches Kodierungstheorem

Die Restfehlerwahrscheinlichkeit pR kann beliebig klein gehalten werden,solange die Koderate R den Wert der maximalen Transinformation HT nichtüberschreitet.

Darüber hinaus hat SHANNON theoretisch nachgewiesen, dass auch beibeliebig kleiner Restfehlerwahrscheinlichkeit immer noch eine Koderate größerals Null möglich ist [SHA 48].

[Begleitbuch, S. 125 - 137]

SS 2020 Informations- und Kodierungstheorie 66

Page 67: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Klassifizierung von Kanalkodes

Algebrais he Kanalkodes

Blo kkodes Blo kfreie (sequentielle) Kodes

(bin

ar, ni htbin

ar) (bin

ar)

Parit

atskodes

(Verkettete Kodes) HAMMING{Kodes Zyklis he Kodes Faltungskodes

Wiederholungskodes

REED{MULLER{Kodes

BCH{Kodes RS{Kodes

(CRC{Kodes)

„Neu“: Turbokodes, LDPC-Kodes(einfache, auch verkettete Blockkodes mit iterativer Dekodierung)

[Begleitbuch, S. 138 - 141]

SS 2020 Informations- und Kodierungstheorie 67

Page 68: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Lineare Blockkodes

Definition 5.2Ein Kode heißt linearer Blockkode, oder kurz Linearkode, wenn derKanalkodierer für die Transformation von Quellenkodewörtern der Länge l ausdem Alphabet A∗ (Quellenkode) in Kanalkodewörter der Länge n desAlphabetes A (Kanalkode) eine Verknüpfungsoperation verwendet, die in deralgebraischen Struktur einer Gruppe definiert ist.

Darstellung von Linearkodes als GruppenAxiom G1: AbgeschlossenheitAxiom G2: Assoziatives GesetzAxiom G3: Neutrales ElementAxiom G4: Inverses ElementKommutativgesetz → abelsche Gruppe

Beispiel (5, 1, 5)Wiederholungskode: A = {00000, 11111}

(3, 2, 2)Paritätskode: A = {000, 011, 101, 110}

SS 2020 Informations- und Kodierungstheorie 68

Page 69: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Wichtig für algebraische Kodes

B lineare Verknüpfung von Kanalkodewörtern führt wieder zu einem Ka-nalkodewort

B Nullwort ist immer auch KanalkodewortB Axiome stellen Kodebildungs- und Fehlererkennungsvorschrift darB (n, l, dmin)Kanalkode:

A ⊂ {0, 1}n mit L = 2l Kanalkodewörtern, k = n − l

B dmin des Kanalkodes bestimmt LeistungsfähigkeitBei einem Linearkode ist die minimale HAMMING-Distanz gleich demminimalen Gewicht der Kodewörter (außer dem Nullwort).FE: fe = dmin − 1 = wmin − 1FK: fk =

⌊dmin−1

2

⌋=⌊

wmin−12

⌋, fe =

⌊dmin

2

⌋=⌊

wmin2

⌋Beispiel Kanalkodealphabet A

SS 2020 Informations- und Kodierungstheorie 69

Page 70: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Beispiel: Kanalkodealphabet A

Kanalkodealphabet A:

a0 = (0 0 0 0 0 0 0) a8 = (1 0 0 0 1 0 1)a1 = (0 0 0 1 0 1 1) a9 = (1 0 0 1 1 1 0)a2 = (0 0 1 0 1 1 0) a10 = (1 0 1 0 0 1 1)a3 = (0 0 1 1 1 0 1) a11 = (1 0 1 1 0 0 0)a4 = (0 1 0 0 1 1 1) a12 = (1 1 0 0 0 1 0)a5 = (0 1 0 1 1 0 0) a13 = (1 1 0 1 0 0 1)a6 = (0 1 1 0 0 0 1) a14 = (1 1 1 0 1 0 0)a7 = (0 1 1 1 0 1 0) a15 = (1 1 1 1 1 1 1)

→ Überprüfen der Eigenschaften!

→ (n, l, dmin)Linearkode

SS 2020 Informations- und Kodierungstheorie 70

Page 71: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Darstellung von Linearkodes durch Matrizen

Definition 5.3

Ein Linearkode A mit L = 2l Kanalkodewörtern ist durch seineGeneratormatrix G mit l linear unabhängigen Kanalkodewörtern(Basiswörtern) eindeutig beschrieben:

Gl×n =

u11 u12 . . . u1n

u21 u22 . . . u2n

......

. . ....

ul1 ul2 . . . uln

; ui,j ∈ {0, 1} .

→ Mit einer Einheitsmatrix über den ersten l Spalten der Generatormatrixsind die zugehörigen Kanalkodewörter mit Sicherheit linear unabhängig.

SS 2020 Informations- und Kodierungstheorie 71

Page 72: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Darstellung der Generatormatrix

Kanonische oder reduzierte Staffelform

Gl×n =

1 0 0 . . . 0 u1,l+1 u1,l+2 . . . u1n

0 1 0 . . . 0 u2,l+1 u2,l+2 . . . u2n

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .0 0 0 . . . 1 ul,l+1 ul,l+2 . . . uln

=

1 0 0 . . . 0 c11 c12 . . . c1k

0 1 0 . . . 0 c21 c22 . . . c2k

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .0 0 0 . . . 1 cl1 cl2 . . . clk

= [ Il C ]

Beispiel Fortsetzung: A → Gl×n

SS 2020 Informations- und Kodierungstheorie 72

Page 73: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Systematischer Kode

Definition 5.4Ein Linearkode heißt systematischer Kode, wenn aus einem Kanalkodewortai ∈ A durch Streichen redundanter Stellen das Quellenkodewort a∗

i ∈ A∗

unmittelbar entnommen werden kann.

Bildung eines Kanalkodewortes – Kanalkodierung

ai = a∗i · Gl×n

(ui1ui2 ... uin) = (ui1ui2 ... uil)

1 0 0 . . . 0 c11 c12 . . . c1k

0 1 0 . . . 0 c21 c22 . . . c2k

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .0 0 0 . . . 1 cl1 cl2 . . . clk

Beispiel Fortsetzung: a∗ = (0101) → a = ?

SS 2020 Informations- und Kodierungstheorie 73

Page 74: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Kontrollmatrix

Aufbau einer Kontrollmatrix (aus der Generatormatrix):Ein zu A orthogonaler Unterraum A′ ist dadurch gekennzeichnet, dass dasSkalarprodukt eines beliebigen Vektors aus A mit jedem beliebigen Vektor ausA′ Null ist.Es seiai = (ui1 ui2 ... uin) mit ai ∈ A und

a′j = (uj1 uj2 ... ujn) mit a′

j ∈ A′ .

Dann giltai · a′

j = ui1 · uj1 ⊕ ui2 · uj2 ⊕ ... ⊕ uin · ujn = 0 für alle i, j .

B Ist G = [ Il C ] dann ist der zu A orthogonale Unterraum A′ durchH = [ CT Ik ] beschrieben.Orthogonalitätsbedingung: G · HT = (H · GT )T = 0

Beispiel Fortsetzung: Gl×n → Hk×n

SS 2020 Informations- und Kodierungstheorie 74

Page 75: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Kontrollmatrix: Bestimmungsgleichungen

Kontroll(auch Prüf-)matrix liefert auch Vorschrift zur Bildung derKontrollstellen kj (Bestimmungsgleichungen):ai · a′T

1 = ui1 · c11 ⊕ ui2 · c21 ⊕ ... ⊕ uil · cl1 ⊕ ui,l+1 · 1 ⊕ ui,l+2 · 0 ⊕ ... ⊕ uin · 0= 0 .

Erstes Kontrollelement ui,l+1 = k[i,]1 des Kanalkodewortes ai:ui,l+1 = k[i,]1 = ui1 · c11 ⊕ ui2 · c21 ⊕ ... ⊕ uil · cl1

Allgemein:ui,l+j = k[i,]j = ui1 · c1j ⊕ ui2 · c2j ⊕ ... ⊕ uil · clj (j = 1, 2, ..., k)

für ai = (ui1ui2 ... uil ui,l+1ui,l+2 ... ui,l+k) = (l1 l2 ... ll k1 k2 ... kk)

Beispiel Fortsetzung: Bestimmungsgleichungen für kj (j = 1, 2, ..., k)

a∗ = (0101) → a = ?

[Begleitbuch, S. 142 - 151]

SS 2020 Informations- und Kodierungstheorie 75

Page 76: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Fehlererkennung und Fehlerkorrektur – Kanaldekodierung

• Die Empfangsfolge b kann als Überlagerung eines Kanalkodewortes ai

mit einem Fehlerwort e aufgefasst werden:b = ai ⊕ e .Damit gilt für das Fehlersyndrom (auch Prüfvektor)

s = H · bT = H · (ai ⊕ e)T = H · aTi︸ ︷︷ ︸

0

⊕H · eT = H · eT .

• Alle Fehlermuster, deren Gewicht w(e) ≤ dmin −1 ist, sind mit Sicher-heit erkennbar.

• Alle Fehlermuster, deren Gewicht w(e) ≤ ⌊ dmin−12 ⌋ ist, sind mit Si-

cherheit korrigierbar.• Darüber hinaus sind nur Fehlermuster erkennbar, die nicht in A definiert

sind, d. h. e /∈ A.• Ist e /∈ A und w(e) > ⌊ dmin−1

2 ⌋ erfolgt eine Falschkorrektur oderRekonstruktionsversagen.

SS 2020 Informations- und Kodierungstheorie 76

Page 77: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Fehlererkennung und Fehlerkorrektur – Kanaldekodierung

• Empfangsfolge b ∈ A ?s = Hk×n · bT (auch: Kontrollgleichungen für sj (j = 1, 2, ..., k))

s = 0: b ∈ A

→ fehlerfreie Übertragung oder→ kein erkennbarer Fehlers = 0: b /∈ A → Fehlererkennung, Korrektur?

• Jedem Fehlersyndrom ist maximal ein Fehlermuster zugeordnet, solangew(e) ≤

⌊dmin−1

2

⌋.

• Die Syndrome sind k-stellige Vektoren. Also können (2k − 1) verschie-dene Fehlermuster korrigiert werden.

Beispiel Fortsetzung: b = (1100101) ∈ A ?

Kontrollgleichungen für sj (j = 1, 2, ..., k)

[Begleitbuch, S. 152 - 154]

SS 2020 Informations- und Kodierungstheorie 77

Page 78: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

„Einfachster“ Linearkode: Paritätskode

Paritätskode

a∗i = (ui1 ui2 ... uil) → ai = (ui1 ui2 ... uil ui,l+1)

ui,l+1 – Paritätselement:

ui,l+1 =l∑

j=1uij mod 2 (Ergänzung auf geradzahlige Anzahl Eins)

dmin ?Generatormatrix G(n−1)×n ?Kontrollmatrix H1×n ?

Fehlererkennung: s = H · bT =n∑

j=1uj mod 2 , s = 0 : b /∈ A

Anwendung: DÜ in Rechnern, Erweiterung von Kodes, RAID5

SS 2020 Informations- und Kodierungstheorie 78

Page 79: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Verkettung von zwei Paritätskodes

→ (n1 · n2, l1 · l2, dmin,1 · dmin,2)Produktkode

1

0

0

1 0 0 1 0 01 0 1 0 1 10 1 1 0 0 01 0 0 1 1 10 0 0 0 0 00 1 1 0 1 1

1 0 1 0 1 1

s

sParitätselemente

Paritätselementbzgl. derParitätselemente

Quellenkodewort

Quellen−kodewörter

bzgl. der Zeilen

lbzgl. der Spalten stelliges

Paritätselemente

0 1 1 0 0 0 01 0 0 1 1 1 0

1 0 1 0 1 1 0

Kanalkodewortl( +1) stelliges

0 0 0 0 0 10 1 1 0 1 1 0

1 0 0 1 0 0 01 0 1 0 1 1 0

Beispiel:

l

0 0 0 1 0 0 1

aus *A

m

→ (6 · 7, 5 · 6, 2 · 2) = (42, 30, 4)Produktkode, R = 3042 = 0, 71

Zum Vergleich: (4, 1, 4)Wiederholungskode, R = 14 = 0, 25

SS 2020 Informations- und Kodierungstheorie 79

Page 80: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Fehlerkorrigierender HAMMING-Kode

Fehlerkorrigierender HAMMING-Kode

Definition 5.5Der fehlerkorrigierende HAMMING-Kode ist ein spezieller linearer Gruppenkodeund bzgl. der HAMMING-Schranke ein dichtgepackter Kode. Er hat einenminimalen HAMMING-Abstand von dmin = 3 und eine Kodewortlänge vonn = 2k − 1 .

• Man bezeichnet diesen Kode auch als einfehlerkorrigierendenHAMMING-Kode.

• Geschickte Vertauschung der Spalten von H, so dass die i-te Spal-te von H der Dualdarstellung von i entspricht. Das Fehlersyndrom sliefert dann unmittelbar die dual dargestellte Position des fehlerhaftenElementes in b.

SS 2020 Informations- und Kodierungstheorie 80

Page 81: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Fehlerkorrigierender HAMMING-Kode: Kontrollmatrix

• Kontrollmatrix eines (7, 4)HAMMING-Kodes:

H3×7 =

n7( 111l4

n6110l3

n5101l2

n4100k3

n3011l1

n2010k2

n1001

)k1

→ Kontrollstellen an Positionen n2i (i = 0, 1, ...) → systematisch!

→ Berechnen der Kontrollstellen mittels den Bestimmungsglei-chungen kj (j = 1, 2, ..., k) aus H → a = ([...]l4l3l2k3l1k2k1)

• s = H · bT bzw. Kontrollgleichungen sj (j = 1, 2, ..., k) aus H

Ein Fehler wird durch s = (sksk−1...s1)T lokalisiert und damit korri-giert.

Beispiel a∗ = (1001) → a =? → b = a ⊕ (0010000) → b∗ =?

SS 2020 Informations- und Kodierungstheorie 81

Page 82: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Verkürzter HAMMING-Kode

Für k Kontrollstellen sind maximal n = 2k − 1 verschiedene Syndrome möglichund damit maximal n = 2k − 1 Stellen bzgl. Einfachfehler korrigierbar.

l = 2k − 1 − k liefert einen dichtgepackten Kode(HAMMING-Schranke mit „=“ erfüllt),

l < 2k − 1 − k einen verkürzten Kode mit n < 2k − 1 .

Das Korrekturschema des einfehlerkorrigierenden HAMMING-Kodes lässt sichauch dann anwenden.

Beispiel

(7, 4)HAMMING-Kode → verkürzter (6, 3)HAMMING-KodeÜberprüfe mit HAMMING-Schranke!

SS 2020 Informations- und Kodierungstheorie 82

Page 83: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Erweiterter HAMMING-Kode

• Jedem Kanalkodewort wird ein weiteres Kontrollelement k0 hinzugefügt.• Dieses Kontrollelement wird durch eine zusätzliche Bestimmungsglei-

chung berechnet, die sämtliche Kodewortelemente einbezieht:a = ([...]l4l3l2k3l1k2k1k0) = ([...]n7n6n5n4n3n2n1n0) mit

n0 =n∑

i=1ni mod 2 ; zusätzl. Kontrollgleichung: s0 =

n∑i=0

ni mod 2 .

→ Paritätsbit→ Erzeugt Kanalkode mit geradzahliger Parität

• Die Anzahl der Kontrollelemente beträgt damit k + 1, die Kodewortlängeerhöht sich auf n ≤ 2k. Der Minimalabstand ist dmin = 4.

• Die Anzahl der Informationselemente ist unverändert.Beispiel a∗ = (1001) → a = ?

b = (11011001) ∈ A ? → Auswertung von s und s0

[Begleitbuch, S. 156 - 161]

SS 2020 Informations- und Kodierungstheorie 83

Page 84: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Zyklische KodesZyklische Kodes → Binäre primitive BCH-Kodes

Definition 5.6Ein Kode heißt zyklisch, wenn für jedes Kanalkodewortai = (ui,n−1 ui,n−2 ... ui1 ui0)durch zyklische Verschiebung der Elemente mitaj = (ui,n−2 ui,n−3 ... ui0 ui,n−1)wieder ein Kanalkodewort entsteht. a

a aj(x) = ai(x) xz mod (xn + 1) ersetzt Exponenten r ≥ n durch r mod n .

Ein zyklischer Kode ist ein spezieller Linearkode, der sowohl algebraischeGruppenaxiome als auch Ring- und Körperaxiome erfüllt.

Das Generatorpolynom g(x) ist i. Allg. ein Produkt von Minimalpolyno-men mi(x), das den zyklischen Kode vollständig beschreibt. g ∈ A!

Hinweis: Schreibweise von PolynomenP (x) = urxr + ur−1xr−1 + ... + u0 mit ui ∈ {0, 1}

SS 2020 Informations- und Kodierungstheorie 84

Page 85: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Ausgewählte algebraische Grundlagen

• Eigenschaften eines Modularpolynoms über GF (2)

1. Das Modularpolynom muss irreduzibel sein.

B Ein Polynom ist irreduzibel, wenn es nicht in ein Produkt vonPolynomen zerlegbar ist.

B Das Modularpolynom M(x) vom Grad k1 = grad M(x) bestimmtden Kodeparameter n mitn ≤ 2k1 − 1 .

B Der tatsächliche Wert von n berechnet sich aus dem Zyklus derPolynomreste über GF (2) mitxi mod M(x) (i = 0, 1, ..., p)und bestimmt n = p | 2k1 − 1 .

Beispiel M(x) = x3 + x2 + 1

SS 2020 Informations- und Kodierungstheorie 85

Page 86: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Ausgewählte algebraische Grundlagen

2. Ist

n = p = 2k1 − 1 ,

dann besitzt das irreduzible Polynom M(x) auch die Eigenschaft,primitiv zu sein.

• Erweiterungskörper und MinimalpolynomeDie Leistungsfähigkeit eines BCH-Kodes hängt von der Anzahl aufein-

anderfolgender Nullstellen in g(x) ab. → Nullstellen?

Beispiel

P (x) = x4 + x + 1 über GF (2) , primitiv:

P (x = 1) = 1 ; P (x = 0) = 1

Das Polynom P (x) hat über GF (2) keine Nullstelle.

SS 2020 Informations- und Kodierungstheorie 86

Page 87: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Fundamentalsatz der Algebra

Jedes Polynom hat mindestens eine Nullstelle, gegebenenfalls in einem anderenKörper, und jedes Polynom r-ten Grades lässt sich in genau r Teilpolynomeersten Grades, d. h. in r Linearfaktoren, zerlegen, i. Allg. unter Zuhilfenahmevon Erweiterungselementen αi:

P (x) = urxr + ur−1xr−1 + ... + u1x + u0

= (x − α1)(x − α2) ... (x − αr).

Ein neues Element α wird als Nullstelle eines irreduziblen Polynoms überGF (2) hinzugefügt, welches einem Erweiterungskörper angehört.

Auf der Grundlage eines irreduziblen Modularpolynoms M(x) vom Gradk1 = grad M(x) über GF (2) entsteht durch Hinzunahme einer Nullstelle α einendlicher Erweiterungskörper GF (2k1 ) , d. h., α ist Nullstelle von M(x) undein (Erweiterungs-)Element in GF (2k1 ) .

SS 2020 Informations- und Kodierungstheorie 87

Page 88: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Erweiterungskörper GF (2k1)

Zum Erweiterungskörper GF (2k1 ) gehören neben dem Nullelement dieElemente αi (i = 0, 1, ..., (2k1 − 2)) .

Beispiel M(x) = x3 + x2 + 1 über GF (2)

Bestimmung des Erweiterungskörpers GF (23):Elemente Polynomreste Koeffizienten der

des GF (23) αi mod M(x = α) PolynomresteNullelement 0 0 0 0

α0 1 0 0 1α1 α 0 1 0α2 α2 1 0 0α3 α2 + 1 1 0 1α4 α2 + α + 1 1 1 1α5 α + 1 0 1 1α6 α2 + α 1 1 0α7 1 0 0 1

→ isomorph dem Zyklus der Polynomreste über GF (2)

SS 2020 Informations- und Kodierungstheorie 88

Page 89: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Erweiterungskörper GF (2k1)

Berechnungsbeispiele für Addition und Multiplikation im GF (23)/x3 + x2 + 1:

B αi + αj = αi mod M(α) + αj mod M(α) = αk

i = j : αi + αj = 0

Z. B. α5 + α2 = α + 1 + α2 = α4 bzw.α5 + α2 = (011) ⊕ (100) = (111) = α4

α2 + α2 = (100) ⊕ (100) = 0

α3 + α4 = ? α + α6 = ?

B αi · αj = α(i+j) mod p

Z. B. α4 · α5 = α9 mod 7 = α2

α2 · α6 = ? α5 · α6 · α4 = ?

SS 2020 Informations- und Kodierungstheorie 89

Page 90: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Erweiterungskörper GF (2k1)

Beispiel M(x) = x3 + x2 + 1

α Nullstelle von M(x) und Erweiterungselement:M(x = α) = α3 + α2 + 1 = (α2 + 1) + α2 + 1 = 0

Fundamentalsatz der Algebra:M(x) = x3 + x2 + 1 = (x + α1)(x + α2)(x + α3) im GF (2) ,

d. h., α1 = α1, α2 und α3 sind Nullstellen im GF (23) .

Zuordnung αj zu den Elementen von GF (2k1 ):

αj = α2j−1i mod p (j = 1, 2, ... , k1(= grad M(x)))

B Die Elemente α20i, α21i, ... , α2k1−1i mod p sind im Zyklus i(i = 0, 1, ..., 2k1 − 2) zueinander konjugiert.

B Konjugierte Elemente befinden sich in einem Zyklus.

SS 2020 Informations- und Kodierungstheorie 90

Page 91: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Erweiterungskörper GF (2k1)

Die Nullstellen von M(x) sind damit die im Zyklus i = 1 stehenden zu α1

konjugierten Elemente α2 = α2 und α3 = α4 .i = 2 und i = 4 liefern demzufolge den gleichen Zyklus.

B Die Anzahl der Elemente in einem Zyklus wird durch k1 = grad M(x)begrenzt und ist für p = 2k1 − 1 ∈ P für alle Zyklen gleich (ausge-nommen: i = 0).

Beispiel Zyklen im GF (23) :

α0

α1, α2, α4

α3, α6, α5

SS 2020 Informations- und Kodierungstheorie 91

Page 92: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Minimalpolynome

Jedem αi aus GF (2k1 ) ist ein Minimalpolynom mi(x) zugeordnet:B Das Minimalpolynom eines beliebigen Elementes αi ist irreduzibel und

vom Grad r ≤ k1.

B Zu jedem Element αi existiert genau ein Minimalpolynom mi(x).

B Das Minimalpolynom des Elementes αi ist gleichzeitig das Minimalpo-lynom der Elemente α21i, α22i, ..., α2r−1i mod p.

B Ist αi eine Nullstelle des Minimalpolynoms mi(x), dann sind die r

zueinander konjugierten Elemente αi, α21i, α22i, ..., α2r−1i die sämt-lichen Nullstellen von mi(x):

mi(x) = (x + αi)(x + α21i)(x + α22i)...(x + α2r−1i) im GF (2) .

B Das Modularpolynom M(x) ist wegen M(x = α1) = 0 das Minimal-polynom m1(x) des Elementes α1.

Beispiel m0(x), m1(x), m3(x) im GF (23)/M(x) = x3 + x2 + 1 ?

[Begleitbuch, S. 162 - 169]

SS 2020 Informations- und Kodierungstheorie 92

Page 93: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Generatorpolynom primitiver BCH-Kodes

→ zur Kodierung und Fehlererkennung→ g(x) = f(dE , M(x)) ; auch: g(x) = f(dE , l) , M(x) = ?

Entwurfsabstand dE und M(x) bestimmen Wahl der Kodeparameter!

Notwendig:

Erweiterungskörper GF (2k1 ):Wenn M(x) primitiv ist und α als Nullstelle hat, dann giltGF (2k1 ) = {0, α0, α1, α2, ..., α2k1 −2} .

Ein Minimalpolynom mi(x) hat αi, α2i, α4i, ... als Nullstellen:mi(x) = (x + αi)(x + α2i)(x + α4i) ... im GF (2) .

Daraus folgt: mi(x) = m2i(x) = m4i(x) = ... = m2r−1i mod p , r ≤ k1 .Das Generatorpolynom g(x) hat die Aufeinanderfolge vonαµ, αµ+1, αµ+2, ..., αµ+dE−2 als Nullstellen, so auch ∀i.ai ∈ A \ 0 .

SS 2020 Informations- und Kodierungstheorie 93

Page 94: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Generatorpolynom primitiver BCH-Kodes

Damit ein BCH-Kode die aufeinanderfolgenden Elementeαi (i = µ, µ + 1, ..., µ + dE − 2) als Nullstellen enthält, wird g(x) i. Allg. einProdukt von Minimalpolynomen sein:

g(x) = kgV {mµ(x), mµ+1(x), ..., mµ+dE−2(x)}

(in praktischen Anwendungsfällen ist µ meist 0 oder 1).

Kodeparametern = 2k1 − 1 , weil M(x) primitivk = grad g(x)l = n − k

dmin[,tatsachlich] ≥ dE

Über die Zyklendarstellung kann die tatsächliche Aufeinanderfolge derNullstellen bestimmt und damit der tatsächliche Abstand dmin ermitteltwerden:dmin = (tatsächliche Anzahl aufeinanderfolgender Nullstellen) + 1

SS 2020 Informations- und Kodierungstheorie 94

Page 95: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Generatorpolynom primitiver BCH-Kodes

Beispiel M(x) = x4 + x + 1, primitiv

Bildung von g(x)

• Bestimmen möglicher Generatorpolynome g(x) aus den Zyklen derExponenten von α für µ = 1 bzw. 0!

• g(x) für dE = 4 ?

Analysiere g(x) bzgl. dmin und den Kodeparametern

• g(x) = x8 + x7 + x6 + x4 + 1

• (31, 21)BCH-Kode (grad M(x) = ?)

[Begleitbuch, S. 175 - 179]

SS 2020 Informations- und Kodierungstheorie 95

Page 96: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Spezielle BCH-Kodes: CRC[cyclic redundancy check]-Kodes

Zyklischer HAMMING-Kodeg(x) = M(x) = m1(x) → dmin = 3 :mit Sicherheit Erkennen von Ein- und Zweifachfehlern (fe = 2)UNDErkennen von Bündelfehlern der Länge fb ≤ k = k1 = grad M(x)Kodeparameter?(n, l, dmin) = (2k1 − 1, 2k1 − 1 − k1, dmin = 3)BCH-Kode

ABRAMSON-Kodeg(x) = m0(x) m1(x) mit m0(x) = (x + 1)→ dmin = 4 mit fe = 3 , fb ≤ k = k1 + 1→ (2k1 − 1, 2k1 − 1 − (k1 + 1), dmin = 4)BCH-Kode

Beispiel Kodeparameter im GF (25) für obige Kodes

SS 2020 Informations- und Kodierungstheorie 96

Page 97: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

(Kanal-)Kodierung: Bildungsverfahren für a ∈ A

• MultiplikationsverfahrenEin zyklischer Kode A der Länge n ist durch g(x) beschrieben. Das Ko-depolynom a(x) des Kanalkodewortes a entsteht aus der Multiplikationdes zu kodierenden Polynoms a∗(x) mit dem Generatorpolynom g(x):a(x) = a∗(x) g(x) .

Beispiel g(x) = x3 + x2 + 1 , a∗ = (1011) , a = ? , a(x) = ?

• DivisionsverfahrenEin zyklischer Kode A der Länge n ist durch g(x) (vom Grad k) be-schrieben. Das Kodepolynom a(x) des Kodewortes a entsteht aus derMultiplikation des zu kodierenden Polynoms a∗(x) mit xk und der Sub-traktion eines Restpolynoms r(x) (bedeutet im GF (2) Addition):a(x) = a∗(x) xk + r(x) , r(x) = (a∗(x) xk) mod g(x) .

SS 2020 Informations- und Kodierungstheorie 97

Page 98: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

(Kanal-)Kodierung: Bildungsverfahren für a ∈ A

• GeneratormatrixAuf der Grundlage des Generatorpolynoms g(x) = xk + uk−1xk−1 + ... +u0x0 ist eine Generatormatrix definiert:

Gl×n =

0 0 . . . 0 1 uk−1 . . . u1 u00 0 . . . 1 uk−1 uk−2 . . . u0 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 uk−1 . . . . . . . . . . . . . . . . . . . . . . . . . 0 0

.

Das Kanalkodewort a ∈ A bildet sich dann wie folgt:a = a∗ · G .

B Die Bildungsverfahren führen auf das gleiche Kanalkodealphabet. DieZuordnung der Quellenkodewörter zu den Kanalkodewörtern ist jedocheine andere.

B Die Anwendung des Divisionsverfahrens liefert immer einen sys-tematischen Kode.

B Das Bildungsverfahren muss dem Dekodierer bekannt sein.

SS 2020 Informations- und Kodierungstheorie 98

Page 99: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

(Kanal-)Dekodierung: Fehlererkennung

Jedes Kanalkodewort a muss in seiner Polynomdarstellung durch g(x) teilbarsein.Ist eine Empfangsfolge b(x) durch g(x) teilbar, dann ist b ∈ A definiert, sonstgilt b /∈ A und damit Fehlererkennung.B Fehlerpolynom (auch Prüfpolynom): s(x) = b(x) mod g(x) = 0 ?

Beispiel a = (1011100) , e = (0011010) , b ∈ A ?

Mit Sicherheit erkennbar:→ fe = dmin − 1

→ fb ≤ k

Erkennen aller Bündelfehler fb, bei denen der Abstand zwischen demersten und dem letzten fehlerhaften Element (einschließlich dieser) imFehlermuster kleiner oder gleich dem Grad k des Generatorpolynomsist.

SS 2020 Informations- und Kodierungstheorie 99

Page 100: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

(Kanal-)Dekodierung: Fehlererkennung

Struktur des Bündelfehlers:

e(x) = 0 xn−1 + 0 xn−2 + ... + 1 xi−1 + ... + 1 xi−fb + 0 xi−fb−1 + ... + 0 x0

= xi−fb (1 xfb−1 + ufb−2xfb−2 + ... + u1x1 + 1)

Sind darüber hinaus weitere Fehler erkennbar?2n − 2l

2n= 1 − 2−k → pF E = (1 − 2−k) · 100%

Beispiel: k = 5 : pF E = 96, 88%k = 8 : pF E = 99, 61%

Typische Fehlererkennungs- = CRC-Kodes:Zyklischer HAMMING-Kode: g(x) = m1(x)ABRAMSON-Kode: g(x) = m1(x)(x + 1)

[Begleitbuch, S. 169 - 175]

SS 2020 Informations- und Kodierungstheorie 100

Page 101: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Verkürzte und erweiterte BCH-Kodes

Ein Kanalkode heißt verkürzter Kode, wenn gilt:(n, l, dmin) → (n−?, l−?, dmin) , k =const .

Diese Kodes verlieren ihre zyklische Eigenschaft.Fehlererkennung und Fehlerkorrektur bleiben erhalten.Beispiel BCH-Kode für l = 12 , dE = 5 ?

Ein Kanalkode heißt erweiterter Kode, wenn• das Generatorpolynom g(x) mit m0(x) = (x + 1) erweitert wird:

(n < 2k1 − 1, l, dmin) → (n + 1, l, dmin + 1) ,

(n = 2k1 − 1, l, dmin) → (n, l − 1, dmin + 1) .

• über n = 2k1 − 1 ein Paritätsbit gesetzt wird.Vergleiche mit dem erweiterten HAMMING-Kode!

Die zyklische Eigenschaft geht mit n = 2k1 − 1 verloren.

Beispiel Fortsetzung: Erweiterung mit (x + 1)

SS 2020 Informations- und Kodierungstheorie 101

Page 102: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Anwendung zyklischer Kodes

• Fehlererkennung → CRC-Kodesz. B. in Protokollen auf der Sicherungsschicht:CRC-5 in USB (g(x) = m1(x)), in Bluetooth (g(x) = m0(x) m1(x)) ;CRC-CCITT (CRC-16, g(x) = m0(x) m1(x)) in HDLC, X.25, ... ;Ethernet benutzt CRC-32 für Standard-Frames = 1518 Byte,Jumbo-Frames ≈ 9000 Byte (extended Ethernet Frames) sind nichtstandardisiert aber bieten vergleichbaren Schutz, warum:g(x) = m∗

1(x) = m7(x), primitiv, ai(x) = x91639 + x41678 + 1,im Bereich n < 91639 Bit ≈ 11455 Byte nur w(ai) ≥ 4z. B. beim Mobilfunk: CRC-3 in Kodeverkettung zur Fehlerverdeckung

• FehlerkorrekturSinnvoll bei der Satellitenkommunikation wegen der Laufzeiten oderin Speicher-Anwendungen, wenn einzelne Bereiche systematisch undunwiderruflich unbrauchbar sind.

[Begleitbuch, S. 182 - 184]

SS 2020 Informations- und Kodierungstheorie 102

Page 103: Dr.-Ing. Elke Franz elke.franz@tu-dresden › ... › studium › materialien › mat_ikt › ikt_ss20_h… · elke.franz@tu-dresden.de Foliensatz: Dr.-Ing. Dagmar Schönfeld SS 2020

Einführung Informationsquellen Kodierung diskreter Quellen Übertragungskanal Kanalkodierung

Zusammenfassung IKT

Lehrveranstaltung begonnen mit

Informationstheorie beschäftigt sich mit zwei ProblemstellungenPraktikable Umsetzung mittels Kodierung

Inwieweit lässt sich Information kompakt darstellen?

B Quellenkodierung (verlustfreie QK: gleichmäßige Kodierung,SHANNON-FANO, HUFFMAN, Erweiterte Quellen, ...)

B RK = l(m) [·HK ] − HQ → 0Inwieweit überträgt man Information quasi fehlerfrei?

B Kanalkodierung, abhängig vom Störverhalten desÜbertragungskanalsB Dimensionierung des Übertragungsvorgangs,

Abschätzung von ∆l

B Dimensionierung des Kanalkodes R ≤ HT !

SS 2020 Informations- und Kodierungstheorie 103