Moschytz, Adaptive Filter Anhang

download Moschytz, Adaptive Filter Anhang

If you can't read please download the document

description

adaptive

Transcript of Moschytz, Adaptive Filter Anhang

  • 192 6 ADAPTIONSALGORITHMEN: ZUSAMMENFASSUNG

    ~

    Cill 0 -lC

    ~I 0 ~ ;rl +

    ~

    bO ::;.~ 1 bO ~ >:: ~

    :ol ~I: c., ol cn N ::E ..... ;:l 0' Cl) 11

    :: 0 ;:l "Z...,

    ol'" ~'ijJ ....a; .... bO 0 >:: ..>:: ol Cl) bO ~ C'l >:: ~

    ....V Cl)...,

    cn ..>::::E

    ~ ~..... .... I~'"

    Cl) 0..

    'ijJ .D

    11 ~cn

    ::E . ... i ..., 0.. 0

    >:: ...... .S VI ..., ol ~ ~ .... ....

    0 ..>::

    Cl)

    ~ ~ >:: Cl)

    lj'" bO Cl) ~

    11 ~ 00

    ....:I . ~ ..., 0..

    0

    bO bO >::>:: ;:l;:l ......., Cl)

    'a'"'ijJ .S10 ...,

    ~ >::bO 0>:: ~

    ~ .... Cl)

    ~ "0 >:: 0::1j", >

    11 bO "b.o00 :::E

    ~ ..0::: .D ol

    bO >:: ,.';,;:l

    ~J >::

    ~ Cl) bO..., ....

    '" I1 ~>:: '(ij ~ 0::a

    ~ ~

    ----.

    ..., S S'a ;:l N

    >:: \.).S..., Cl)

    ~ol bO ~ >:: .... :ol '".... .....:1 bO I 0 E--lCl)

    ~ 0~ ~ ....

    Cl) ..., "0 s ~ .... l?

    .. ~-I...., 0

    ~ '"..0::: ;Ei

    '-' .... ~ ;:l '""0 S

    0

    ~ "~ -::

    Cl)

    >'" ~ .~ Cl)

    l?

  • 195 194 A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

    Wir betrachten den zweidimensionalen Fall:

    X2

    X~ x~ ~"\

    \

    / /\//7

    a\ / /

    \

    .; I, Xl \

    \ \

    \ \

    \

    Das neue Koordinatensystem (X~, x~) besitze ebenfalls Basisvektoren der Lnge 1, die senkrecht aufeinander stehen (d.h. die Basis sei orthonormal) und sei um den Winkel a gegen das alte System (Xl, X2) verdreht.

    a1) Berechnen Sie die Matrix Q(a).

    a2) Es kann auch ein Gleichungssystem abgebildet werden. Zeigen Sie, dass die Gleichung lL = R;r. zu lL' = Q-1 lL = Q-1 RQ;r.' wird.

    a3) Zeigen Sie, dass Q unitr ist: Q-1 = Qt.

    b) Eigenwerte und Eigenvektoren

    b1) Gegeben sei eine symmetrische 2 x 2 Matrix R:

    [5 -3]R= -3 5 Berechnen Sie die Eigenwerte Al, A2 und Eigenvektoren 9. ,9. der Ma

    1 2 trix.

    b2) berprfen Sie die in Abschnitt 2.3.6 beschriebenen Eigenschaften fr die Eigenwerte und Eigenvektoren aus b1) :

    i) Alle Eigenwerte sind reell. ii) Zu verschiedenen Eigenwerten gehrende Eigenvektoren stehen senk

    recht aufeinander.

    iii) Die Eigenvektoren bilden eine orthonormale Basis (9. , ... , 9.N)1

    iv) Es existiert eine unitre (orthogonale) Matrix Q, die R diagonalisiert:

    R = Q. diag(Al, ... , An) . Qt QAQt

    A.I AUFGABEN

    c) Quadratische Form Nun folgt eine Anwendung der Teilaufgaben a) und b): Betrachten Sie die Gleichung

    5xi - 6X1X2 + 5x~ = 8

    die als quadratische Form (C.14) bezeichnet wird und eine Ellipse beschreibt. Diese Gleichung soll nun in den Hauptachsenkoordinaten angegeben werden.

    cl) Stellen Sie die obige Gleichung als Vektor-Matrixgleichung dar:

    [Xl X2] R [ ~~ ] = 8

    R muss dabei symmetrisch sein.

    c2) Berechnen Sie die Eigenwerte und Eigenvektoren der Matrix R. Whlen Sie die Eigenvektoren so, dass diese die Lnge 1 besitzen.

    c3) Transformieren Sie die quadratische Form in das neue Koordinatensystem, das die Eigenvektoren der Matrix R als Basis besitzt.

    [X~ X~]'A'[~~]=C

    c4) Sie haben die quadratische Form in ihr Hauptachsensystem transformiert. Multiplizieren Sie nun die Vektor-Matrixgleichung wieder aus. Der Term X1X2 muss dabei wegfallen:

    a . X~2 + b . X~2 = C

    Zeichnen Sie die Ellipse in beiden Koordinatensystemen auf.

    c5) Fhren Sie die gleiche Rechnung durch, indem Sie die Matrix R der quadratischen Form asymmetrisch whlen. Achtung: kein Element soll dabei null werden! Beobachten Sie, was passiert. Erklren Sie damit, warum die Matrix R symmetrisch sein muss, damit die Eigenwerte mit den Hauptachsen zusammenfallen.

  • 196 197 A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

    2. Wiener-Filter und Orthogonalittsprinzip

    In dieser Aufgabe soll ein FIR-Filter 1. Ordnung zur linearen MMSE-Schtzung eines Nutzsignals aus einer verrauschten Beobachtung entworfen werden (siehe Figur A.1). Das Nutzsignal ist dabei das erwnschte Signal d[k] der Schtzung.

    x[k] x[k -1]

    Wl\ X W2l X

    +) e[k]

    d[k]

    Figur A.l: FIR-Filter 1. Ordnung

    Die Beobachtung, die an den Filtereingang x[k] gelegt wird, besteht aus dem durch v[k] verrauschten Nutzsignal:

    x[k] = d[k] + v[k] , wobei d[k] und v[k] zwei unabhngige Prozesse sind. v[k] sei weisses (mittelwertfreies) Rauschen mit rv[k] = ~

  • 199 198 A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

    4. Strgeruschunterdrckung durch einen Beamformer

    j[k] 0:::v

    0.5 d[k]

    0) ~ + Ausgang

    s[k] 0.5 x[k] I d[k] x AF ~~

    M2 . e[k] :

    Wie Aufgabe 3 verdeutlicht, kann eine additive Strung erfolgreich unterdrckt werden, wenn ein geeignetes Referenzstrsignal an den Eingang x[k] des Filters und das gestrte Nutzsignal als erwnschtes Signal d[k] angelegt wird. Mit Hilfe von sog. Beamformern [8], die aus einer Anordnung von mehreren Mikrophonen bestehen, kann gleichzeitig ein Referenzsignal und das gestrte Nutzsignal gewonnen und die Strung unterdrckt werden. In dieser Aufgabe wird ein einfacher Beamformer mit zwei Mikrophonen betrachtet. Ziel: Das Nutzsignal s[k], welches in gleichem Abstand von den beiden Mikrophonen entfernt liegt, soll ungehindert durchgelassen werden; hingegen soll das seitlich einstreuende Strsignal j[k] (eng!. jammer) unterdrckt werden. Dazu ntzt man die Laufzeitdifferenz des Strsignals zwischen den 2 Mikrophonen MI und M2 aus: Am Mikrophon MI wird die Sequenz s[k] + j[k] und am Mikrophon M2 die Sequenz s[k] + j[k - 1] gemessen. Das Strsignal erscheint also um eine Zeiteinheit verschoben am Mikrophon M2. Weiterhin werden fr das Nutzsignal s[k] und das Strsignal j[k] folgende Annahmen getroffen:

    j[k] sei ein weisser stationrer stochastischer Prozess mit Leistung o}

    s[k] habe die Leistung 0'; und sei unabhngig von j[k] s[k] und j[k] seien mittelwertfrei.

    a) Berechnen Sie d[k] und x[k], ausgedrckt durch die Sequenzen s[.] und j[.].

    Aus dem Referenzsignal x[k], welches nur aus Werten des Strsignals j[.] besteht, soll nun durch ein FIR-Wiener-Filter 1. Ordnung (N = 2) das Signal d[k] geschtzt werden, das aus Werten des Strsignals j[k] und des Nutzsignals s[k] besteht. Da x[k] jedoch keine Information ber s[k] enthlt, kann das Filter ausschliesslich den Strsignalanteil von d[k] schtzen, nicht aber den Nutzsignalanteil. Somit erscheint das Nutzsignal (wie gewnscht) ungefiltert am Ausgang des Beamformers.

    A.l AUFGABEN

    b) Berechnen Sie e[k] und J('Jll.) = E{e2[k]} ausgedrckt durch:!Q = [Wl,W2]t, d[k] und ~[k] = [x[k], x[k - 1]JI.

    c) Substituieren Sie R = Ebjk]~t[k]}, pt = E{d[k]~t[k]} und O'~ = E{d2[k]} in b). Sie sollten nun den Ausdruck (2.18) fr J(:!Q) erhalten haben. Berechnen Sie anschliessend den Gradienten \7:!!!.{J(:!Q)} und setzen Sie ihn gleich Q. Auf diese Weise haben Sie die Wiener-Hopf-Gleichung (2.51) hergeleitet. Berechnen Sie O'~ = E{d2 [k]} ausgedrckt durch die Leistung des Str- und Nutzsignals.

    d) Berechnen Sie Rund p. ausgedrckt durch 0'; und 0';' Dabei gilt : r[i] = E{x[k]x[k - i]} und rdx[i] = E{d[k]x[k - i]}. Verwenden Sie dazu die Resultate aus a).

    e) Berechnen Sie den optimalen Filterkoeffizientenvektor :!Q0, der J(:!Q) minimiert.

    f) Berechnen Sie J min = J(:!Q0). Das Fehlersignal ist der Systemausgang. Um welchen Faktor (in dB) verbessert sich das SNR ('signal-to-noise ratio') im Fehlersignal verglichen mit dem Systemeingang (z.B. das SNR im Mikrophon MI)?

    g) Das Strsignal wurde nur teilweise unterdrckt, weil die Filterlnge N zu klein ist. Bestimmen Sie mit Hilfe der z-Transformation das Filter H(z) = ~gl, welches durch Filterung von x[k] eine perfekte Schtzung des Strsignalanteils d'[k] in d[k] liefert und somit j[k] im Fehlersignal e[k] vollstndig unterdrckt. Um was fr einen Filtertyp handelt es sich? Worin liegt das Problem dieses Filters?

    h) Wir begngen uns mit der fr N = 2 erreichbaren Strgeruschunterdrckung. Die in e) analytisch berechnete Wiener-Lsung soll nun durch ein adaptives Filter, das durch den iterativen LMS-Algorithmus adaptiert wird, gefunden werden. Geben Sie die LMS-Gleichungen in Funktion der Mikrophonsignale MIlk] und M 2 [k] an. Whlen Sie mit Hilfe von (3.81) einen Wert fr die Schrittweite J..l. Es gelte hierbei: 0'; = 1.

  • 220 A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN A.3 ANLEITUNG ZU DEN SIMULATIONEN 221

    Hz ehler-Mass Im Frequenzbereich OWdB

    CD :2.

    ce O~

    - LMS - E(LMS) (Ensemblem~teQ

    ., - Gradient - Newton - Newton-LMS -RLS

    W2

    11

    ..., I

    WLM5

    und WFLMS

    1500 2000 2500 3000 3500 4000

    Figur A.6: System, Filter und System-Fehler-Mass ~WdB im Frequenzbereich

    FigUf@No ngureN,

    w,

    -100 I i i i i i i I I I I o 500 1000 1500 2000 2500 3000 3500 4000

    Hz

    Figur A.7: Zeitliche Entwicklung der deterministischen Autokorrelationsmatrix 'Rk Figur A.8: Rekursionsverlauf verschiedener Adaptionsalgorithmen auf der Fehlerflche

  • 223 222 A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

    vergenzgeschwindigkeiten der Modi (hier Gewichte im Frequenzbereich) bei der Adaption.

    Neben dem zeitlichen Verlauf der Filterkoeffizienten bei der Adaption kann in S4 b) die zeitliche Entwicklung der deterministischen Autokorrelationsmatrix 'Rk verfolgt werden (Figur A.7), die bei schwacher Stationaritt eine Schtzung der Autokorrelationsmatrix Rist.

    SI: Analyse der Fehlerflche bei einer Sinusschwingung als Eingangssignal

    Thema: Darstellung der Fehlerfiche im Mh :!L- und :!L'-Koordinatensystem, Rolle der Eigenwerte von R, Konditionierung des Eingangs.

    MATLAB-File: siml.m. Ergnzende Hinweise: README1.ps bzw. README1.pdj

    Diese Simulation bezieht sich auf Aufgabe 3, wo es um die Unterdrckung eines 50 Hz Netzbrummes ging. Es wurden dort Rund E. berechnet:

    R = ~ . [ 1 cos (27rin) ] 1 ( cos(i) ) (A.29)2 cos (27rin) 1 und E. = '2 . cos (27rin + i)

    Es soll nun die Fehlerflche im !!!.-, :!L- und 1!.'-Koordinatensystem dargestellt und der Zusammenhang zu den Eigenwerten von R verdeutlicht werden.

    a) Fhren Sie das MATLAB-Skriptfile siml.m aus. Neben einer Darstellung der Fehlerflche gemss (2.155), (2.157) und (2.160) werden die Schnittparabeln lngs der Hauptachsen gezeichnet. Wie ist der Zusammenhang zwischen den Eigenwerten bzw. der Konditionszahl und der Form der Fehlerflche? berprfen Sie auch Gleichung (2.154).

    b) Da R (in diesem Beispiel) von der normierten Frequenz in = !sl abhngt, kann die Konditionszahl durch Variation der Abtastfrequenz Iss verndert werden. Testen Sie is = 200 Hz und weitere Werte 200 ~ is ~ 2000. Wie verndert sich die Konditionszahl und die Form der Fehlerflche?

    c) Das Filter schtzt das Signal n[k] = cos (27rink + i) (siehe Aufgabe 3 und Figur A.l) durch Linearkombination des Referenzsignals zur Zeit k, x[k] = cos (27rink) und zur Zeit (k -1), x[k -1] = cos (27rin(k - 1)). Zeichnen Sie n[k], x[k] und x[k - 1] fr unterschiedliche in in einem Zeigerdiagramm auf und erklren Sie, warum die Konditionierung fr in = ~ am besten ist.

    A.3 ANLEITUNG ZU DEN SIMULATIONEN

    Kommentare zu SI

    a,b) Die Eigenwerte sind proportional zur 2. Ableitung der Fehlerfunktion lngs der Hauptachsen. Bei einer Konditionszahl von X(R) = ~:7: = 1 (bei in = 0.25) ist die Fehlerflche rotationssymmetrisch. Die Flche nimmt mit wachsender Konditionszahl die Form einer 'Rinne' an.

    c) Zeigerdiagramm von n[k], x[k] und x[k - 1] fr in = ~/f/ l~O (die Zeiger haben nichts mit den Eigenvektoren zu tun):

    x[k - I] = cos(. - ~) = sin(.)

    x[k - I] = cos(. - ~)

    x[k - I] = cos(. - fo)

    x[k] = cos(.) _ l~ x[k] = cos(.) _ l~ x[k] = cos(.) ( fn = ~) (fn- .0\ (rn - 100)

    n[k] = cos(. + ~) n[k] = cos(. + ~) n[k] = cos(. +~)

    x[k] = cos(21rfnk) n[k] = cos(21rfnk + ~) x[k - I] = cos(21rfnk - 21rfn)

    Der Vektor n[k] ist eine Linearkombination der Vektoren xJk] und x[k - 1] Das Vektorpaar rechts bentigt dazu grssere Koeffizienten als jenes in der Mitte. Ideal ist die Linearkombination eines Sinus und eines Kosinus. Fr die Konditionszahl gilt X(R) = 1, falls Reine Diagonalmatrix ist, d.h. wenn E{x[k]x[k - I]} = 0 ist. Ein Sinus ist orthogonal zu einem Kosinus. Deshalb wird X(R) = 1 erreicht, wenn die Phasenverschiebung nach dem Verzgerungsglied gerade ~ entspricht, also fr in = ~. Wird nun die Abtastrate erhht, steigt die Abhngigkeit von x[k] und x[k - 1], und die Konditionierung verschlechtert sich.

    S2: Rang von R bei einer Summe von K Sinusschwingungen als Eingangssignal

    Thema: Eigenwerte und Rang einer positiv semidefiniten Autokorrelationsmatrix.

    MATLAB-File: sim2.m. Ergnzende Hinweise: README2.ps bzw. README2.pdj

    Die Autokorrelationsmatrix R ist in der Regel positiv definit. In diesem Fall sind alle Eigenwerte grsser als null, der Rang von Rist N und R somit invertierbar.

  • 224 A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN A.3 ANLEITUNG ZU DEN SIMULATIONEN 225

    Ausnahme: Das Eingangssignal besteht aus K Sinusschwingungen unterschiedlicher Frequenzen. Nach (2.98) ist R positiv semidefinit, falls fr die Dimension N x N gilt:

    2K 2K), existieren Freiheitsgrade, was sich in einer singulren Autokorrelationsmatrix ausdrckt.

    In der Praxis besteht ein Eingangsignal nicht aus einer endlichen Summe von Sinusschwingungen (kein Linienspektrum), so dass i.Allg. 2K > N, R positiv definit ist und alle Eigenwerte von Null verschieden sind. Jedoch kann die Konditionierung ungnstig sein (grosser Wertebereich der Eigenwerte).

    83: LM8-Algorithmus

    r Thema:

    .j'

    S3 a) Verlauf der Rekursion des Newton-, Gradienten- Verfahrens und des LMBAlgorithmus auf der Fehlerflche, abhngig von der Konditionierung X(R).

    .<

    S3 b) LMB-Algorithmus: Lernkurve, MBE, J min , Einfluss von p" N, X(R) und a~.

    MATLAB-Files: sim3a.m, sim3b.m. Ergnzende Hinweise: README3.ps bzw. README3.pdf

    83 a) Systemimpulsantwort: FIR, N h = 2. Adaptives Filter: FIR, N = 2 (zur 3D Darstellung der Fehlerflche). Eingangssignal: Typ A, Konditionierung X(R) variabel. Algorithmen: Newton-, Gradienten-Verfahren und LMS-Algorithmus.

    1. Betrachten Sie den Rekursionsverlauf auf der Fehlerflche bei unterschiedlicher Konditionierung X(R) (Variation des Kosinus-Anteils ac in x[k]). Weshalb ist der Rekursionsverlauf beim Newton-Verfahren im Gegensatz zum Gradienten-Verfahren und LMS-Algorithmus unabhngig von X(R)? Was kann ber die LMS-Konvergenz im Ensemblemittel gesagt werden?

    2. Setzen Sie ac = O. Welchen Einfluss haben p, und a~ auf die LMS-Lernkurve? berprfen Sie die Beziehung fr Jmin (A.16) (hier ist N h = N = 2). Wie gross ist der MSE nach Adaptionsende J[keJ?

    83 b) Systemimpulsantwort: UR erster Ordnung. Adaptives Filter: FIR, N variabel. Eingangssignal: Typ A, Konditionierung X(R) variabel. Algorithmen: LMS-Algorithmus.

    1. Welchen Einfluss hat die Schrittweite p, auf Jmin und J[keJ (Eingabe: Liste fr p" ein Wert fr N)? Wann wird der Algorithmus instabil? Vergleichen Sie mit der oberen Grenze P,max2 nach (6.21) (hier: a; = 1).

    2. Welchen Einfluss hat die Filterordnung (N -1) auf Jmin und J[keJ (Eingabe: Liste fr N, ein Wert fr p,)? Vergleichen Sie mit (A.15) und (A.16). Was ist also bei der Wahl von N zu bercksichtigen?

    3. Vergleichen Sie fr einen weissen Eingang die Systemimpulsantwort mit den Gewichten des adaptiven Filters fr variierende N. Wie entwickelt sich das System-Fehler-Mass ~B (Vergleich mit (A.18))? Welchen Einfluss hat das Messrauschen a~ auf den Wert des LMS System-Fehler-Masses?

  • 227 226 A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

    4. Wie vergleichen sich die Filtergewichte und die Wiener-Lsung mit der Systemimpulsantwort bei einem farbigen Eingangssignal? Wieso erreicht der MSE trotz der Abweichung von der Systemimpulsantwort einen relativ kleinen Wert?

    S4: RLS- und LMS-Algorithmus

    Thema: S4 a) Verlauf der Rekursion des Newton-LMS-, LMS- und RLS-Algorithmus auf der Fehlerfiche abhngig von der Konditionierung X(R). S4 b) RLS-Algorithmus: Unabhngigkeit von der Konditionierung X(R), Vergleich mit LMS-Algorithmus, Lernkurve, MSE, Jmin , Fehleinstellung M, WdB , deterministische Autokorrelationsmatrix Rk. S4 c) RLS-Algorithmus mit Vergessensfaktor p: Nachfhrverhalten bei einer Systemnderung ('tracking'), Lernkurven, MSE, Fehleinstellung M, W dB

    MATLAB-Files: sim4a.m, sim4b.m, sim4c.m. Ergnzende Hinweise: README4.ps bzw. README4.pdf

    84 a) Systemimpulsantwort: FIR, N h = 2. Adaptives Filter: FIR, N = 2. Eingangssignal: Typ A, Konditionierung X(R) variabel. Algorithmen: RLS-, Newton-LMS- und LMS-Algorithmus.

    1. Betrachten Sie den Rekursionsverlauf auf der Fehlerflche und die Konvergenzzeiten der Algorithmen bei unterschiedlicher Konditionierung X(R). Was bewirkt die Vormultiplikation mit der Inversen der Autokorrelationsmatrix beim RLS- und Newton-LMS-Algorithmus in (4.55) und (3.188)?

    84 b) Systemimpulsantwort: UR erster Ordnung. Adaptives Filter: FIR, N variabel. Eingangssignal: Typ A, Konditionierung X(R) variabel. Algorithmen: RLS- und LMS-Algorithmus.

    1. Vergleichen Sie den RLS- und den LMS-Algorithmus bezglich Konvergenzgeschwindigkeit, J[keJ, Fehleinstellung Mund WdB (bei einer Variation von X(R), N und a~).

    2. Wieviele Iterationen (abhngig von N) bentigt der RLS-Algorithmus bis die Gewichte eingeschwungen sind? Betrachten Sie auch den Fall a~ ~ 0 (a~ = -200 dB).

    A.3 ANLEITUNG ZU DEN SIMULATIONEN

    3. Die deterministische Autokorrelationsmatrix R k ist bei schwacher Stationaritt eine Schtzung von R (4.88). Verfolgen Sie die zeitliche Entwicklung von R k fr ein weisses und ein farbiges Eingangssignal.

    84 c)t'

    Systemimpulsantwort: UR erster Ordnung, Systemnderung II ----> -ll bei ke /4.:\.. ~

    .i{t Adaptives Filter: FIR, N variabel. ,-Aj~',

    Eingangssignal: Typ A, Konditionierung X(R) variabel. Algorithmen: RLS-Algorithmus mit Vergessensfaktor p und LMS-Algorithmus.

    1. Betrachten Sie das Nachfhrverhalten des RLS-Algorithmus bei Variation des Vergessensfaktors p. Vergleichen Sie jeweils das Einschwingverhalten zu Beginn der Adaption und nach der Systemnderung bei ke /4. Vergleichen Sie auch mit dem LMS-Algorithmus.

    2. Inwieweit geht das verbesserte Nachfhrverhalten des RLS-Algorithmus mit p< 1 auf Kosten der Genauigkeit (M, J[keJ und WdB , Variation von p bei fixem System)? Vergleichen Sie mit (6.31).

    S5: FLMS- und LMS-Algorithmus

    Thema: Echokompensation durch den FLMS-Algorithmus. Unabhngigkeit von der Konditionierung X(R). Vergleich mit LMS-Algorithmus, Rechenaufwand/-zeit, Lernkurve, MSE, Jmin, Fehleinstellung M, Filter und System-Fehler- Mass im Zeitund Frequenzbereich, Beschleunigung langsamer Modi durch die frequenzabhngige Schrittweite beim FLMS-Algorithmus, erzielte Echounterdrckung ERLE.

    MATLAB-File: sim5.m. Ergnzende Hinweise: README5.ps bzw. README5.pdj.

    Systemimpulsantwort: erste 1500 Werte einer UR Raumimpulsantwort (LRMI), gemessen in einem Seminarraum. Adaptives Filter: FIR, N variabel. Eingangssignal: weiss oder Typ B, AR-Prozess 16. Ordnung, charakteristisch fr Sprache. Algorithmen: FLMS- und LMS-Algorithmus.

    Diese Simulation bezieht sich auf die in Abschnitt 1.3.7 beschriebene und in Figur 1.27 dargestellte Anwendung eines adaptiven Filters zur Unterdrckung des akustischen Echos bei einer Freisprecheinrichtung. Die hier verwendete FIRSystemimpulsantwort von 1500 Koeffizienten stammt von einer Messung der LRMI eines kleinen Seminarraumes. Als realittsnahes Eingangssignal (mit einem sprachtypischen Spektrum) dient ein AR-Prozess 16. Ordnung, dessen Parameter

  • 228 A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

    durch LPC-Analyse (Abschnitt 1.3.3) eines Sprachausschnitts (Laut 'e') gewonnen wurden.

    1. Vergleichen Sie den FLMS- und den LMS-Algorithmus zunchst fr ein weisses Eingangssignal. Whlen Sie dabei die Parameter N, L und C derart, dass die Overlap-Save-Bedingung C 2: N + L - I erfllt ist und beide Algorithmen die gleiche Anzahl freier Filtergewichte3 erhalten: NFLMS = NLMS . Die Wahl von L und C bei vorgegebenen N kann auf Wunsch auch automatisch erfolgen.

    2. Wieviele Gewichte N sind erforderlich, wenn die Echounterdrckung mindestens ERLE = 30 dB betragen soll?

    3. Wie sieht der LMS-FLMS Vergleich unter der realistischeren Annahme aus, dass ein Eingangssignal mit einem sprachtypischen Spektrum (AR-Prozess) anliegt? Betrachten Sie die Filter und das System-Fehler-Mass b.WdB(i)

    . im Frequenzbereich, um die verlangsamte LMS-Konvergenz zu erklren. Vergleichen Sie dazu die langsamen Modi (Frequenzen mit b.WdB(i) ~ 0 dB) mit dem Leistungsdichtespektrum des Eingangssignals.

    4. Beachten Sie auch das Verhltnis des Rechenaufwandes der beiden Algorithmen.

    3Der FLMS-Algorithmus besitzt NFLMS = C - L + 1 freie Gewichte (5.36).

    tf.';

    t:

    .L"'"!,. B Die lineare 'I'; und die zyklische Faltung~

    ~i

    Bekanntlich kann die Faltung langer Sequenzen effizienter im Frequenzbereich durchgefhrt werden, indem die Sequenzen DFT-transformiert werden, elementweise multipliziert und dann wieder rcktransformiert werden1. Allerdings entspricht diese Vorgehensweise einer zyklischen Faltung. Im Allgemeinen ist die lineare und die zyklische Faltung nicht identisch. Wie hier graphisch verdeutlicht werden soll, entspricht jedoch ein Teil der zyklischen Faltung der linearen Faltung, wenn mindestens eine der Sequenzen am Ende Elemente aufweist, die Null sind. Mit dem sog. Overlap-Save-Verfahren, das ber die DFT recheneffizient eine lineare Faltung berechnet, findet diese Tatsache Anwendung. In den Figuren verwenden wir die folgenden Muster fr die verschiedenen Blcke:

    I I Nullen I 'fi"I..:i'jt~:~ a enCo,," -s: D t ~h'2 unbrauchbarer Anteil der zyklischen Faltung

    Die (diskrete) lineare Faltung der Sequenzen x[n] und w[n] ist wie folgt definiert:

    00

    y[n] = 2: x[i] w[n - i] (B.I) ~ ,

    i=-oo

    ~I Als Abkrzung dieser Faltungssumme wird die Notation

    y[n] = x[n] *w[n] (B.2)

    verwendet. 2

    Nun nehmen wir an, dass die Sequenzen x[n] und w[n] nur in einem Bereich der Lnge C (C ist die DFT-Lnge) Werte aufweisen, die von Null verschieden sind,

    Isiehe z.B. [16]. 2Eine weitere Notation ist: y[nJ = (x *w)[nJ.

  • --------- -------

    'il

    231230 B DIE LINEARE UND DIE ZYKLISCHE FALTUNG B DIE LINEARE UND DIE ZYKLISCHE FALTUNG

    und wir die Faltung y[n] nur fr eine Verschiebung n im Bereich von 0 S; n S; C-1 Die zyklische Faltung (gezeichnet fr den Fall n = 0): berechnen wollen:

    0-1 ~r..

    y[n] = L xli] . w[n - i] 0S;nS;C-1 (B.3) .",:~"oI-'.

    ;=0

    Diese Situation kann wie folgt graphisch dargestellt werden:

    Y[n]Sequenzen x[n] und w[n]:

    C-N+l

    x[n] _ Es ist sofort ersichtlich, dass die lineare und die zyklische Faltung fr diejenigen I Ilu __ u_ Werte von n identisch sind, fr welche w[n - i mod Cl bei der zyklischen Faltung w[n] ========~L:":::"":''~',L_---rrc _ 1

    o N 'ungeteilt' vorliegt, d.h. es gilt:

    y[n] = y[n] fr N - 1 S; n < C (B.6)

    Lineare Faltung (gezeichnet fr den Fall n = 0): Es stimmen also die letzten (C - N +1) Werte der zyklischen Faltung Y[n] mit der linearen Faltung y[n] berein. Diese Werte werden beim Overlap-Save-Verfahren weiterverwendet, um blockweise eine lineare Faltung zusammenzusetzen.

    o xli] C-1

    n = ~ =========R . ': " ,-:

  • :' C Berechnung des Gradienten ,.. von Vektor-Matrix-Gleichungen~.;

    In diesem Abschnitt wird erklrt, wie der Gradient einer Vektor-Matrix-Gleichung berechnet wird. Ferner wird die bilineare und quadratische Form erlutert.

    1. Der Gradient einer skalaren Funktion g(Yl.) eines N x 1 Vektors Yl. ist wiederum ein N x 1 Vektor (der Gradientenvektor):

    og og ~ t (C.I)\7Yl. {g(Yl.)} = [OW1' OW2"" , OWN ]

    Er gibt die Ableitung einer skalaren Funktion nach einem Vektor an.

    2. Das Skalarprodukt zweier Vektoren 1! und 11. (beide N xI) ist definiert1

    als:

    (1!,y') = LN

    UiVi = UIVI + U2 V2 + ... + UNVN = 9 (C.2) i=l

    Es gilt also: (1!,y') = 1!tY. = Y.t1! = (Y.,1!) = 9 (C.3)!.

    Das Skalarprodukt ergibt eine skalare Grsse, also kann auch dessen Gra, \' dient berechnet werden.

    3. Der Gradient eines Skalarproduktes zweier Vektoren 1! und 11. nach einem der Vektoren ergibt den anderen Vektor, also:

    (CA)\7y'g = \7Y,{1!tY.} = 1!; \71!g = \71! {Y.t1!} = 1!.

    1Wir setzen hier jeweils reelle Vektoren voraus.

    . ,r J" .~ ~ I l./~~i" -:. i (.,{~ ( J z/..:Jll-.

  • - - - -

    234 235 C GRADIENTEN VON VEKTOR-MATRIX-GLEICHUNGEN

    Beispiel: 1f = [Ul' U2]t , 1L = [VI, v21 t:

    t\71Lg = \71L{1f 1L} = \71L{UlVl + u2vd = [ ~ ] = [ ~: ] = 1f

    4. Der Gradient eines Vektor-Matrix Produktes der Form 1Y.tR nach 1Y. ergibt die Matrix R, wobei 1Y. von der Dimension N x 1 und R von der Dimension N x N ist, also:

    (C.5)I\7", {",'R} ~ RI Beispiel:

    1Y. = [Wl' W2]t , R = [~ ~]

    1Y.tR = [Wl, w21 [~ ~] = [aWl + CW2, lrw l + dW2]

    8(awl +CW2) 8(bwl +dW2)] [ b ] \71Y. {1Y.tR} =

    [ 8(a~CW2) 8(~'tldw2) = ~ d = R

    8W2 8W2

    Folglich ergibt der Gradient eines transponierten Vektors 1Y.t nach 1Y. die Einheitsmatrix:

    owt \71Y. {1Y.t } = 0; = \71Y. {1Y.tI} = I (C.6)

    Beispiel: 1Y.t = [Wl' W2] :

    t ~~]8wl [10] 8W l - I\71Y. {1Y. } = [ ~ ~ - 0 1 8W2 8W2

    5. Gegeben sei das Skalarprodukt 9 zweier Vektoren 1f(1Y.) und 1L(1Y.) , die beide von einem dritten Vektor 1Y. abhngen. Um den Gradienten von 9 bezglich 1Y. zu berechnen, mssen wir die bekannte Produktregel anwenden. Mit

    9 = 1ft (1Y.)1L(1Y.) = 1Lt(1Y.)1f(1Y.) (C.7)

    erhalten wir:

    \7w {g} = \7w {1ft(1Y.)1L(1Y.)} = \7w {1ft(1Y.)} 1L(1Y.) + 1ft (1Y.)\7w {1L(1Y.)} (C.8)

    Weil wir aber nur sinnvoll den Gradienten eines Vektors in seiner transponierten Form berechnen knnen, mssen wir den zweiten Term in (C.8) umformen. Weil dieser wiederum ein Skalarprodukt darstellt, gilt nach (C.3):

    ll(uL)\71Y. {1L(1Y.)} = \71Y. {1Lt(1Y.)} 1f(1Y.) (C.9)

    C GRADIENTEN VON VEKTOR-MATlliX-GLEICHUNGEN

    Eingesetzt in (C.8) erhalten wir die Produktregel fr den Gradienten:

    (C.lO)\71Y. {g} = \71Y. {1ft(1Y.)} 1L(1Y.) + \71Y. {1Lt(1Y.)} 1f(1Y.)

    Bilineare und Quadratische Form

    Man nennt das Skalarprodukt

    B = ;ftAJ!. = (;f, AJ!.) (C.11)

    eine bilineare Form der Variablen Xi und Yi, wobei ;f = [Xl, X2,"" xn]t, Y = [Yl' Y2,' .. ,Yn]t und

    all a12 n ala22 a2n ]A = a~l (C.12)

    [ anl an 2 ... ann

    Ausgeschrieben erhlt man fr B:

    n n

    B LLaijXiYj (C.13) i=l j=l

    al1 XlYl + a12 XlY2 + ... + alnxlYn + a2l X2Yl + a22 X2Y2 + ... + a2n X2Yn + ... + anlXnYl + an2XnY2 + ... + annxnYn

    A wird als Koeffizientenmatrix der bilinearen Form B bezeichnet. Ist ;f = Y, so erhalten wir die sogenannte quadratische Form Q der Variablen Xl, X2,"'~ Xn, also:

    Q = ;ft A;f = (;f, A;f) (C.14)

    Ausgeschrieben ergibt sich fr Q:

    n n

    Q = L L aijXiXj (C.15) i=l j=l

    Fr (i =1= j) haben alle Koeffizienten der Terme XiXj die Form (aij + aji). Wir ndern den Wert von Q nicht, wenn wir fr (i =1= j) sowohl aij wie auch aji als ~(aij + aji) annehmen. So wird die Koeffizientenmatrix A symmetrisch. Ohne Einschrnkung der Allgemeinheit kann man also die Matrix Asymmetrisch

  • 236 C GRADIENTEN VON VEKTOR-MATRIX-GLEICHUNGEN

    ," ,

    annehmen. Ist brigens a:j = aji, dann ist die sogenannte Hermitesche Form H gegeben als:

    n n

    H = J2t AJ2 = L L aijX;Xj = (J2, AJ2) , mit a;j = aji (C.16) ,. Literaturverzeichnis i=l j=l

    Als Beispiel zur quadratischen Form gehen wir aus von:

    Q = xi + x~ + x5 + 2XIX2 + 4X2X3 + 6X3Xl

    [1] C. Breining, P. Dreiseitel, and E. Haensler. Acoustic Echo Control. IEEE gonalen liegen und die brigen Koeffizienten via die Form ~(aij + aji) zu einer Unter Ausntzung, dass die Koeffizienten der quadratischen Terme in der Dia

    Signal Processing Magazine, July 1999. symmetrischen A-Matrix zu ergnzen sind, knnen wir Q direkt in die Form

    [2] P. M. Clarkson. Optimal and Adaptive Signal Processing. CRC Press, 1993. (C.14) bringen:

    [3] J. R. Deller, J. G. Proakis, and J.H. Hansen. Discrete-Time Processing of[113] [Xl]Q = [Xl,X2,X3] 1 1 2 X2 Speech Signals. Prentice-Hall, 1993. 3 2 1 X3 [4] P. G. Estermann. Adaptive Filter im Frequenzbereich: Analyse und Entwurfs

    Mit (2.47) kann der Gradient der quadratischen Form angegeben werden. Zusam strategie. PhD thesis, ETH Zrich, 1997. men mit (C.14) folgt:

    'VJ2{Q} = 2AJ2 (C.17) [5] E. R. Ferrara, Frequency-domain adaptive filtering. In C.F.N. Cowan and P.M. Grant, editors, Adaptive Filters, pages 145-179. Prentice-Hall, 1985.

    Fr das obige Beispiel ergibt sich somit: [6] G. O. Glentis, K. Berberidis, and S. Theodoridis. Efficient least squares

    adaptive algorithms for FIR transversal filtering: a unified view. IEEE Signal2Xl + 2X2 + 6X3 ] Processing Magazine, July 1999.'VJ2{Q} = [ m]= [ 2Xl + 2X2 + 4X3

    8X3 6Xl + 4X2 + 2X3

    [7] L. Griffiths. A simple adaptive algorithm for real-time processing in antenna arrays. Proc. IEEE, 57:1696-1704, October 1969.

    [8] L. Griffiths and C. Jim. An alternative approach to linear constrained optimum beamforming. IEEE Trans. on Antennas and Propagation, 30:27-34, January 1982.

    [9] S. Haykin. Adaptive Filter Theory. Prentice Hall, 3rd edition, 1996.

    'i [10] S. Haykin, editor. Unsupervised Adaptive Filtering, Volume I, Blind Source Separation. John Wiley & Sons, 2000.

    [11] S. Haykin, editor. Unsupervised Adaptive Filtering, Volume II, Blind Deconvolution. John Wiley & Sons, 2000.

    [12] M. Joho and G. S. Moschytz. Connecting partitioned frequency-domain filters in parallel or in cascade. IEEE Transactions on Circuits and SystemslI, accepted August 2000.

  • 238 LITERATURVERZEICHNIS

    [13] R. E. KaIman. A New Approach to Linear Filtering and Prediction Problems. Trans. 0/ the ASME - Journal 0/ Basic Engineering, March 1960.

    [14] K. Kroschel. Statistische Nachrichtentheorie. Springer, 3rd edition, 1996.

    [15] O. Macchi. Adaptive Processing. John Wiley & Sons, 1995.

    [16] A. V. Oppenheim and R. W. Schafer. Discrete-Time Signal Processing. Prentice Hall, 2nd edition, 1999.

    [17] A. V. Oppenheim and R. W. Schafer. Zeitdiskrete-Signalverarbeitung. 01denbourg, 3rd edition, 1999.

    [18] A. Papoulis. Probability, Random Variables, and Stochastic Processes. McGraw-Hill, 3rd edition, 1991.

    [19] J. G. Proakis. Digital Communications. McGraw-Hill, 3rd edition, 1995.

    [20] P. C. W. Sommen. Partitioned frequency domain adaptive filters. In Proc. Asilomar Con/erence on Signals, Systems, and Computers, pages 676-681, Pacific Grove, CA, November 1989.

    [21] M. M. Sondhi and D. A. Berkley. Silencing echoes on the telephone network. Proc. IEEE, 68(8):948-63, August 1980.

    [22] J. Soo and K. Pang. A new structure for block FIR adaptive digital filters. in Proc. IREECON, 38:364-367, 1987.

    [23] J. R. Treichler, C. R. Johnson, and M. G. Larimore. Theory and Design 0/ Adaptive Filters. John Wiley & Sons, 1987.

    [24] B. Widrow andM. E. Hoff. Adaptive switching circuits. IRE Wescon Conv. Rec. Part 4, pages 96-104, 1960.

    [25] B. Widrow and S. D. Stearns. Adaptive Signal Processing. Prentice Hall, 1985.

    ", Index

    A aposteriori-Fehler, 138 apriori

    -Ausgangswert, 136 -Fehler, 136, 137

    Abtastinvervall, 4 Abtastrate, 29, 223 Abtasttheorem, 4 Abtastung, 4 Abweichungsvektor, 56 AD-Wandlung, 5 Adaptionsalgorithmen

    blinde -,2 Block-LMS, siehe Block-LMS-

    Algorithmus 'Fast'-LMS-Algorithmus, 166 'Fast'-RLS-Algorithmus, 154 FLMS, siehe FLMS-Algorithmus Frequenzbereichs-, siehe Frequenz

    bereichsalgorithmen Gradienten-Suchalgorithmen, siehe

    ".' Gradienten-Suchalgorithmen Gradienten-Verfahren, siehe

    Gradienten-Verfahren Klassifikation, 189 Leistungskriterien, 5 LMS, siehe LMS-Algorithmus Newton-LMS, siehe Newton-LMS-

    Algorithmus Newton-Verfahren, siehe Newton-

    Verfahren PFLMS, siehe PFLMS-Algorithmus RLS, siehe RLS-Algorithmus self-orthogonalizing, 123, 150, 172,

    189 stochastic gradient, 78, 189

    Adaptive Differentielle 'Pulse-CodeModulation' (ADPCM), 18

    adaptive Echokompensation, siehe Echokompensation

    adaptive Filter Algorithmus, siehe Adaptionsalg0

    rithmen Anwendungen, siehe Anwendungen Filterstrukturen, 38 - im Frequenzbereich, siehe

    Frequenzbereichsalgorithmen Linearitt, 2

    adaptive noise cancellation (ANC), 10 adaptive Strgeruschunterdrckung, 10 Algorithmus, siehe Adaptions

    algorithmen Allpass

    idealer -, 23 Allpol-Filter, 16, 39, 152, 216 Analysefilter, 15 Anregungssignal, 16 Anwendungen

    Beispiele, 10 Klassifizierung

    Elimination von Strungen, 10 Inverse ModelIierung, 9 Lineare Prdiktion, 9 Systemidentifikation, 8

    Klassifizierung der -, 8 Anzahl reeller Multiplikationen, siehe

    Rechenaufwand Aufstartphase, 149, 187, 189 Augendiagramm, 24 Ausgangssignal, 40 Autokorrelationsfunktion, 32 Autokorrelationsmatrix, 6

    Definition, 43 deterministische -, 130

    als Schtzung der -, 146 Eigenschaften, 44

  • 241 240

    Eigenvektoren, 61 Eigenwerte, 61, 223 positiv definite -, 45 positiv semidefinite -, 45, 60 Rang, 223

    Autokovarianz -funktion, 33 -matrix des Abweichungsvektors, 107

    autoregressiver (AR) Prozess, 152, 176, 189,216

    B Basis, orthonormale, 64 Beamformer, 12, 198 Block

    -index, 158 -lnge, 84 -raster, 164 -verarbeitung, 158 -verschiebung, 159

    Block-LMS-Algorithmus, 84, 189 bounded-input bounded-output (BIBO) ,

    208

    C charakteristische Gleichung, 62

    D Daten

    -rate, 18 -reduktion, 18, 19

    Datenbertragung, 21 definit, siehe Matrix Dekoder,18 Dekorrelation des Eingangssignals

    beim FLMS-Algorithmus, 158 beim Newton-LMS-Algorithmus, 122 beim RLS-Algorithmus, 150 durch die DFT, 166 durch die KLT, 73

    desired signal, 41 deterministische

    - Autokorrelationsmatrix, 130 - Fehlerfunktion, 129

    deterministischer Kreuzkorrelationsvektor, 131

    Diagonalisierung der Autokorrelationsmatrix

    INDEX

    - durch die DFT, 167 - durch die KLT, 74 unitre hnlichkeitstransformation,

    65 Dichtefunktion, 31 Differenzfilter, 58 Digitaler Signal-Prozessor DSP, 5 Diskrete Fourier-Transformation (DFT),

    157, 159 Dekorrelationseigenschaft der -, 166 -Koeffizienten, 159 -Lnge, 158 -Matrix, 159 Vergleich mit KLT, 170

    'doubletalk'-Phase, 27

    E Echokompensation, 25, 227

    akustisches Echo, 28 - bei Freisprecheinrichtungen, 28 elektrisches Echo, 25 ERLE, siehe ERLE LRMI, siehe LRMI Restecholeistung, 214

    Echtzeitsystem, 5, 176 Egalisation, 19 Eigenvektoren der Autokorrelations

    matrix Eigenschaften der -, 61

    Eigenvektoren der Autokorrelationsmatrix

    - als orthonormale Basis, 64 Eigenwerte der Autokorrelationsmatrix

    Eigenschaften der -, 61 eigenvalue spread, 73 Konditionszahl, 73

    Eingangssignal - mit positiv semidefiniter Autokor

    relationsmatrix, 60 -leistung, 98 -vektor

    Definition, 40 Transformation, 74

    farbiges -, 152, 174, 189, 210 weisses -,60, 103, 119, 152, 174, 189,

    210

    INDEX

    Elimination von Strungen, siehe Anwendungen

    Ellipsen, konzentrische, 69 Empfangsfilter, 25 Enkoder, 18 Ensemble, 30 Ensemblemittelwert, 32

    - geschtzt durch zeitliche Mittelung, 34, 146

    Entzerrung, 21 Enveloppe, 16 Ergodizitt, 34 ERLE: echo-return loss enhancement, 214 error performance surface, siehe Fehler

    flche erwnschtes ('desired') Signal, 41 Erwartungswert, 32 excess mean-squared error, siehe ber

    schussfehler exponentielle Datengewichtung, 142

    F Faltung

    lineare -, 160, 229 zyklische -, 160, 229

    farbiges Rauschen, siehe Rauschen 'Fast'-Fourier-Transformation (FFT),

    158, 173 'Fast'-LMS-Algorithmus, 166 'Fast'-RLS-Algorithmus, 154 FehleinsteIlung, 5, 111, 113

    LMS-,115 siehe auch jeweilige Algorithmen

    Fehlerflche, 46 Fehlerfunktion ,.

    ':1' Definition, 42 deterministische, 129 Minimierung der -,46

    Fehlersignal, 41 Filter

    Impulsantwort FIR: Finite Impulse Response, 38 HR: Infinite Impulse Response, 38 kausale -, 38, 208, 211

    Notch-, 12 Nullstellen, 38 -ordnung, 38

    Pole, 38 Stabilitt, 39 -strukturen, 38

    Filterkoeffizienten, 38 optimale -, 49

    Finite Impulse Response (FIR), siehe Filter

    FLMS-Algorithmus, 164, 189 constrained, 166 Dekorrelationseigenschaft des -, 166 FehleinsteIlung, 173 Herleitung, 158 Konvergenz

    -Verhalten, 172, 176, 189 -zeit, 166, 176, 189

    Lernkurve, 176, 189 Nachfhrverhalten, 191 Notation, 158 Parameter des -, 159, 172 partitionierter -, siehe PFLMS-

    Algorithmus Rechenaufwand, 173 Rekursionsschema, 164 Schrittweite

    frequenzabhngige -, 163 Skalierung der -, 163

    Simulation, 174, 189,210 berschussfehler, 176 unconstrained, 166 Vergleich mit RLS- und LMS

    Algorithmus, 189 Zusammenfassung, 188

    Fluktuation der Filtergewichte, 111 forgetting factor, siehe Vergessensfaktor Formanten, 16 Freiheitsgrade, 60 Freisprecheinrichtung, 28 Frequency-Domain-LMS-Algorithmus,

    siehe FLMS-Algorithmus Frequenzbereichsalgorithmen, 157

    FLMS, siehe FLMS-Algorithmus PFLMS, siehe PFLMS-Algorithmus

    fundamentale Annahmen, 93

    G Gtemass, 37 Gabelschaltung

  • 243 242

    aktive -,26 passive -, 26

    Gedchtnis, 142 Gewichtsvektor

    Definition, 40 optimaler -, 49 Transformation des -, 66

    Gradient, 49 approximierter -, 83 einer Vektor-Matrix-Gleichung, 233 Momentan-, 84

    Gradienten-Suchalgorithmen fr FIR-Filter, 77, 184, 189

    stochastic gradient, 189 Gradienten-Verfahren, 79, 189

    Herleitung, 79 Konvergenz

    -Analyse, 88 -Bedingung, 98 -Verhalten, 88 -zeitkonstante, 103, 106

    Lernkurve, 104, 113 Schrittweite, 79

    obere Grenze der -, 98 Gradientenrauschvektor, 106 Griffiths-Algorithmus, siehe

    P-Vektor-Algorithmus

    H Hauptachsen, 70, 72

    -koordinaten, 72, 101, 108, 113 hermitesch, 44 Hess'sche Matrix, 47

    I Impulsantwort, siehe Filter Infinite Impulse Response (UR),

    siehe Filter intersymbol interference (ISI), 23 Inverse ModelIierung,

    siehe Anwendungen

    J J, siehe MSE Jex , siehe berschussfehler

    K Kaiman-Filter, 3

    INDEX

    Kammfilter, 59 Kanal, nichtidealer, 21 Karhunen-Loeve-Transformation (KLT),

    74 Dekorrelationseigenschaft der -, 74 Vergleich mit DFT, 170

    kausal, siehe Filter Klassifikation

    - der Adaptionsalgorithmen, 189 - der Anwendungen, 8

    komplexer LMS-Algorithmus, 120, 189 Konditionierung

    - des Eingangssignals, 73 Konditionszahl, 73 schlechte -, 73 Unabhngigkeit von der -, 75 Zusammenhang Spektrum und -, 73

    Konditionszahl, 73 Konvergenzeigenschaften, siehe jeweili

    ge Algorithmen Konvergenzzeit, 5

    - der Filterkoeffizienten, 103 - der Lernkurve, 105 siehe auch jeweilige Algorithmen

    Koordinaten Hauptachsen-, 72 -transformation, 75

    Korrelations -funktion, 32 -matrix, siehe Autokorrelationsma

    trix Kovarianz

    -funktion, 32 -matrix, siehe Autokovarianzmatrix

    Kreuzkorrelationsfunktion, 33 Kreuzkorrelationsvektor

    Definition, 43 deterministischer -, 131

    Kreuzkovarianzfunktion, 33

    L Least-Mean-Square-Algorithmus, siehe

    LMS-Algorithmus Least-Squares-Verfahren, 127, 189

    deterministische Fehlerfunktion, 129 deterministische Wiener

    Hopf-Gleichung, 132

    INDEX

    Recursive Least-Squares-Algorithmus, siehe RLS-Algorithmus

    Lernen berwachtes, 'supervised', 1 nicht berwachtes, 'unsupervised'

    1 Lernkurve, 103

    siehe auch jeweilige Algorithmen

    ~. Linear Predictive Coding, siehe LPC-

    Analyse lineare Faltung, 160, 229 lineare optimale Filterung, 3, 6, 41, 46

    'l. lineare Prdiktion, siehe Anwendungent

    .~.

    t ~. Linienspektrum, 59

    LMS-Algorithmus, 85, 189 .\1. 'Fast'-, 166

    komplexer -, 120 normierter (NLMS), 119, 189 Varianten des -, 119, 189 Block-,84 FehleinsteIlung, 115

    '. Herleitung, 82 Konvergenz

    -Analyse, 92 -Bedingung, 98 , . - 'im Mittel', 92 -Verh&ten, 92, 116, 117, 189 -zeitkonstante, 103, 106

    Lernkurve, 104, 113, 118, 189 Momentangradient, 84 Nachfhrverhalten, 191 Newton-, 121 RechenauBwand, 86 Rekursionsschema, 85 Schrittweite, 85

    obere Grenze der -, 98 Simulation, 117, 154, 174, 189, 210 berschussfehler, 115 Vergleich mit RLS- und FLMS

    Algorithmus, 189 Zusammenfassung, 185

    LPC-Analyse, 14 Koeffizienten, 15

    LRMI Lautsprecher-Raum-MikrophonImpulsantwort, 29

    M MATLAB-Simulationen, siehe Simula

    tionsanleitungen Matrix

    hermitesche -, 44 Hess'sche -, 47 negativ definite -, 45 positiv definite -, 45 positiv semidefinite -, 45 singulre, 45 Spur, 97 symmetrische -, 44 -Transposition, 44 Toeplitz-, 45 zirkulre -, 168

    Matrixinversions-Lemma, 134 Mean-Squared Error (MSE), siehe

    mittlerer quadratischer Fehler Mehrwegausbreitung, 19 Messrauschen, siehe Rauschen Methode der kleinsten Fehlerquadrate,

    siehe Least-Squares-Verfahren minimaler mittlerer quadratischer Feh

    ler (MMSE), 49 - bei der Systemidentifikation, 211

    Minimum Mean-Squared Error (MMSE), siehe minimaler mittlerer quadratischer Fehler

    misadjustment, siehe FehleinsteIlung Mittelwert

    Ensemble-, 32 Zeit-,34

    mittlerer quadratischer Fehler (MSE), 42

    - bei der Systemidentifikation, 211 MMSE, siehe minimaler mittlerer qua

    dratischer Fehler Modalmatrix, 65 Modellparameter, 5 Modem, 24 Modi der Adaption, 102, 151, 166, 172 Moment, 32 Momentangradient, 84 MSE, siehe mittlerer quadratischer Feh

    ler Musterfunktion, 30

  • 244 245

    N Nachfhrphase, 149, 188, 189 Nachfhrverhalten, 5

    siehe auch jeweilige Algorithmen Netzstrung, Netzbrumm, 12 neuronale Netzwerke, 1 Newton-LMS-Algorithmus, 121, 189

    Dekorrelationseigenschaft des -, 122 Newton-Verfahren, 79, 189

    Herleitung, 79 normierter LMS-Algorithmus (NLMS),

    119,189 Notchfilter, 12 Nullstellen, 38

    - des Differenzfilters, 59 numerische Robustheit, 5, 141, 155 Nutzsignal, 10 Nyquistkriterium, 22

    o optimale lineare Filterung, siehe lineare

    optimale Filterung Optimalittskriterium, 37 Orthogonalitt, 36 Orthogonalittsprinzip, 52

    geometrische Deutung, 53 orthonormale Basis, 64 Overlap-Save-Verfahren, 160

    Bedingung, 160 Berechnung der linearen Faltung, 160

    p

    P-Vektor-Algorithmus, 124 Paraboloid, 69

    rotationssymmetrisches -, 72 Parameterlsung, 58 Partitioned Frequency-Domain

    LMS-Algorithmus (PFLMS), siehe PFLMS-Algorithmus

    Partitionen, 177 PFLMS-Algorithmus, 179, 189

    Herleitung, 176 Parameter des -, 178, 180 Rekursionsschema, 179

    Pole, 38 positiv definit, siehe Matrix positiv semidefinit, siehe Matrix Prdiktion, lineare, siehe Anwendungen

    INDEX

    Prdiktions -fehler, 15 -filter, 15

    Prdiktorordnung, 15 Produktregel, 234 Projektionsmatrix, 161, 165 Prozess, stochastischer

    autoregressiver -, 152, 176, 189, 216 ergodischer -, 34 Musterfunktion, 30 Realisierung, 30 schwach stationrer -, 34 stationrer -, 33 Zufallsvariable, 30

    Q Qualittsverlust, 18 Quantisierung, 5, 18 Quantisierungsbits, 19 quasistationr , 15

    R Rckkopplungspfad, 28 Rauschen

    farbiges -, 152, 174, 189 Mess-, 118, 152, 174, 210 weisses-, 60, 74, 103, 119,152,174,

    189, 210 Realisierung, 30 Rechenaufwand, 5

    siehe auch jeweilige Algorithmen Recursive Least-Squares-Algorithmus,

    siehe RLS-Algorithmus Referenz

    -mikrophon, 11 -signal, 10, 11

    Resynthese, 17 RLS-Algorithmus, 137, 189

    Dekorrelationseigenschaft des -, 150 exponentielle Datengewichtung, 142 'Fast'-, 154, 189 Fehleinstellung, 150 Gedchtnis, 142 Herleitung, 133 - in LMS-Form, 149 Initialisierung, 141 Konvergenz

    -Analyse, 146

    INDEX

    -Verhalten, 149, 154, 189 -zeit, 149

    Lernkurve, 154, 189 - mit Vergessensfaktor, 145, 189 Matrixinversions-Lemma, 134 Nachfhrverhalten, 191 Rechenaufwand, 141, 154 Rekursionsschema, 137 Schrittweite, 138, 148, 150 Simulation, 154, 189, 210 Vergleich mit FLMS- und LMS-

    Algorithmus, 189 Zusammenfassung, 187

    S Schtzfehler, 51 Schar, 30 Schrittweite

    on! frequenzabhngige -, 163 b"'

    :;.i normierte -, 103 ",., siehe auch jeweilige Algorithmen ~ ~::!: j"j self-orthogonalizing adaptive filtering

    algorithms,~l: '1fit siehe Adaptionsalgorithmen j~' semidefinit, siehe Matrix

    \'Sendefilter, 22

    '!, Sicherheitskonstante, 120 .;\ Simulationsanleitungen, 210 " Skalarprodukt, 233

    SNR: signal-to-noise ratio, 130, 152, 199 spektrales Theorem, 66 Spektrum

    - eines Sprachsignals, 16 Linien-,59 Zusammenhang Kondition

    ierung und -, 73 Sprache

    Grundfrequenz, 16 LPC-Analyse von -, 14 quasistationr, 15 stimmhaft, 16 stimmlos, 16

    Spracherkennung, automatische, 14 Sprachkodierung

    ADPCM,18 Vokodersystem, 18

    Sprachmodell, 16

    Sprachspektrum, 16 Sprecherverifizierung, 14 Spur, siehe Matrix Strsignal, -gerusch, 5, 10

    -quelle, 11 -unterdrckung, 10

    Stationaritt schwache -, 34 strenge -, 33

    stochastic gradient, siehe Adaptionsalgorithmen

    Stossantwort, siehe Impulsantwort Superpositionsprinzip, 2 Synthesefilter, 16, 152, 216 System-Fehler-Mass, 214 Systemnderung, 154, 189, 216, 226 Systemidentifikation, siehe An

    -wendungen

    T tapped delay line, siehe Filter, FIR Teilfilter, 178 Telefon

    -leitung, 21 -system, 25

    Toeplitz-Matrix, 45 tracking, siehe Nachfhrverhalten Trainingsphase, 1 Transformationsmatrix

    - der DFT, 159 - der KLT, 74

    Transposition, 44 Troposcatter Communication System, 19

    U berschussfehler, 77, 104, 111, 112, 186

    FLMS-,176 LMS-,115

    bersprechen, 23 bertragungsfunktion, 24, 27, 29, 38, 54,

    60 Unabhngigkeit, 35 Unabhngigkeits-Theorie, 93 Unitre hnlichkeitstransformation, 66 Unkorreliertheit, 35

    V Varianz, 34

  • 246 INDEX

    Verarbeitungsverzgerung, 158, 173, 180 Rcknahme oder Umtausch Vergessensfaktor, 142 nur mit ungeffneter Datentrgerverpackung Verteilungsfunktion, 31 Vokaltrakt, 17 Vokodersystem, 18 Vorfilterung, 138 IVorzeichen-LMS-Algorithmus, 125

    W weisses Rauschen, siehe Rauschen Wiener-Filter, 3

    Fehlerflche, siehe Fehlerflche Fehlerfunktion, siehe Fehlerfunktion MMSE,49 MSE,42 Wiener-Hopf-Gleichung, 49 Wiener-Losung,46

    Wiener-Hopf-Gleichung, 49 -deterministische, 132 entkoppelte Form, 67

    Wiener-Losung, 46

    Z \z-Transformation, 38, 199

    Zeitkonstante - der Filtergewichte, 103 - der Lernkurve, 106

    zirkulre Matrix, 168 Zufalls

    -variable, 30 -zahl, 30

    Zusammenfassung der Konvergenzeigenschaften, 183

    zyklische Faltung, 160, 229

    Systemvoraussetzungen:

    Unix, Windows oder MacOS Druck: Mercedes-Druck, Berlin Software: MATLAB, ab Version 5.0 Verarbeitung: Strtz AG, Wrzburg Hardware: Mindestanforderungen von MATLAB 5.0

    - Windows: Pentium Prozessor ." - MacOS: PowerPC Prozessor