Processat del senyal Jesús Sanz Marcos Introducció Temari Introducció Introducció Objectius Notació matricial Processos estocà stics Estimació de paràmetres Objectius Estimació espectral Densitat espectral de potència Estimació de la densitat espectral de potència Estimació espectral paramètrica (model autoregressiu) Estimació lineal i predicció Estimació lineal quadrà tic-mitjana Filtre de Wiener. Aplicacions Predicció lineal. Tècnica estimació paràmetres Compressió de la parla: tècniques paramètriques Filtres adaptatius Mètode del gradient. Propietats Estimació adaptativa. Algorisme LMS Codificació diferencial adaptativa Processat d’arrays de sensors Processament i compressió de senyals 2D Sistemes i senyals en 2D Compressió d’imatge: tècniques predictives. Mètodes transformats Compressió d’imatges fixes. Professorat i avaluació Professor: Albert Oliveras D5213 Dill: 09:30-12:00 Dij: 16:00-19:00 1r control: 2n control: Ex. Final: Nota: 7/10 Abril 19/22 Maig 26 de Juny max{E.F, 0.6E.F.+0.2P1+0.2P2} “Estudi de les tècniques i algorismes de processat digital del senyal, enfocat a aplicacions en comunicacions i tractament d’imatge i veu” Aplicacions § § § § Anà lisi espectral Caracterització paramètrica del senyal Filtrat adaptatiu Codificació i compressió de la imatge Notació matricial x(n) : seqüència x(0) x : vector = M x( N − 1) x = x (0) L x( N − 1) T hH x = N −1 ∑ h * (n ) x ( n ) n= 0 || x || 2 = N −1 ∑ | x( n ) | = x 2 n =0 x : matriu desigualtat de Schwartz | h H x |2 ≤|| h || 2 || x || 2 Coherència | h H x |2 | γ |2 = ≤1 || h ||2 || x || 2 Run-time vector sii h(n) = αx (n) ⇒ igualtat sii h(n) = αx(n) ⇒ γ = 1 X n T = [x (n), x(n − 1),..., x(n − Q + 1)] H x 1 Processat del senyal Jesús Sanz Marcos Introducció Autocorrelació Distància entre senyals Dxy = N −1 ∑ | x(n) − y(n) | = (x − y) 2 H ( x − y ) =|| x || 2 + || y || 2 − x H y − y H x n= 0 Autocorrelació de x(n) 1 1 r (m) = x * (n − m) x (n) = M n M ∑ ∑ x * (n) x(n + m) n ∑ Q −1 y ( n) = ∑ h ( q ) x( n − q ) = h H L x(Q − 1) L x(Q − 2) O M L x(0) L x ( N − 1) 0 L x ( N − 2) x ( N − 1) O M M L x( N − Q ) x ( N − Q + 1) y = hH X Matriu de correlació a partir de X n r (1) r (0) r (−1) r (0) 1 R= X n X n* ≅ M n M M r (−Q + 1) r (−Q + 2) Filtrat * x (0) x(1) 0 x (0) X = M M 0 0 · x n = h(0) q =0 * L r (Q − 1) L r (Q − 2) O M L r (0) x (0) L h (Q − 1) M x (Q − 1) * Sinus en soroll i el lema de la inversa s (n) = A0 e j ( 2πf 0 n +θ ) = Ae j 2πf 0 n 1 − j 2πf 0 e = Ae j 2πf 0 n S 0 S n = Ae j 2πf 0 n M − j 2πf 0 (Q −1) e 1 H 2 R0 = S n S n =| A | S o S oH M n ∑ y (n) = s (n) + w(n) | y (n) | = h X n X h 1 ry (0) = | y (n) |2 =h H R h M n Si existeixen M<Q sinus ortogonals, existiran M termes iguals. ry (0) ≤ 0 R= 2 H H n H R =| A | 2 S 0 S 0 + σ 2 I ∑ M ∑| A m |2 S m S m H + σ 2 I = R S + σ 2 I m ) =1 Transitori x(n), N mostres h(n), Q mostres (filtre FIR) y T (n) = y (0), y (1),K, y (Q − 1), y (Q), , K, y ( N − 1), y ( N ),K, y ( N + Q − 1) 42444 3 144424443 144424443 144 règim transitor i N-Q mostres post − transitori Q mostres pre - transitori Q mostres E y = y H y = yT y* Py = 1 H 1 y y = hH XXHh M M Lema de la inversa si R = GG H + R a ⇒ R −1 = R a −1 − R −a1 G ( I + G H R −a1 G ) −1 G H R −a1 L 0 L 0 O 0 L x( N − 1) 2 Processat del senyal Minimització amb restriccions Disseny de filtres o sistemes pot formular-se sempre com a minimització d’una funció objectius, subjecta a restriccions. Per processos gaussians i sistemes lineals, aquesta funció és l’error quadrà tic mig (MSE). MSE = ξ = a H C a restriccions: Φ a = f Jesús Sanz Marcos Introducció Valors singulars dim{R} = QxQ R=XXH dim{X } = QxN Q X= ∑φ u q q vq H =[u1 q =1 MSEmin = f H (ΦC −1 Φ H ) −1 f amb a = C −1 Φ H (ΦC −1 Φ H ) −1 f Autovalors i autovectors R e q = λq e q e q : autovector λq : autovalor Per ser R hermítica (dim QxQ) existeixen Q autovectors diferents que permeten fer la descomposició següent: λ1 L 0 e1 H Q R= λq e q e q H =[e1 L e Q ] M O M M = E D E H q =1 0 L λq e Q H ∑ I = EH E = EEH Propietats • Si la matriu és definida positiva, tots els seus autovalors ho són. • Si la matriu R és de rang M<Q, el número d’autovalors zero és Q-M • El determinant de la matriu R és el producte dels seus autovalors, i la seva traça és la suma dels autovalors. • ln{R} = E ln{D}E H • e{R} = Ee{D} E H • Rm = EDm E H • R −1 = E D −1 E H φ1 M 0 L u Q ] 0 M 0 L O L L O L 0 M H v1 φq M = U ΦV H 0 H vN M 0 I = QH Q = V H V ( X X H )u q = φ q2 u q , q = 1..Q R = U Φ 2 U H = U DU H φ 2 v ( X H X )v q = q q 0 q = 1..Q q = Q + 1...N 3 Processat del senyal Jesús Sanz Marcos Introducció Sistemas adaptativos H H H H ξ = ξ min + a~ n ( E Λ E )a~ n = ξ min + z n Λ z n = ξ min + ∑ λi | zn (i ) |2 Introducción z n = E (a n − a opt ) Q i =1 H Los diseños óptimos dan lugar a degradación de las prestaciones cuando las condiciones del escenario cambian. Diseño y convergencia de algoritmos del gradiente De este modo, cuando un sistema de tratamiento de señal es capaz de adaptarse automáticamente al entorno de señal, se dice que es adaptativo. Amplificador : d (n) = g (n) x(n) En el sistema de apredizaje, se dispone de la señal de referencia r(n), o simplemente de su potencia Pr, basta pues calcular la potencia de la señal de salida según: a n+1 = a n − µ ∇ξ n = a n − µ ( R a n − P) µ< 2 2 < Traza{R} λmax µ= 2α Px (n) 2,30 2,30 2,30 λmax = ≈ − ln(1 − µλmin ) − ln(1 − 2 λmin ) 2α λmin α λmax ε (n) = Pr − Pd (n) g (n + 1) = g (n) + µε (n) Nc = MSE y métodos del gradiente TN c = X n : vector de datos H Usualmente se establece un umbral mínimo Pxo . Pd (n) = βPd (n − 1) + (1 − β )d 2 (n) d (n) : señal de referecia a n : respuesta impulsional el filtro FIR Px (n + 1) = βPx (n) + (1 − β ) X n X n 1 : número de muestras de la memoria 1− β 2 H MSE = ξ (a n ) = E d (n) − a n X n 2,30 Ps 2,30 Q = QSNR 2α Pw 2α El algoritmo LMS (Least Mean Square algorithm) y (n) = a H X n ξ (a n ) = Pd + a n R a n − a n P − P a n ε (n) = d ∗ (n) − y ∗ (n) ∂ξ (a n ) = ∇ξ = R a opt − P = 0 ⇒ a opt = R −1 P ∂ a Hn a n+1 = a n + µ X nε ∗ (n) H H H ξ (a n ) = ξ min + (a n − a opt ) H R (a n − a opt ) ξ min = Pd − P R P H ∇ξ (a~ n ) = R a~ n H ξ (a~ n ) = ξ min + a~ n R a~ n 2 X nH X n E{a n } = a opt a~ n = a n − a opt : error de coeficientes a~ = a~ − µε ∗ (n) X n +1 a n+1 = a n − µ∇ξ (a n ) µ< n n d (n) = w(n) + a opt X n ε (n) = w(n) − a~ H X H opt n 4 Processat del senyal µ H Σ a = E{a~ opt a~ opt } ≅ ξ min I : covarianza delos coeficientes 2 ξ (n) = ξ + a~ H R a~ min n n µ E{a~ nH R a~ n } = ξ minTraza{R} 2 E{ξ (n)} − ξ min 100% : exceso de error ℵ≡ ξ min µ Traza{R} 2 2α µ= Px (n) ℵ= α : ruido de desajuste (i.e. α = 0.1 ⇒ ℵ = 10%) Jesús Sanz Marcos Introducció δ2 2 δ2 ξ n (q,+δ ) = ξ n + ξ n' δ + ξ n'' 2 '' 2 2 ξδ δ rxx (0) γ = n = ξ min ξ min ξ n (q,−δ ) = ξ n − ξ n' δ + ξ n'' 2 3 µQξ min δ Traza{R} + 4 Mδ 2 Qξ min 2α µ= Traza{R} ℵtotal = 2 = δ opt Conclusiones: • • • • Probar convergencia al óptimo Analizar la velocidad de convergencia En la fase de seguimiento, se ha de determinar el ruido de desajuste o lo que es lo mismo, su velocidad de seguimiento o capacidad de reacción a cambios. A altas velocidades de convergencia (o aprendizaje rápido) implican desajustes elevados. Hay un compromiso entre desajuste y velocidad de convergencia. 2 3 Q 2αξ min 2 MTraza 2 {R} ℵtotal optimo 6α = M γ = 5 δ 2Traza{R} Qξ min ξ n (q, δ ) = 1 M n+ M −1 ∑ | e( n ) | 2 n Ventajas • Desajuste disminuye con la raiz cuadrada del número de términos empleados en la estimación del MSE. • No es necesario el vector de datos Desventaja: • Se requieren 2MQ vectores por cada iteración. Algoritmo LRS (Linear Random Search) Para cada instance n, • Generar un vector aleatorio con distribución uniforme en sus componentes δ n . • Actualizar los pesos como: a n+1 = a n + • Calcular el nuevo error usando M vectores de datos ξ n+1 • a ξ n +1 > ξ n a n+1 = n a n+1 otherwise ∇ n (q) = • n++; a n+1 ℵ= µQσ δ2 2M • DSD y métodos de búsqueda aleatoria DSD (Differential Steepest Descent), calcula el gradiente independientemente para cada coeficiente del filtro. ξ n (q, δ ) + ξ n (q − δ ) 2δ µ = a n − ∇n 2 Algoritmo GRS (Guided Random Search) µ δ 2 n Processat del senyal Jesús Sanz Marcos Introducció Igual que LRS pero se diferencia en que cuando se encuentra una perturbación que hace disminuir el error, se avanza en esa dirección incrementado la µ hasta que el error empeora y entonces µ = µ básico y se busca un vector de perturbaciones aleatorio ortogonal al presente. Algoritmo RLS (Recursive Least Squares) MSE (n) = βMSE(n − 1) + (1 − β ) | ε (n) |2 R n+1 = β R n + (1 − β ) X n X n H P n+1 = β P + (1 − β ) X n d ∗ (n) a n+1 = R −n1+1 P n+1 M = 1 : número de datos de la señal de entrada 1− β −1 instante n: datos a n , d (n), X n , R n • y (n) = a nH X n ε (n) = d (n) − y (n) • φ = α X n R n X n ,α = • Kn = • a n+1 = a n + K n ε ∗ (n) 1 −1 −1 H 1+ φ Rn = Rn − K n K n β 1− β n + +; • • • ( H −1 −1 α Rn X n 1+φ ) 1− β β : vectr ganancia 6 Processat del senyal Jesús Sanz Marcos Introducció Introduction Disecrete-Time Sinusoidal x(n) = a cos(ωn + θ ),−∞ < n < +∞ ω = 2πf x(n) periodic ⇔ x (n) = x( N + n) ⇔ f ∈ Q 2πf 0 n = 2kπ k f0 = N cos(ωn + θ ) = cos(( 2πk + ω )n + θ ) = cos(ω k n + θ ),ω k = ω + 2πk 1 maximum oscillation ⇒ ω = ±π , f = ± ⇒ x(n) = {+1,−1,+1,−1,+1,...} 2 Sampling of analog signals x(n) = xa (nT ) t = nT = n Fm F : normalized frequency f = Fm ω = ΩT Continious-time signals Ω radians / sec = 2πFHz −∞ < Ω < +∞ − ∞ < F < +∞ Discrete-time signals ω radians/ sample = 2πf cycles / sample −π ≤ ω ≤ +π 1 1 − ≤ f ≤+ 2 2 Fmax = B and the signal is sampled at a rate Fs > 2 Fmax ≡ 2 B , then xa (t ) can be exactly recovered from its sample values. Quantization eq (n) = xq (n) − x(n) ∆ 2 xmax − xmin ∆= L −1 Discrete-Time Signals and Systems Elementary signals 1 n = 0 δ (n) ≡ 0 n ≠ 0 1 u (n) ≡ 0 n u r (n) ≡ 0 unit sample sequence, unit impulse n≥0 n<0 unit step signal n≥0 unit ramp signal n<0 x(n) = a n = (re jθ ) n = r n (cos θn + j sinθn ) Sampling Theorem If the highest frequency contained in an analog signal xa (t ) is xq (n) = Q{x(n)} ∆2 2 12 P = A / 3 ⇒ SNQR = 3 2 2b , SNQR = 1.76 + 6.02b q dB 2 2b 2 2A ∆= b 2 Pq = Classification of signals • E≡ +∞ ∑ | x( n ) | 2 0 < E < ∞ ⇒ x(n) is an energy signal n= −∞ +N 1 | x ( n) | 2 ∑ N →+∞ 2 N + 1 n =− N • P ≡ lim • periodic signal ⇒ power signal • x(n) = x (−n) ⇒ even signal x(n) = − x (−n) ⇒ odd signal | eq (n) |≤ Quantization of sinusoidal signals exponential signal Discrete-time systems 0 < P < ∞ ⇒ x(n) is a power signal 1 ( x(n) + x(−n)) 2 1 xo (n) = ( x (n) − x(−n)) 2 xe (n) = Γ x(n) → y (n) • static: y (n) = f {x(n)} • dynamic: y (n) = f {x(n), x (n − 1),...} with memory memoryless 7 Processat del senyal • Jesús Sanz Marcos Introducció Γ x( n ) → y (n) time variant: Γ x( n − k ) → y (n − k ) linear: Γ{a1 x1 (n) + a2 x2 (n)} = a1Γ{x1 (n)} + a2 Γ{x2 (n)} • • • causal: output only depends on past and present. Stable: every bounded input produces a bounded output. Analysys of Discrete-time systems Linear Time-Invariant N M y (n) = −∑ ak y (n − k ) + ∑ bk x (n − k ) k =1 k =0 y ( n) = x ( n ) ∗ h ( n) = +∞ +∞ k =−∞ k = −∞ ∑ h(k ) x(n − k ) = ∑ x(k )h(n − k ) ρ xx (m) = ρ xy (m) = rxx (m) : normalized autocorrelation rxx (0) rxy (m) rxx (0)ryy (0) Correlation of periodic signals M 1 1 x (n) y (n − m) = ∑ M →∞ 2 M + 1 N n =− M rxy (m) = lim • Associative law: rxy (m) = x(m) ∗ y (−m) • Distributive rxx (m) = x(m) ∗ x (−m) • Causal: h(n) = 0∀n < 0 • Stable: • FIR: h(n) = 0∀n < 0 and n ≥ M +∞ Input-Output correlation sequences k =−∞ y (n) = x(n) ∗ y (n) Correlation of signals +∞ +∞ ∑ x(n) y(n − m) = ∑ x(n + m) y(n) = r yx n =−∞ ∑ | αx(n) + βy (n − m) | = a r 2 xx (0) + b 2 ryy (0) + 2abrxy (l ) n= −∞ | rxy (m) |≤ E x E y ( − m) n= −∞ +∞ 2 ryx (m) = rxx (m) ∗ h(l ) rxy (m) = rxx (m) ∗ h(−l ) yreceived (n) = αx(n − D) + w(n) rxy (m) = n Convolution realisation of correlation Commutative law: x(n) ∗ h(n) = h(n) ∗ x (n) ∑ | h(n) |< ∞ N ∑ x ( n) y ( n − m ) y (n) = x(n) + w(n) ⇒ ryy (m) = rxx (m) + rxw (m) + rwx (m) + rww (m) • [x(n) ∗ h1 (n)]∗ h2 (n) = x(n) ∗ [h1 (n) ∗ h2 (n)] law: x(n) ∗ [h1 (n) + h2 (n)] = x(n) ∗ h1 (n) + x (n) * h2 (n) : normalized crosscorrelation | rxx (m) |≤ E x ryy (m) = rxx (m) ∗ rhh (m) = rxx (m) ∗ h(m) ∗ h(−m) 8 Processat del senyal Jesús Sanz Marcos Introducció +∞ +∞ −∞ −∞ Frequency Analysis of signals and systems S xx ( f ) =| X ( f ) | Continious-Time signals Relationship between periodic and aperiodic transform Jean Baptiste Joseph Fourier (1768-1830) ck = E xx = 2 9 2 ∫ S xx ( f )df = ∫ | x(t ) | dt k 1 1 X (kF0 ) = X( ) Tp Tp Tp Periodic-Signals +∞ ∑c e x (t ) = Discrete-Time signals j 2πkF0t k Periodic-Signals k =−∞ N −1 +∞ Synthesis equations x(t ) = c0 + 2∑ | ck | cos (2πkF0t + ∠ck ) Synthesis equations Analysis equations ck = 1 ck = Analysis equations 1 Tp ∫ x (t ) e − j 2πkF0t Px = dt Tp Px = +∞ ∑ | ck |2 = a02 + Aperiodic-Signals bk = 2 | ck | sin ∠ck Synthesis equations k = −∞ ( 1 +∞ 2 ak + bk2 2∑ k =1 ) G xx ( f ) = k =−∞ Analysis equations x (t ) = j 2πft ∫ X ( f )e df −∞ +∞ Analysis equations N −1 N −1 n =0 n =0 E x = ∑ | x( n ) | 2 = N ∑ | ck | 2 1 2π X (ω ) = ∫ X (ω )e jωn dω 2π +∞ ∑ x ( n) e − jωn Ex = π ∑ | x(n) | = 2π ∫ S 2 1 xx (ω )dω −π S (ω ) = S xx (−ω ) S xx (ω ) =| X (ω ) |2 ⇒ xx ∠X (ω ) = −∠X (−ω ) Relationship with Z-transform: +∞ Synthesis equation ck = ck + N n= −∞ +∞ k = −∞ Aperiodic-Signals 2π x( n ) = +∞ ∑ | ck |2 δ ( f − F0 k ) 2π kn N − j kn 1 N −1 x ( n )e N ∑ N n =0 N −1 1 N −1 2 | x ( n ) | = | c k |2 ∑ N∑ n =0 n= 0 a0 = c0 ak = 2 | ck | cos ∠ck Power Density Spectrum of Periodic Signals j k =0 1 +∞ x(t ) = a0 + ∑ (ak cos (2πkF0t ) + bk sin(2π x( n ) = ∑ ck e X (t ) = − j 2πft ∫ x(t )e dt X (ω ) = Z {x(n)} | z = e jω Basic rectangular pulse tranform: F {u (n) − u (n − L)} = Ae − j (ω / 2 )( L−1) sin(ωL / 2) sin(ω / 2) −∞ Properties of the Fourier Transform for Discrete-Time signals Power Density Spectrum of aperiodic Signals Processat del senyal Jesús Sanz Marcos Introducció 10 F a1 x1 (n) + a2 x2 (n) ←→ a1 X 1 (ω ) + a2 X 2 (ω ) x(n − k ) ←→ e F − jωk X (ω ) Y (ω ) = X (ω ) H (ω ) | Y (ω ) |=| X (ω ) || H (ω ) | ∠Y (ω ) = ∠X (ω ) + ∠H (ω ) x(−n) ←→ X (−ω ) F x * (n) ←→ X * (ω *) dX (ω ) F nx(n) ←→ j dω F x1 (n) * x2 (n) ←→ X 1 (ω ) X 2 (ω ) F F x1 (n) x2 (n) ←→ 1 2π 1 2 k = −∞ B (ω ) H (ω ) = = A(ω ) ∑ bk e − jωk M k =0 N 1 + ∑ ak e − jωk (ω − λ )dλ = b0 k =1 F rx1x2 (m) = x1 (m) ∗ x2 (− m) ←→ X 1 (ω ) X 2 (−ω ) F rxx (m) ←→ S xx (ω ) ryy (m) = rxx (m) ∗ rhh (m) S yy (ω ) = S xx (ω ) | H (ω ) |2 ryx (m) = rxx (m) ∗ h(m) S yx (ω ) = S xx (ω ) H (ω ) Random Input signals F e jω 0n x(n) ←→ X (ω − ω 0 ) y (n) = x (n) ∗ h(n) 1 ( X (ω − ω 0 ) + X (ω + ω 0 ) ) 2 1 F ( X (ω − ω 0 ) − X (ω + ω 0 )) sin (ω 0 n) x(n) ←→ 2j F cos(ω 0 n) x (n) ←→ +∞ m y ≡ E{ y (n)} = m x ∗ 2 n= −∞ +π 1 1 ∗ 2 +∞ +∞ ∑ ∑ h(k )h( j)γ (ω )dω xx ( k − j + m) +∞ γ xx (m) = σ x2δ (m) ⇒ γ yy (m) = σ x2 ∑ h(k )h(k + m) −π k = −∞ (AWGN) +∞ γ yy (0) = Py = σ x2 ∑ | h(k ) |2 = σ x2 F δ (n) ←→ 1 Frequency-Domain LTI Systems x k =−∞ j =−∞ Some useful Fourier Transform Pairs 1 sin L + )ω 1 | n |≤ L F 2 x( n ) = ←→ ω 0 | | n > L sin 2 ωc n=0 ω F x( n ) = π ←→ ∏ sinω c n 2ω c n≠0 πn ∑ h(k ) = m H (0) k = −∞ ∑ x (n) x (n) = 2π ∫ X (ω ) X 1 +∞ γ yy (m) = E{ y * (n) y (n + m)} = F x(n) = u (n)a n ←→ 1 1 − ae − jω k = −∞ Γyy (ω ) = +∞ ∑γ yy 1/ 2 −1/ 2 (m)e − jωm = Γxx (ω ) | H (ω ) |2 m =−∞ Γyx (ω ) = Γxx (ω ) H (ω ) Frequency-Selective Filters ∫| H( f ) | 2 df ∏ (1 − z e − jωk k | H (ω ) |2 = H (ω ) H (ω ) −π Parseval’s relation: − jωn M S yy (ω ) = S xx (ω ) | H (ω ) |2 +π ∫ X (λ ) X +∞ ∑ h(n)e H (ω ) = H ( z ) | z =e jω = k =1 N ∏ (1 − p e k k =1 − jωk ) ) Processat del senyal hlp (n) = sinω cπn πn Jesús Sanz Marcos Introducció H hp (ω ) = H lp (ω − π ) ( ) hhp (ω ) = (−1) n hlp (ω ) = e jπ hlp (ω ) n Notch filters: z1, 2 = e ± jω 0 y (0) h(0) = x (0) , r near ≤ 1 ± jω o All-Pass filters: | H (ω ) |= 1∀ω Inverse Systems hI (n) = 0∀n < 0 ⇒ hI (0) = n hINV (n) = −∑ k =1 1 h(0) h(k )hI (n − k ) n ≥1 h(0) • | z k |< 1 ∀k ⇒ ∠H (π ) = ∠H (0) minimum phase system | z k |> 1 ∀k ⇒ ∠H (π ) − ∠H (0) = Mπ maximum phase system • otherwise: mixed-phase system H ( z ) minimum phase ⇒ H −1 ( z ) stable H ( z ) stable ⇒ H −1 ( z ) minimum phase H ( z ) non minimum phase = H min ( z ) H all − pass ( z ) B ( z ) B2 ( z −1 ) H min ( z ) = 1 A( z ) A( z ) ⇒ , B ( z ) = B1 ( z ) B2 ( z ) H ( z) = B( z) H all − pass ( z ) = B2 ( z−1) B2 ( z ) Deconvolution (system identification) h(n) = S yx (ω ) = H (ω ) S xx (ω ) H (ω ) = n−1 Comb filters: nulls occur periodically across the frequency band. • ∑ h(k ) x(n − k ) k =0 Digital resonators: p1, 2 = re y (n) = x(n) ∗ h(n) δ (n) = h(n) ∗ hINV (n) casual n y (n) = x(n) ∗ h(n) = y ( n ) − ∑ h ( k ) x( n − k ) k =0 x(0) ,n > 0 S yy (ω ) S xx (ω ) = S yx (ω ) | X (ω ) |2 11 Processat del senyal Jesús Sanz Marcos Introducció Z-Transform X (z) = +∞ ∑ x( n ) z M X (z) = −n Region of Convergence(ROC) N ( z) = D( z ) ∑b z −k ∑a z −k k k =0 N M = b0 − M + N ( z − z1 )L ( z − z M ) = Gz N − M z a0 (z − p1 )L (z − p N ) k Finite-Duration Signals Causal: z ∈ C − {0} Infinite-Duration Signals Causal: | z |> r2 Anticausal: z ∈ C − {∞} Anticausal: | z |< r1 z ∈ C − {0, ∞} Two-sided: r2 <| z |< r1 Two-sided: Z a1 x1 (n) + a2 x2 (n) ←→ a1 X 1 ( z ) + a2 X 2 ( z ) Z y (n) = x(n) ∗ h(n) ←→ Y ( z) = X ( z )H ( z) H ( z) = +∞ Y ( z) = ∑ h ( n) z − n X ( z ) n= −∞ M N M k =1 k =0 −k x(n − k ) ←→ z X ( z ) Z x(−n) ←→ X ( z ) x1 (n) * x2 (n) ←→ X 1 ( z ) X 2 ( z ) x * (n) ←→ X * ( z*) 1 Z Re{ x(n)} ←→ ( X ( z) + X * ( z*) ) 2 1 Z Im{x (n)} ←→ ( X ( z ) − X * ( z*) ) 2 dX ( z ) Z −z nx(n) ←→ dz z 1 X 1 (v ) X 2 ( )v −1dv v 2πj ∫C if x (n) causal ⇒ x (0) = lim X ( z ) Z x1 (n) x2 (n) ↔ z →∞ Any H(z) causality: ⇔ ROC | z |> z1 stability: ⇔ ROC ∈| z |= 1 Rational H(Z) ROC | z |>| pk | order{num} ≤ order{denom} causality ⇔ pk most far away pole stability: ⇔| pk |< 1∀k +∞ 1 z x1 (n) x2∗ (n) = X 1 (v ) X 2∗ ( )v −1dv ∑ ∫ C 2πj v n= −∞ Basic Z-Transform Pairs Unilateral Z-Transform +∞ X( z ) = ∑ x(n) z − n Z δ (n) ←→ 1 Rational Z-Transforms 1 + ∑ ak z −k Z Z 1 Z u (n) ←→ 1 − z −1 1 Z a n u(n) ←→ 1 − az −1 −k k k =0 N Analysis of LTI systems in the Z-domain −1 Parseval’s relation: ∑b z k =1 Z a n x(n) ←→ X (a −1 z ) Z ∑ (z − p ) k =0 y (n) = −∑ ak y (n − k ) + ∑ bk x (n − k ) ⇒ H ( z ) Properties k k =0 N k k =0 n =−∞ ∑ (z − z ) n =0 na n u (n) = az −1 (1 − az ) −1 2 12