clase14

Anuncio
Capitulo 14
Diseño optimo de filtros lineales.
En esta sección se desarrollarán técnicas para diseñar filtros óptimos que llevan a
cabo una tarea en particular. Los filtros se han elegido por razones de simplicidad
computacional, éxito en el pasado, cuestiones estéticas, etc. Los filtros que no son los
óptimos, pueden producir artefactos en la imagen, casi siempre sin advertencia.
Por ejemplo los filtros que involucran pulso rectangulares en un dominio, tienen un
comportamiento desagradable en el dominio opuesto debido a las ondulaciones de la
función senx/x.
Variables Aleatorias.
Usamos el término ruido aleatorio para describir una señal desconocida y
contaminadora. La palabra aleatoria, en realidad es una palabra que usamos para describir
nuestra falta de conocimiento. Esta ignorancia resulta al tratar con un proceso, la física del
proceso que no es bien entendido, o un proceso que es muy complicado para ser analizado
en detalle. Esto quiere decir que si tenemos un conocimiento general acerca de una señal,
pero carecemos de detalles específicos, la describimos como señal aleatoria.
Cuando grabamos una señal, sabemos que durante el proceso la señal no deseada y
contaminadora aparecerá superpuesta (añadida, sumada) a la señal deseada. No obstante
que podamos saber el origen de ese ruido, no es posible expresar matemáticamente su
forma. Después de observar el ruido por un periodo de tiempo, podemos desarrollar un
conocimiento parcial acerca de él, y podremos caracterizar algunos aspectos de su
comportamiento, a pesar de esto no será posible predecir el comportamiento en detalle. Es
por esto, que el concepto de variable aleatoria es útil como herramienta en el tratamiento
del ruido.
A las variables aleatorias las podemos imaginar de la siguiente manera: Considere
un ensamble (conjunto) de una infinidad grande de funciones. Cuando hacemos la
grabación, alguna de esas funciones surge para contaminar la grabación, pero no hay
manera de conocer cual. Sin embargo, podemos hacer afirmaciones acerca del ensamble
como un grupo. De esta manera podremos expresar nuestro conocimiento parcial, sobre la
señal contaminadora.
Variables Ergódicas aleatorias.
Hay dos maneras por medio de la cual podemos calcular promedios de una variable
aleatoria. Una es calcular el promedio temporal integrando una función en particular sobre
todo el tiempo (tiempo infinitamente largo). La otra es promediar todos los valores de todas
las funciones evaluadas en un tiempo en particular. Esta última produce un promedio del
ensamble para un punto (en el tiempo).
Una variable aleatoria es ergódica si y solo si se cumplen las siguientes condiciones

los promedios temporales de todas las funciones miembros del ensamble son
iguales

(ii) el promedio del ensamble es constante en el tiempo

(iii) el promedio temporal y el promedio del ensamble son iguales.
Por todo lo anterior, para variables ergódicas, el promedio temporal y el promedio
del ensamble se pueden intercambiar.
El operador esperanza matemática  x(t ) denota el promedio del ensamble de la
variable aleatoria x calculada en un tiempo t. Bajo la propiedad de ergodicidad  x(t )
también denota el valor que se obtiene cuando una muestra de la variable aleatoria x(t) es
promedia en el tiempo, esto es:
 x(t )   x(t )dt

(14-1)

La función de autocorrelación, se define como un promedio temporal. Para una variable
aleatoria ergódica, la función de autocorrelación es la misma para todas las funciones
miembras del ensamble, esto quiere decir que la autocorrelación caracteriza al ensamble.
Por esto cuando decimos que n(t) es una variable aleatoria ergódica, queremos decir que es
una función desconocida, pero que tiene una función de correlación conocida. Lo cual
representa el estado del conocimiento parcial que tenemos acerca de n(t).
Dado que la autocorrelación de la variable n(t) es conocida

Rn ( )   n(t )n(t   )dt ,
(14-2)

también su espectro de potencias es conocido.
Pn (s)  F Rn ( )
(14-3)
Esto significa que conocemos el espectro de amplitudes de n(t), pero no conocemos su
espectro de fases. Debemos de subrayar que el ensamble está compuesto de muchas
funciones que difieren solo en su espectro de fase.
Estimador de Wiener
El filtro de Wiener es el filtro lineal clásico para reducir ruido. Suponga que x(t)
denota a una señal observada, compuesta de la señal deseada s(t), contaminada por una
señal de ruido n(t). Deseamos diseñar un filtro para reducir el ruido contaminante en la
mayor medida posible, y así restaurar la señal, tan cerca como sea posible a su forma
original. En otras palabras, lo que hará el filtro es ‘estimar’ cual fue la señal sin contaminar.
Idealmente queremos que y(t) sea igual as(t), pero en general, un filtro lineal no tiene el
poder suficiente para recuperar una señal contaminada con ruido de una manera exacta.
Conocimiento parcial
Antes de empezar con la solución, debemos de decidir que conocimiento tenemos
acerca de s(t) y n(t). Si no sabemos nada acerca de la señal o acerca del ruido, no podemos
ni siquiera iniciar la solución del problema. En el otro extremo si conocemos a alguno de
los dos o ambos de una manera exacta, entonces la solución es trivial.
Asumimos que ambas s(t) y n(t) son variables aleatorias ergódicas, por lo tanto
conocemos su espectro de potencia. Además, suponemos que conocemos el espectro “a
priori” o bien que podemos obtener muestras tanto de s(t) y n(t) y así determinar su
espectro de potencias, el cual representa el ensamble.
s(t)
+
h(t)
n(t)
Modelo del estimador de Wiener
y(t)
Criterio de Medida
Pedir que y(t) sea igual a s(t), es pedir demasiado para un filtro lineal, entonces le
exigiremos que funcione lo mejor posible. Como criterio de medida usaremos el error
cuadrático promedio.
Sin importar si h(t) es óptima o no, obtendremos una respuesta y(t) a la salida, para
cada entrada s(t), definiremos el error (la señal error) a la salida del filtro como.
e(t) = s(t) – y(t)
(14-4)
lo cual significa, la cantidad por la cual difiere la salida ‘real’ de una salida deseada, como
una función del tiempo. Si la respuesta al impulso h(t) se elige adecuadamente, el error
(señal de error) será en promedio relativamente pequeña. Un a elección inadecuada de h(t)
producirá un error grande.
Como una medida del error promedio, usaremos el error cuadrático promedio, dado
por la siguiente ecuación.
2
2
ECP   e (t )   e (t )dt .

(14-5)

Esta definición es adecuada, porque el error, es una combinación lineal de variables
aleatorias ergódicas, por lo tanto ella misma es también una variable aleatoria.
Notar:
Que e2(t) es positiva para errores positivos y negativos. Elevar al cuadrado penaliza más a
los errores grandes que a los pequeños.
Error cuadrático promedio
Dado el espectro de potencia de s(t) y n(t), debemos determinar la h(t) que minimice
el error cuadrático promedio. Notar que el error cuadrático promedio es una función de la
respuesta al impulso h(t).
Obtendremos una relación funcional para el ECP (MSE) en términos de h(t).
Obtendremos una expresión para la mejor respuesta al impulso h(t), que minimice el error
cuadrático promedio, en términos del espectro de potencias conocido.
Desarrollaremos una expresión para ECP, la cual resulta cuando se usa una h0(t). Esto es
para indicar que tan bien trabaja el filtro.
Expandiendo la ecuación (14-5)
2
2
2
ECP   e (t )   s(t )  y(t )   s(t )  2s(t ) y(t )  u(t ) 
2
(14-6)
Debido a que la esperanza es una integral ecuación (14-5), y la integral es una
operación lineal, entonces obtenemos lo siguiente:
2
2
ECP   s(t )  2 s(t ) y(t )  y(t )   T 1  T 2  T 3 .
(14-7)
Escribiendo los tres términos en forma integral tenemos
2
2
T 1   s(t )    s (t )dt  Rs (0) .

(14-8)

Esta relación se puede interpretar como la función de autocorrelación de s(t) evaluada en
=0. Por lo tanto su valor es conocido.
Escribiendo y(t) como la convolución ente x(t) y h(t), permite desarrollar la integral
para el segundo término como:


T 2  2 s(t ) y(t )   s(t )  h( ) x(t   )dt .


(14-9)
Debido a que el operador esperanza es una integral sobre el tiempo, podemos reordenar la
ecuación (14-9) de la siguiente manera:
T 2  2  h( ) s(t ) x(t   )d .

(14-10)

De esta manera interpretamos la esperanza como la correlación cruzada entre s(t) y x(t), por
lo tanto podemos reescribir la ecuación (14-10) de la siguiente forma:

T 2  2  h( ) Rxs ( )d
(14-11)

Expandiendo T3 como la esperanza del producto de dos convoluciones:






T 3    h( ) x(t   )d  h(u) x(t  u)du ,
(14-12)
la cual a su vez, se puede ordenar para obtener:
T 3    h( )h(u) x(t  u) x(t   )dud .




(14-13)
Haciendo un cambio de variable v=t-u, dentro del operador esperanza, el operador
se transforma para resultar en:
{x(t-)x(t-u)}= {x(v+u-)x(v)},
(14-14)
que es la autocorrelación de x(t) evaluada en el punto u-. Entonces el tercer término se
puede expresar como:




T 3    h( )h(u) Rx (u   )dud
(14-15)
Sustituyendo los tres términos en la ecuación (14-7), obtenemos:






ECP  Rs (0)  2  h( ) Rxs ( )d    h( )h(u) Rx (u   )dud
(14-16)
Este es el error cuadrático promedio, en términos de la respuesta al impulso y dos
componentes de la señal de entrada con funciones de correlación y correlación cruzada
conocidas. Como se esperaba, el resultado está en función de la respuesta al impulso h(t).
Minimizando el error cuadrático promedio.
Denotemos por h0(t), la función que minimiza el ECP. En general, una h(t) arbitraria
difiere de la óptima h0(t), podemos definir una g(t) para medir esta diferencia.
h(t) = h0(t)-g(t)
(14-17)
h(t) es una función arbitraria, g(t) se elige adecuadamente para que la igualdad se cumpla.
Sustituyendo g(t) de la ecuación (14-16) en la ecuación (14-16) obtenemos:
ECP  Rs (0)  2  h0 ( )  g ( )Rxs ( )d 


(14-18)
   h0 ( )  g ( )h(u)  g (u) Rx (u   )dud




Expandiendo esta ecuación, produce 7 términos:

ECP  Rs (0)  2  h0 ( ) Rxs ( )d 





   h0 ( )h0 (u) Rx (u   )d du
(14-19)








   h0 ( ) g (u) Rx (u   )d du    h0 (u) g ( ) Rx (u   )d du






 2  g ( ) Rxs ( )d du    g ( ) g (u) Rx (u   )d du .
Comparando los tres primeros términos con la ecuación (14-16), observamos que su
suma corresponde al error cuadrático promedio, cuando se usa la respuesta al impulso
óptima h0(t). A esos tres términos los denotamos por ECP0. Puesto que la función de
autocorrelación Rx(u-) es par, el cuarto y quinto términos son iguales, los podemos
combinar con el sexto término y reducir la ecuación como sigue:
ECP  ECP0  2  g (u )   ho ( ) R x (u   )d  R xs (u )du 
 




(14-20)




    g (u) g ( ) Rx (u   )d du  ECP0  T4  T5
Para mostrar que T5 no es negativo sustituimos Rx(u-) por su expresión integral
obtenemos:






T5    g (u) g ( )  x(t   ) x(t  u)d du dt .
(14-21)
Ordenando términos:



T5     g (u ) x(t  u )du  x(t   ) g ( )d dt
  


(14-22)
Si denotamos por z(t) a la función que resulta de convolver g(t) con x(t), la ecuación
(14-22) se puede escribir como:

T5   z2 (t )dt  0 .
(14-23)

Regresando a la ecuación (14-20)
ECP  ECP0  2  g (u )   ho ( ) R x (u   )d  R xs (u )du  T 5
 




(14-24)
ECP0 es el error cudrático promedio bajo condiciones óptimas, T5 es independiente
de h0(t) y no puede ser negativo. Ahora solo falta establecer condiciones a h0(t) para
asegurar que el ECP0 es el valor más pequeño del ECP.
Haciendo que el término dentro de los paréntesis sea igual a cero para todos los
valores de u, reduce el término T4 a cero.
Esto conduce a la condición necesaria siguiente:

Rxs ( )   ho (u) Rx (u   )du .
(14-25)

La expresión final para el ECP es:
ECP  ECP0  T 5
T5  0 ,
de donde evidentemente
ECP  ECP0
(14-27)
(14-26)
Para un sistema lineal se cumple que la correlación cruzada entre la entrada y salida
esta dada por
Rxs ( )  ho (u) Rx (u) .
(14-28)
Donde Rx(u) es la función de autocorrelación de la señal de entrada.
Notar que el lado derecho de la ecuación (14-25) es una integral de convolución que
se puede escribir como:
Rxs ( )  ho (u) Rx (u)  Rxy ( )
(14-29)
Esto relaciona la respuesta al impulso optima con la autocorrelación de la señal a la
entrada y la correlación cruzada de la entrada y la señal deseada. La segunda igualdad
resulta de la ecuación (14-28) e ilustra que el filtro de Wiener hace que la función de
correlación cruzada de la entrada con la salida sea igual función de correlación cruzada ente
la señal con la señal más el ruido.
Tomando la transformada de Fourier en ambos lados de la ecuación (14-29)
obtenemos:
Pxs (s)  H o (s) Px (s)  Pxy (s) ,
(14-30)
lo cual implica que:
( s)
H o ( s)  Pxs
,
Px ( s)
(14-31)
sea la expresión del filtro de Wiener en el dominio de la frecuencia.
Diseño del filtro de Wiener.

Digitalizar una muestra de la señal de entrada s(t).

Autocorrelacionar la muestra para producir una estimación de Rx().

Calcular la transformada de Fourier de Rx() para obtener Px(s).

Obtener y digitalizas una muestra de la señal sin ruido.

Realizar la correlación cruzada entre la muestra de la señal, con la señal de entrada
(obtenida en el primer paso), para obtener Rxs().

Calcular la transformada de Fourier de Rxs() para producir Pxs(s).

Calcular la función de transferencia para el filtro optimo por medio de la ecuación
(14-31).

Si el filtro va a ser instrumentado por medio de la convolución, calcule la
transformada inversa de H0(s), para producir la respuesta al impulso h0() del
estimador lineal óptimo
No es posible (o práctico) obtener muestras de la señal libre de ruido, y de la señal. Por
esa razón se pueden asumir formas funcionales para las funciones de correlación y del
espectro de potencias necesarias en la ecuación (14-31).
Descargar