Capitulo 14 Diseño optimo de filtros lineales. En esta sección se desarrollarán técnicas para diseñar filtros óptimos que llevan a cabo una tarea en particular. Los filtros se han elegido por razones de simplicidad computacional, éxito en el pasado, cuestiones estéticas, etc. Los filtros que no son los óptimos, pueden producir artefactos en la imagen, casi siempre sin advertencia. Por ejemplo los filtros que involucran pulso rectangulares en un dominio, tienen un comportamiento desagradable en el dominio opuesto debido a las ondulaciones de la función senx/x. Variables Aleatorias. Usamos el término ruido aleatorio para describir una señal desconocida y contaminadora. La palabra aleatoria, en realidad es una palabra que usamos para describir nuestra falta de conocimiento. Esta ignorancia resulta al tratar con un proceso, la física del proceso que no es bien entendido, o un proceso que es muy complicado para ser analizado en detalle. Esto quiere decir que si tenemos un conocimiento general acerca de una señal, pero carecemos de detalles específicos, la describimos como señal aleatoria. Cuando grabamos una señal, sabemos que durante el proceso la señal no deseada y contaminadora aparecerá superpuesta (añadida, sumada) a la señal deseada. No obstante que podamos saber el origen de ese ruido, no es posible expresar matemáticamente su forma. Después de observar el ruido por un periodo de tiempo, podemos desarrollar un conocimiento parcial acerca de él, y podremos caracterizar algunos aspectos de su comportamiento, a pesar de esto no será posible predecir el comportamiento en detalle. Es por esto, que el concepto de variable aleatoria es útil como herramienta en el tratamiento del ruido. A las variables aleatorias las podemos imaginar de la siguiente manera: Considere un ensamble (conjunto) de una infinidad grande de funciones. Cuando hacemos la grabación, alguna de esas funciones surge para contaminar la grabación, pero no hay manera de conocer cual. Sin embargo, podemos hacer afirmaciones acerca del ensamble como un grupo. De esta manera podremos expresar nuestro conocimiento parcial, sobre la señal contaminadora. Variables Ergódicas aleatorias. Hay dos maneras por medio de la cual podemos calcular promedios de una variable aleatoria. Una es calcular el promedio temporal integrando una función en particular sobre todo el tiempo (tiempo infinitamente largo). La otra es promediar todos los valores de todas las funciones evaluadas en un tiempo en particular. Esta última produce un promedio del ensamble para un punto (en el tiempo). Una variable aleatoria es ergódica si y solo si se cumplen las siguientes condiciones los promedios temporales de todas las funciones miembros del ensamble son iguales (ii) el promedio del ensamble es constante en el tiempo (iii) el promedio temporal y el promedio del ensamble son iguales. Por todo lo anterior, para variables ergódicas, el promedio temporal y el promedio del ensamble se pueden intercambiar. El operador esperanza matemática x(t ) denota el promedio del ensamble de la variable aleatoria x calculada en un tiempo t. Bajo la propiedad de ergodicidad x(t ) también denota el valor que se obtiene cuando una muestra de la variable aleatoria x(t) es promedia en el tiempo, esto es: x(t ) x(t )dt (14-1) La función de autocorrelación, se define como un promedio temporal. Para una variable aleatoria ergódica, la función de autocorrelación es la misma para todas las funciones miembras del ensamble, esto quiere decir que la autocorrelación caracteriza al ensamble. Por esto cuando decimos que n(t) es una variable aleatoria ergódica, queremos decir que es una función desconocida, pero que tiene una función de correlación conocida. Lo cual representa el estado del conocimiento parcial que tenemos acerca de n(t). Dado que la autocorrelación de la variable n(t) es conocida Rn ( ) n(t )n(t )dt , (14-2) también su espectro de potencias es conocido. Pn (s) F Rn ( ) (14-3) Esto significa que conocemos el espectro de amplitudes de n(t), pero no conocemos su espectro de fases. Debemos de subrayar que el ensamble está compuesto de muchas funciones que difieren solo en su espectro de fase. Estimador de Wiener El filtro de Wiener es el filtro lineal clásico para reducir ruido. Suponga que x(t) denota a una señal observada, compuesta de la señal deseada s(t), contaminada por una señal de ruido n(t). Deseamos diseñar un filtro para reducir el ruido contaminante en la mayor medida posible, y así restaurar la señal, tan cerca como sea posible a su forma original. En otras palabras, lo que hará el filtro es ‘estimar’ cual fue la señal sin contaminar. Idealmente queremos que y(t) sea igual as(t), pero en general, un filtro lineal no tiene el poder suficiente para recuperar una señal contaminada con ruido de una manera exacta. Conocimiento parcial Antes de empezar con la solución, debemos de decidir que conocimiento tenemos acerca de s(t) y n(t). Si no sabemos nada acerca de la señal o acerca del ruido, no podemos ni siquiera iniciar la solución del problema. En el otro extremo si conocemos a alguno de los dos o ambos de una manera exacta, entonces la solución es trivial. Asumimos que ambas s(t) y n(t) son variables aleatorias ergódicas, por lo tanto conocemos su espectro de potencia. Además, suponemos que conocemos el espectro “a priori” o bien que podemos obtener muestras tanto de s(t) y n(t) y así determinar su espectro de potencias, el cual representa el ensamble. s(t) + h(t) n(t) Modelo del estimador de Wiener y(t) Criterio de Medida Pedir que y(t) sea igual a s(t), es pedir demasiado para un filtro lineal, entonces le exigiremos que funcione lo mejor posible. Como criterio de medida usaremos el error cuadrático promedio. Sin importar si h(t) es óptima o no, obtendremos una respuesta y(t) a la salida, para cada entrada s(t), definiremos el error (la señal error) a la salida del filtro como. e(t) = s(t) – y(t) (14-4) lo cual significa, la cantidad por la cual difiere la salida ‘real’ de una salida deseada, como una función del tiempo. Si la respuesta al impulso h(t) se elige adecuadamente, el error (señal de error) será en promedio relativamente pequeña. Un a elección inadecuada de h(t) producirá un error grande. Como una medida del error promedio, usaremos el error cuadrático promedio, dado por la siguiente ecuación. 2 2 ECP e (t ) e (t )dt . (14-5) Esta definición es adecuada, porque el error, es una combinación lineal de variables aleatorias ergódicas, por lo tanto ella misma es también una variable aleatoria. Notar: Que e2(t) es positiva para errores positivos y negativos. Elevar al cuadrado penaliza más a los errores grandes que a los pequeños. Error cuadrático promedio Dado el espectro de potencia de s(t) y n(t), debemos determinar la h(t) que minimice el error cuadrático promedio. Notar que el error cuadrático promedio es una función de la respuesta al impulso h(t). Obtendremos una relación funcional para el ECP (MSE) en términos de h(t). Obtendremos una expresión para la mejor respuesta al impulso h(t), que minimice el error cuadrático promedio, en términos del espectro de potencias conocido. Desarrollaremos una expresión para ECP, la cual resulta cuando se usa una h0(t). Esto es para indicar que tan bien trabaja el filtro. Expandiendo la ecuación (14-5) 2 2 2 ECP e (t ) s(t ) y(t ) s(t ) 2s(t ) y(t ) u(t ) 2 (14-6) Debido a que la esperanza es una integral ecuación (14-5), y la integral es una operación lineal, entonces obtenemos lo siguiente: 2 2 ECP s(t ) 2 s(t ) y(t ) y(t ) T 1 T 2 T 3 . (14-7) Escribiendo los tres términos en forma integral tenemos 2 2 T 1 s(t ) s (t )dt Rs (0) . (14-8) Esta relación se puede interpretar como la función de autocorrelación de s(t) evaluada en =0. Por lo tanto su valor es conocido. Escribiendo y(t) como la convolución ente x(t) y h(t), permite desarrollar la integral para el segundo término como: T 2 2 s(t ) y(t ) s(t ) h( ) x(t )dt . (14-9) Debido a que el operador esperanza es una integral sobre el tiempo, podemos reordenar la ecuación (14-9) de la siguiente manera: T 2 2 h( ) s(t ) x(t )d . (14-10) De esta manera interpretamos la esperanza como la correlación cruzada entre s(t) y x(t), por lo tanto podemos reescribir la ecuación (14-10) de la siguiente forma: T 2 2 h( ) Rxs ( )d (14-11) Expandiendo T3 como la esperanza del producto de dos convoluciones: T 3 h( ) x(t )d h(u) x(t u)du , (14-12) la cual a su vez, se puede ordenar para obtener: T 3 h( )h(u) x(t u) x(t )dud . (14-13) Haciendo un cambio de variable v=t-u, dentro del operador esperanza, el operador se transforma para resultar en: {x(t-)x(t-u)}= {x(v+u-)x(v)}, (14-14) que es la autocorrelación de x(t) evaluada en el punto u-. Entonces el tercer término se puede expresar como: T 3 h( )h(u) Rx (u )dud (14-15) Sustituyendo los tres términos en la ecuación (14-7), obtenemos: ECP Rs (0) 2 h( ) Rxs ( )d h( )h(u) Rx (u )dud (14-16) Este es el error cuadrático promedio, en términos de la respuesta al impulso y dos componentes de la señal de entrada con funciones de correlación y correlación cruzada conocidas. Como se esperaba, el resultado está en función de la respuesta al impulso h(t). Minimizando el error cuadrático promedio. Denotemos por h0(t), la función que minimiza el ECP. En general, una h(t) arbitraria difiere de la óptima h0(t), podemos definir una g(t) para medir esta diferencia. h(t) = h0(t)-g(t) (14-17) h(t) es una función arbitraria, g(t) se elige adecuadamente para que la igualdad se cumpla. Sustituyendo g(t) de la ecuación (14-16) en la ecuación (14-16) obtenemos: ECP Rs (0) 2 h0 ( ) g ( )Rxs ( )d (14-18) h0 ( ) g ( )h(u) g (u) Rx (u )dud Expandiendo esta ecuación, produce 7 términos: ECP Rs (0) 2 h0 ( ) Rxs ( )d h0 ( )h0 (u) Rx (u )d du (14-19) h0 ( ) g (u) Rx (u )d du h0 (u) g ( ) Rx (u )d du 2 g ( ) Rxs ( )d du g ( ) g (u) Rx (u )d du . Comparando los tres primeros términos con la ecuación (14-16), observamos que su suma corresponde al error cuadrático promedio, cuando se usa la respuesta al impulso óptima h0(t). A esos tres términos los denotamos por ECP0. Puesto que la función de autocorrelación Rx(u-) es par, el cuarto y quinto términos son iguales, los podemos combinar con el sexto término y reducir la ecuación como sigue: ECP ECP0 2 g (u ) ho ( ) R x (u )d R xs (u )du (14-20) g (u) g ( ) Rx (u )d du ECP0 T4 T5 Para mostrar que T5 no es negativo sustituimos Rx(u-) por su expresión integral obtenemos: T5 g (u) g ( ) x(t ) x(t u)d du dt . (14-21) Ordenando términos: T5 g (u ) x(t u )du x(t ) g ( )d dt (14-22) Si denotamos por z(t) a la función que resulta de convolver g(t) con x(t), la ecuación (14-22) se puede escribir como: T5 z2 (t )dt 0 . (14-23) Regresando a la ecuación (14-20) ECP ECP0 2 g (u ) ho ( ) R x (u )d R xs (u )du T 5 (14-24) ECP0 es el error cudrático promedio bajo condiciones óptimas, T5 es independiente de h0(t) y no puede ser negativo. Ahora solo falta establecer condiciones a h0(t) para asegurar que el ECP0 es el valor más pequeño del ECP. Haciendo que el término dentro de los paréntesis sea igual a cero para todos los valores de u, reduce el término T4 a cero. Esto conduce a la condición necesaria siguiente: Rxs ( ) ho (u) Rx (u )du . (14-25) La expresión final para el ECP es: ECP ECP0 T 5 T5 0 , de donde evidentemente ECP ECP0 (14-27) (14-26) Para un sistema lineal se cumple que la correlación cruzada entre la entrada y salida esta dada por Rxs ( ) ho (u) Rx (u) . (14-28) Donde Rx(u) es la función de autocorrelación de la señal de entrada. Notar que el lado derecho de la ecuación (14-25) es una integral de convolución que se puede escribir como: Rxs ( ) ho (u) Rx (u) Rxy ( ) (14-29) Esto relaciona la respuesta al impulso optima con la autocorrelación de la señal a la entrada y la correlación cruzada de la entrada y la señal deseada. La segunda igualdad resulta de la ecuación (14-28) e ilustra que el filtro de Wiener hace que la función de correlación cruzada de la entrada con la salida sea igual función de correlación cruzada ente la señal con la señal más el ruido. Tomando la transformada de Fourier en ambos lados de la ecuación (14-29) obtenemos: Pxs (s) H o (s) Px (s) Pxy (s) , (14-30) lo cual implica que: ( s) H o ( s) Pxs , Px ( s) (14-31) sea la expresión del filtro de Wiener en el dominio de la frecuencia. Diseño del filtro de Wiener. Digitalizar una muestra de la señal de entrada s(t). Autocorrelacionar la muestra para producir una estimación de Rx(). Calcular la transformada de Fourier de Rx() para obtener Px(s). Obtener y digitalizas una muestra de la señal sin ruido. Realizar la correlación cruzada entre la muestra de la señal, con la señal de entrada (obtenida en el primer paso), para obtener Rxs(). Calcular la transformada de Fourier de Rxs() para producir Pxs(s). Calcular la función de transferencia para el filtro optimo por medio de la ecuación (14-31). Si el filtro va a ser instrumentado por medio de la convolución, calcule la transformada inversa de H0(s), para producir la respuesta al impulso h0() del estimador lineal óptimo No es posible (o práctico) obtener muestras de la señal libre de ruido, y de la señal. Por esa razón se pueden asumir formas funcionales para las funciones de correlación y del espectro de potencias necesarias en la ecuación (14-31).